
있었던 일
- ice breaking을 했는데 쉽지 않았어 이거 진짜로
- 강의 들으면서 공부하고 팀원들과 토론하고 리뷰하는 시간을 가졌어
공부한것
- 파이토치 사용법을 처음부터 끝까지 제대로 배웠어
- data를 kaggle로부터 끌어와서 전처리하고, 간단한 비선형 모델을 만들고, optimizer를 정해서 직접 학습시켜볼 수 있었어
- tensor의 차원이 어떻게 변경되는지 또 slice, indexing 과 같은것에 대해 제대로 배울 수 있었어. nerf에서 tensor matmul하는거 계산하기 너무 어려웠는데 이제 다시보면 이해 할 수 있어.
- 표본 상관계수는 feature와 label이 동시에 변하는 정도를 각각이 변하는 정도의 크기로 나누는 것이래
- 우리는 우리가 사용할 data가 어떤식으로 분포되어있는지 알 수 없어. 따라서 데이터 분포의 특징을 나타내는 모수 Θ를 얻어내야하는데 이것을 어떻게 얻냐? -> 가능도를 최대화 하는 방법을 사용해
- 그 data들로부터 distribution을 알 수 있으면 다시 그 distribution으로 부터 sampling 해서 새로운 data 등을 얻어낼 수 있는거지
- 가능도란 주어진 데이터가 특정 모수값 하에서 관찰될 확률을 의미한다. L( Θ ;x) = x라는 data와 그것을 이루는 모수를 이루는 가능도 = p( x|Θ)
- 관측된 data를 잘 설명할 수 있는 분포를 그냥 관찰될 확률이 가장 높은 분포로 생각하자는거지. 이때 p(x| Θ) 의 최대값을 구하기 위해 log를 씌우고 Θ에 대해서 미분하여 미분계수가 0이 되는 지점을 최대라 생각한다.
- torch.nn.Module.parameters()은 generator이다. list로 변환시켜서 index로 접근하거나 for문을 통해 접근할 줄 알았는데, 그냥 파라미터 이름으로도 접근이 되었다.
- 이미지의 차원은 R,G,B 3차원으로 되어있다. 위 이미지의 가운데 그림처럼 표현. 왼쪽 위가 원점이다.

느낀것
- configuous나 reshape이나 view나 맨날 체계없이 검색하고 까먹기 일수였는데 남이 설명하는걸 들으니 기억에 잘 남을것 같아
- 개발적인 부분에 대해서 거리감을 느꼈었는데 이렇게 따라하니까 익숙해지는것 같아
- 내향적인 나에게 결이맞는 사람들을 만나게 된것 같아서 다행쓰
- 같은 목표를 가진 사람들과 같이 활동하니 좋아

- 부스트캠프와는 별개로 따로 논문 읽는것을 꾸준히 해야겠어
- 시간 아껴야 겠다고 느꼈어