딥러닝/부스트캠프 ai tech

7주차 회고

stop0729 2024. 9. 28. 01:28

ㅋㅋ

 

 

 

wrapup report의 개인회고와 같다.

 

 

 

나는 내 학습목표 달성을 위해 무엇을 어떻게 했는가?

  • 기존 방식에서 어떤것이 좋은지 찾고, 왜 좋은지 생각을 많이 하려고 했다. convolution과 attention의 장점을 섞은 coatnet을 찾아 사용했고 정확도가 높은것을 볼 수 있었다. 이것이 왜 좋은지 설명을 하고 싶기에 논문과 자료를 찾아보았다. 또 faliure analysis를 하며 모델이 어떻게 틀리게 예측했는지, 어떤점을 고쳐야 왜 정확도가 올라갈 수 있을지 고민을 하였다. 이후에는 팀원들의 k-fold와 ensemble, 증강 부분에서 조금씩 도움을 주고 같이 고민을 하였다. resizing도 해보고 augment도 해보고 팀원들이 전체적으로 어떤 실험을 하는지, 왜 좋아지고 나빠지는지를 생각하려고 했다.

 

 

 

나는 어떤 방식으로 모델을 개선했는가?

  • baseline이 되었던 coatnet을 찾은것과 ensemble 부분에서 도움을 준 것 이외는 모델 개선에 있어 도움이 되지 못한것 같다.

 

 

 

 

내가 한 행동의 결과로 어떤 지점을 달성하고, 어떤 깨달음을 얻었는가?

  • 직접 실험하지는 못했지만 여러 모델의 ensemble을 통해 한 모델의 한쪽으로 치우진 판단을 일반화 시켜, 성능을 꽤나 좋게 만드는 모습을 볼 수 있었다.

 

 

 

 

전과 비교하여 새롭게 시도한 변화는 무엇이고, 어떤 효과가 있었는가?

  • 팀원의 말을 따라 모르고 두려워하는것이라도 일단 부딪히고 하자라는 마인드로 프로젝트에 임하려고 했다. 그랬더니 없던 자신감이 생겼다!

 

 

 

 

마주한 한계는 무엇이며, 아쉬웠던 점은 무엇인가?

  • 코드 분석과 그것을 위한 툴 사용에 있어 어려움이 많았다. 디버깅 경험이 적기에 발생한 오류를 고치기가 많이 어려웠고, 모듈화에 있어서도 어려움이 있었고, gpt도 많이 사용했다. 도움만 줄것이 아니라 직접 ensemble 해보지 않은점, 생각했던것을 마음데로 구현하지 못하는점, 깃헙 사용에 있어서 미숙했던점이 아쉬웠다. 또한 초반부터 너무 한 모델에 치우쳐서 다른 모델을 생각하지 못했던 점이 아쉽다. diffusion 증강, lora 파라미터 최적화, mixed precision, num workers, accumulation 최적화 등등 생각치도 못했던 기법들이 많아서 아쉬웠다. 

 

 

 

 

한계/교훈을 바탕으로 다음 프로젝트에서 시도해볼 것은 무엇인가?

  • 다음 프로젝트 시작전 팀원들의 코드도 분석해보고 baseline code에서 모듈화도 해보고 이것저것 해보면서 코드에 더 익숙해져야겠다. github 강의도 들어보고 commit이나 issue 형식에 관해서 조금씩 알아보고 싶다. 프로젝트에서는 hugging face에서 정리해놓고 풀어준 다양한 모델들을 잘 활용하면 좋겠다 싶다. 열린 마인드로 좀 더 다양한 기법들을 활용해보고 싶다. 팀원이 고안한 코드를 오픈리뷰하면서 토론해보는것도 해보고 싶다.

 

 

 

 

개인적인 회고

  • 분류라는 문제에 대해 어디까지 생각해봤느냐, 왜 그런식으로 문제 해결을 하였는가 라는 질문에 어느 정도는 대답할 수 있을 것 같다. 가설을 세워 실험해보고 왜 맞았는지, 왜 틀렸는지 분석하며, 개선점을 찾아내는 일련의 과정이 처음이었고, 재미있었다. 마지막으로는 프로젝트를 진행하면서 단순한 인공지능 관련 지식이외에 많은것을 팀원들로부터 배울 수 있었다. 역할 배분과 문서화, 소통, 열정, 끈기 등 팀원들의 여러 모습들을 보고 많은 것을 느낄 수 있었다. 다음에는 스스로 팀에 더 도움이 되었음 좋겠다.

'딥러닝 > 부스트캠프 ai tech' 카테고리의 다른 글

13-15 주차 회고  (0) 2024.12.01
8-10 주차 회고  (0) 2024.10.27
6주차 회고  (0) 2024.09.15
5주차 회고  (0) 2024.09.08
4주차 회고  (0) 2024.08.31