이미지 분류의 경우 정확도를 향상하는 여러 가 | 커리어리

이미지 분류의 경우 정확도를 향상하는 여러 가지 기법이 알려져 있습니다. 논문 'Bags of Tricks for Image Classification with CNNs'가 그것들을 망라한 작업물이라 할 수 있겠네요. 논문에 나온 대로 Label Smoothing이나 Mixup은 큰 효과가 있을까요? RAdam이나 AdamW 같은 옵티마이저를 추가로 써보면 어떨까요? SWA는요? Kaggle 대회에서 자주 쓰이는 TTA, K-fold Ensemble, Pseudo Labeling 같은 기법은 정말 잘 작동할까요? 이런 궁금증을 풀기 위해서 Kaggle의 오래전 대회 'State Farm 산만한 운전자 감지' 데이터셋을 가지고 다양한 실험을 해보았습니다. 추가로 데이터셋 파이프라인에서부터 모델 서빙까지, 딥 러닝 모델의 생애주기를 모두 한번 구현해보았습니다.

GitHub - aldente0630/state-farm-detection: State Farm Distracted Driver Detection via Image Classification

GitHub

2022년 3월 20일 오전 7:34

댓글 0

함께 보면 더 좋은

OpenAI는 그 거대한 뉴럴 네트워크 모델을 어떻게 합리적인 시간 안에 학습시킬 수 있었을까요? 해답은 다양한 딥러닝 병렬 처리 기법들의 조합입니다. - 데이터 병렬 처리 - 서로 다른 GPU에서 배치의 서로 다른 하위 집합을 실행합니다. - 파이프라인 병렬 처리 - 서로 다른 GPU에서 모델의 서로 다른 레이어를 실행합니다. - 텐서 병렬 처리 - 여러 개의 GPU에 분할되는 행렬 곱셈처럼 단일 작업에 대한 수리적 연산을 나눕니다. - 전문가 혼합(MoE) - 각 레이어의 일부만 사용하여 각 샘플을 처리합니다. 초거대 모델에 대한 업계 관심에 높아지고 있고 산업 한가운데에 있는 저 또한 그러한 열기를 느끼고 있는데요. 때마침 지난 6월 9일 OpenAI는 병렬 처리 기법들에 대해 간결하지만, 종합적으로 다룬 글을 자사 블로그에 게재했습니다. 개론으로 삼을만한 아주 좋은 글이기에 직접 번역해봤습니다.

OpenAI는 뉴럴 네트워크 대형 모델을 어떻게 학습시키는가

Velog

추천 프로필

현직자에게 업계 주요 소식을 받아보세요.

현직자들의 '진짜 인사이트'가 담긴 업계 주요 소식을 받아보세요.

커리어리 | 일잘러들의 커리어 SNS