이미지 분류의 경우 정확도를 향상하는 여러 가지 기법이 알려져 있습니다. 논문 'Bags of Tricks for Image Classification with CNNs'가 그것들을 망라한 작업물이라 할 수 있겠네요.
논문에 나온 대로 Label Smoothing이나 Mixup은 큰 효과가 있을까요? RAdam이나 AdamW 같은 옵티마이저를 추가로 써보면 어떨까요? SWA는요? Kaggle 대회에서 자주 쓰이는 TTA, K-fold Ensemble, Pseudo Labeling 같은 기법은 정말 잘 작동할까요?
이런 궁금증을 풀기 위해서 Kaggle의 오래전 대회 'State Farm 산만한 운전자 감지' 데이터셋을 가지고 다양한 실험을 해보았습니다. 추가로 데이터셋 파이프라인에서부터 모델 서빙까지, 딥 러닝 모델의 생애주기를 모두 한번 구현해보았습니다.