[모델의 성능을 향상시키는 Feature Engineering 방법]

머신러닝, 딥러닝 모델에 투입하는 피쳐(재료)를 얼마나 잘 손질 하느냐가 모델의 성패를 좌우할 수 있습니다! 저도 요즘 딥다이브하여 공부하고 있는 ‘Feature Engineering(특성공학)’의 주요 방법에 대해 잘 설명한 아티클을 소개드립니다! 큐레이터의 정리도 공유드려요 🙂 [💡 큐레이터의 정리] ✔️ 피쳐를 잘 줘야 모델이 잘 예측을 합니다! 피쳐 엔지니어링의 주요 방법으로는 ✔️ Imputation (대치) - 결측치에 대해 적절한 통계값(평균값, 중앙값 등)으로 채워 넣는 것입니다. ✔️ Scailing (정규화, 표준화 등) - 수치형 피쳐에 대해서 피쳐별 스케일을 맞추는 것입니다. 가장 작은 값을 0 가장 큰 값을 1로 하거나(정규화), 평균을 0 분산을 1인 정규분포화(정규화)하는 방법을 많이 사용합니다. ✔️ One Hot Encoding - 범주형 변수를 수치형 변수로 인코딩 하는 방법입니다. (0, 1 등) 범주형 변수를 수치형 변수로 변환하는 작업은 Response Coding(가격 예측 등에서 각 범주의 평균값을 넣는다던지) ✔️ Log Transformation (로그 변환) - 스케일링의 한 방법으로, 수치형 변수의 값을 로그변환으로 skewness(치우침 정도)를 줄이는 방법입니다. 상황과 모델에 따라 선택해야 할 Feature Engineering 방법은 다양합니다! (위의 것 외에도 많습니다.) 조금 지루한 과정이라 느껴질지라도 데이터 과학자의 숙명인 Feature Engineering은 계속해서 공부해야 할 분야로 보이네요 😃

Which Feature Engineering Techniques improve Machine Learning Predictions?

Medium

Which Feature Engineering Techniques improve Machine Learning Predictions?

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2022년 11월 16일 오전 9:55

 • 

저장 3조회 1,715

댓글 0