메타에서 공개한(정확히는 유출된) LLaMA 65B 모델을, 단 1,000개의 고품질 인스트럭션 데이터 튜닝만으로 GPT-4와 Bard에 맞먹는 성능을 갖게되었다고. 확실히 일정 수준 이상의 경험적 지식을 갖춘 LLM은 인간과 유사하게 학습이 되는게 아닌가 싶습니다.

LIMA: Less Is More for Alignment

arXiv.org

LIMA: Less Is More for Alignment

더 많은 콘텐츠를 보고 싶다면?

또는

이미 회원이신가요?

2023년 5월 22일 오후 2:09

 • 

저장 3조회 1,976

댓글 0