lnkd.in
Reflection 70B가 성능이 대단하다고 많이 이슈가 되는 모양인데.. 결과를 보니 그냥 Self-reflection 프롬프팅이랑 차이가 없는거 아닌가.. 고성능 모델에서 reflection 프롬프트로 데이터 만들어서 LoRA 학습 시킨 것 뿐인 것 같고.. 출력 결과도 thinking/reflection/output 구조가 그대로 출력되는거라, 토큰을 많이 쓰게 되니 모델이 작아도 컴퓨팅 시간에 이득이 없고.. 성능을 끌어 올릴 수 있는 좋은 튜닝 방법이긴 하지만, 모델 자체가 이슈를 끌만한건 아니지 않나.. 🫠
더 많은 콘텐츠를 보고 싶다면?
이미 회원이신가요?
2024년 9월 8일 오후 6:03
한
... 더 보기누
... 더 보기