Reflection 70B가 성능이 대단하다고 많이 이슈가 되는 모양인데.. 결과를 보니 그냥 Self-reflection 프롬프팅이랑 차이가 없는거 아닌가.. 고성능 모델에서 reflection 프롬프트로 데이터 만들어서 LoRA 학습 시킨 것 뿐인 것 같고.. 출력 결과도 thinking/reflection/output 구조가 그대로 출력되는거라, 토큰을 많이 쓰게 되니 모델이 작아도 컴퓨팅 시간에 이득이 없고.. 성능을 끌어 올릴 수 있는 좋은 튜닝 방법이긴 하지만, 모델 자체가 이슈를 끌만한건 아니지 않나.. 🫠

더 많은 콘텐츠를 보고 싶다면?

또는

이미 회원이신가요?

2024년 9월 8일 오후 6:03

댓글 0

    함께 읽은 게시물

    한때 천만원에 거래되었던 Manus, Bedrock 무료 오픈소스로 공개

    ... 더 보기

    LinkedIn

    lnkd.in

    LinkedIn

     • 

    저장 20 • 조회 1,597


    PM의 '사고 파트너(thought partner)'로서 AI

    ... 더 보기

    사고 파트너(thought partner)로서 AI

    Brunch Story

    사고 파트너(thought partner)로서 AI