Can large language models identify and correct their mistakes?
Research
모니터링은 못해도 장애 대응은 잘 한다는거구나... 👷
TL;DR
❓ LLM이 다른 LLM의 추론 오류를 찾아내서 고쳐줄 수 있을까?
🙅♀️ 어렵다, CoT 추론에서 발생한 논리적 오류를 제대로 발견 못하며(가장 우수한 모델조차 겨우 53% 정도) 이를 통해 정답의 정확도를 측정하는 작업 또한 신뢰성이 낮음
💡 근데 LLM에게 오류가 발생한 추론 단계를 정확히 알려준다면 백트래킹 기법으로 정정이 가능하다
🤔 근데 오류가 발생한 단계를 어떻게 알려줘? 별도의 파인튜닝한 리워드 모델을 사용 → LLM의 제로샷 프롬프팅보다 정확도 0~20% 향상
논문: https://arxiv.org/abs/2311.08516
데이터셋: https://github.com/WHGTyen/BIG-Bench-Mistake
더 많은 콘텐츠를 보고 싶다면?
이미 회원이신가요?
2024년 1월 13일 오후 1:01
1. 자신을 두 존재로 생각하십시오.
스트레스를 잘 관리하면서 건강하게 살아가고 싶다면, 우선 살아있는 한 우리가 해야 할 일들은 영원히 없어지지 않을 것이므로, 해야 할 일을 100% 해내면서 할 일 목록을 완전히 없애는 데 많은 노력을 들이기보다는 70% 정도만 해내도 만족할 필요가 있다.
... 더 보기‘똑부(똑똑하고 부지런하기)보다 똑게(똑똑하지만 게으른) 리더가 되라.’ 리더십 코칭에서 빠지지 않는 훈수다. 현장 리더들의 말을 들어보면 실행이 쉽지 않다.
... 더 보기