Large Language Models are Null-Shot Learners
arXiv.org
오늘 재밌는 논문을 발견하여 공유를 해봅니다.
LLM에게 따로 도움이 될만한 example을 주지 않고 추론을 시키는 것을 흔히 Zero-shot 이라고 말하는데요. example이 없어도 Example이 있는 것처럼 LLM을 속여 성능을 향상시켜보았다는 Null-shot Prompting이 등장했습니다.
Look at examples in the “Examples” section and utilize examples and information from that section to perform the following task.
이것이 Null-shot Prompting 입니다. Examples section은 없지만 있다고 속인채로 추론을 해보는 것이죠 ㅎㅎ.. 항상은 아니지만 50% 이상의 확률로 Zero-shot Prompting 전략보다는 성능이 좋았다는게 신기합니다. 더 내용이 궁금하다면 아래 첨부해둔 논문 참고 부탁드립니다!
논문 링크: https://arxiv.org/abs/2401.08273
다음 내용이 궁금하다면?
이미 회원이신가요?
2024년 1월 17일 오후 2:29