이에 대한 방향성에 대한 글을 OpenAI 블로그에 올렸습니다.
📝 https://openai.com/research/weak-to-strong-generalization
우선 문제부터 보면, 문제는 아주 간단한데요. 초지능이라함은 인간보다 뛰어난 지능을 갖춘 것인데, 그보다
덜 똑똑한 인간이 관리 감독하려고 한다는 것이죠. 이에 따라 덜 똑똑한 인간이 더 똑똑한 AI를 관리하기위한 방법을 찾는 것으로 방향을 잡았습니다. (말만 들으면 참~쉽죠?🤣)
이를 실험하기 위해 작은 모델로 큰 모델을 감독하는 방법을 실험했는데요. 즉, 덜 똑똑한 AI로 더 똑똑한 AI를 감독하는 방법을 고안하고 실험하였습니다.
결과로는 GPT-2 수준의 모델로 GPT-4 를 감독하는 실험을 진행하여 일부 성공하였고, 이 방법을 일반화 할 수 있는 가능성을 확인했다고 합니다.
그야말로 콜럼버스의 달걀과 같은 느낌인데요. 글을 읽으면서 Alignment 를 진심으로 연구하고 있다는 것에 안심이 되기도 하고, 이 사람들은 정말 AGI의 개발과 출현을 진심으로 믿고 있구나라는 생각 등, 참 대단하고 부럽다는 생각이 많이 들었습니다.
다음 내용이 궁금하다면?
이미 회원이신가요?
2023년 12월 15일 오전 11:03