OpenAI가 새로운 연구를 발표했는데요. (고급)고성능의 모델을 교육 할 때 약한 모델이 쉽게 확인할 수 있는 텍스트를 생성하도록 한다는 것 입니다.


그렇게 하면 고성능 모델이 출력한 텍스트를 인간이 더 쉽게 평가할 수 있다는 사실을 발견했다고 하는데요. 이를 통해 학습과 정렬을 더 잘 할 수 있게 됩니다.


그런데, 이걸 다르게 말하면 고성능 모델은 보통의 인간이 알아듣기 어려울 정도의 고차원의 사고와 출력을 한다는 이야기가 될 수도 있겠습니다.


즉, 이제 AI가 지나치게 똑똑해져서 인간이 못알아먹는다는 이야기죠.


얼핏 들으면 무슨 SF 소설에나 나올법한 이야기인데요. 현실에서 벌어지고 있는 일이라니, 신기하면서도 뭔가 무서운 생각이 들기도 하네요.

더 많은 콘텐츠를 보고 싶다면?

또는

이미 회원이신가요?

2024년 7월 18일 오전 3:40

댓글 1