(번역) Create React App 지원 종료
www.harimkim.com
Google DeepMind의 최신 연구에 따르면 모델의 크기를 키우고 학습을 오래 시키면 LLM의 할루시네이션을 억제 할 수 있다고 합니다. 반대로 데이터가 증가하면 할루시네이션이 증가하고요.
여기까지는 상식적으로(?) 추측 할 수 있는 바인데요. 문제(?)는 할루시네이션을 억제하기 위해서는 기존에 계산된 최적의 사이즈보다 무려 ”1자리“ 수가 더 큰 모델 사이즈와 계산량이 필요하다고 합니다.
즉, 할루시네이션을 일으키는 비율은 모델 사이즈를 키우고 시간 학습을 늘리면 개선 할 수 있지만, 효율이 무지막지하게 떨어진다는 것이죠.
할루시네이션을 억제하는 것은 물론 중요하고, 학습과 추론에 필요한 하드웨어 비용도 점점 싸지고 있긴 하지만, 100% 완전히 없어지는 것도 아닌데 1자리수가 넘는 수준의 비용을 더 쓰는 것이 합리적인 방법은 아닐 것 같긴하네요.
더 많은 콘텐츠를 보고 싶다면?
이미 회원이신가요?
2024년 8월 17일 오전 5:22
Q) 🙋♀️ 데이터를 활용해 UX를 개선했다는 걸 잘 보여주고 싶어요. 포폴에서 어떤 식으로 서술하면 좋을까요? (예비 디자이너 분)
... 더 보기GPT-4.5 출시 후 GPT-4o의 성능이 빠르게 좋아지고 있음. GPT-4.5로 GPT-4o를 튜닝하면서 성능을 끌어올리고 있는 것이 아닌가 싶음. GPT-4o 수준의 파인튜닝 속도가 진짜 빠르다는 것이 놀라움. 이것이 OpenAI의 최대 강점일 수도.
C
... 더 보기MCP는 기술적으로는 거의 순수하게 Function Calling의 Thin Wrapper에 불과함.
다만, 현재 대부분의 애플리케이션이 Function Calling을 지원하지 않는 상태라, LLM에 Function Calling을 주입할 수 있는 서버를 쉽게 만들 수 있는 라이브러리를 제공했던 것이 MCP를 확산시키는 데에 크게 기여를 한 것.