아마존웹서비시즈
기술 스택 정보가 없어요.
소성은
DeepMind의 AlphaProof와 AlphaGeometry2
DeepMind에서 예전에 AlphaTensor로 발견되지 않았던 더 효율적인 matrix multiplication 방법을 찾아냈었는데요, 이번에는 국제수학올림피아드 문제를 풀었을 때 은메달 수준을 달성했다고 합니다. 현재의 LLM은 매우 뛰어나지만, 아직까지 reasoning (특히 수학과 같은 분야) 능력이 많이 부족한데요, 이번 결과는 일반인 보다 훨씬 뛰어난 reasoning을 달성했다는 점에서 정말 대단하다고 보여집니다. Gemini를 AlphaZero에 사용했던 것과 유사한 강화학습 방법으로 fine-tuning을 했다고 합니다만, 자세한 내용이 공개되어 있지는 않습니다. 아마 천천히 research paper나 관련 코드들을 조금씩 공개하지 않을까 싶습니다. 개인적으로 아직은 AGI는 한참 멀었다고 생각하지만, 다양한 기술들이 합쳐지고 빠르게 발전하면서 여러 분야에서 사람을 뛰어넘는 경우가 많이 생길 것 같습니다. https://deepmind.google/discover/blog/ai-solves-imo-problems-at-silver-medal-level/
소성은
Mistral Large 2 공개
Llama 3.1 이 공개된지 얼마나 되었다고 하루이틀 만에 Mistral Large 2가 공개되었습니다. 흥미롭게도 벤치마크 비교에 Llama 3.1 관련 내용을 다 넣어놓았습니다. 미리 모델을 받아서 테스트해봤거나 공개되자마자 테스트해 본 걸까요? 정말 매우 빠르게 테스트를 했네요..ㄷㄷ 아무튼 벤치마크 성능을 보면 SOTA 모델들과 비슷하거나 조금 낮은 수준이지만, 크기가 123B 정도라서 Llama 3.1 405B에 비하면 훨씬 production 적용이 용이해 보인다는 점이나 llama가 multilingual을 지원한다고는 하지만 한국어가 공식적으로 지원되지는 않는데 여기서는 지원된다는 점이 특징일 것 같습니다. 공개된 모델 자체는 research only 라이센스입니다만, 많은 회사들이 계약을 맺고 API 형태로 제공해줄 것 같습니다. 여러모로 경쟁이 심한만큼 좋은 모델들이 계속 쏟아져 나오는군요..ㅎㅎ https://mistral.ai/news/mistral-large-2407/
💡
아마존웹서비시즈 사람들의
생각이 궁금하다면?