Dario Amodei — On DeepSeek and Export… | Snippod
Snippod
딥시크가 화제 몰이를 할 때, 저도 여러 생각이 떠올랐는데요.
저도 전문가가 아닌 다음에야 떠들기엔 스스로 부족함을 잘 알고 있어 포스팅은 잘 하지 않게 됩니다... (가끔 생각을 정리해서 스닙팟에 올리곤 하지만 😅)
그런데, 또 앤트로픽 다리오 아모데이 CEO가 개인 블로그에 '딥시크와 수출 통제' 에 대한 글이 올라와서 이 분의 글에서 좋은 인사이트를 발견해 요약해 봅니다.
앤트로픽 대표의 딥시크 모델에 대한 의견:
DeepSeek V3 은 사전학습 모델로 한달전에 나왔고 실제로 강력한 혁신을 이뤄냈음. (성능은 Claude 3.5 Sonnet 수준을 따라잡고 학습 효율은 확실히 낮추는데 성공함)
* "Key-Value cache", "mixture of experts" 를 발전시킨 부분 이렇게 2가지가 특히 인상적이었다고.
하지만 최종 학습에 들어간 비용만 보면 Claude 3.5 Sonnet 도 DeepSeek 가 발표한 금액의 166% 수준임. 그렇게까지 차이가 나는게 아님! 비용곡선감소 연간 4배 수준을 고려하면 딥시크가 발표한 금액 자체가 놀라운 것이 전혀 아니며 추세 곡선에 속하는 수준.
딥시크가 보유했다고 알려진 GPU Hopper 칩 50,000여개는 약 10억달러에 해당함. * xAI 의 경우 최근 100,000개 클러스터 구축. 그들의 보유한 GPU 클러스터 운영비용은 미국 탑티어 급 수준이 들어갈 것. 또한 R1 의 경우 DeepSeek 가 v3에서 보여준 수준으로 인상적인 혁신은 아니며 OpenAI가 o1 에서 수행된 정도와 유사한 작업으로 판단됨.
조금 더 자세한 본문 요약:
다음 내용이 궁금하다면?
이미 회원이신가요?
2025년 2월 3일 오전 5:18