Factorial Funds | Under The Hood: How OpenAI's Sora Model Works
Factorial Funds
Diffusion Transformers(DiT), Latent Diffusion을 기반으로 하며, 모델과 훈련 데이터셋을 대규모로 확장되었는데요. 훈련에는 1개월 동안 4,200~10,500개의 Nvidia H100 GPU로 추정되는 엄청난 양의 컴퓨팅 파워가 필요하다고 하네요..
괴물같은 성능을 가진 만큼, 엄청난 리소스를 필요로 하는데요.
요즘 인공지능 화두는 성능도 성능이지만, 계산 최적화와 경량화에 초점이 맞춰져가는 것 같아요..!
https://factorialfunds.com/blog/under-the-hood-how-openai-s-sora-model-works
더 많은 콘텐츠를 보고 싶다면?
이미 회원이신가요?
2024년 3월 22일 오전 2:45
누
... 더 보기하나부터 열까지 리더가 상세히 설명해 주기를 바라는 구성원이 있습니다. 반대로 큰 얼개만 듣고 나머지는 자율적으로 하고 싶어 하는 경우도 있죠. 회식에 참여하는 것을 너무나 힘겨워 하는 구성원이 있는 반면, 동료들과 함께 시간을 보내며 가까워지는 것을 원하는 구성원도 있습니다.
... 더 보기5
... 더 보기프로덕트 매니저(PM)로 일하면서 늘 지표 이야기를 듣게 됩니다. 대부분 PM은 선행지표(leading indicator)와 후행지표(lagging indicator)의 개념을 잘 이해하고 있습니다. 하지만 선행지표에 영향을 미치는 '인풋(input) 지표, '아웃풋(o
... 더 보기