OpenAI Sora의 동작 원리

Diffusion Transformers(DiT), Latent Diffusion을 기반으로 하며, 모델과 훈련 데이터셋을 대규모로 확장되었는데요. 훈련에는 1개월 동안 4,200~10,500개의 Nvidia H100 GPU로 추정되는 엄청난 양의 컴퓨팅 파워가 필요하다고 하네요..


괴물같은 성능을 가진 만큼, 엄청난 리소스를 필요로 하는데요.

요즘 인공지능 화두는 성능도 성능이지만, 계산 최적화와 경량화에 초점이 맞춰져가는 것 같아요..!


https://factorialfunds.com/blog/under-the-hood-how-openai-s-sora-model-works

Factorial Funds | Under The Hood: How OpenAI's Sora Model Works

Factorial Funds

Factorial Funds | Under The Hood: How OpenAI's Sora Model Works

더 많은 콘텐츠를 보고 싶다면?

또는

이미 회원이신가요?

2024년 3월 22일 오전 2:45

 • 

저장 29조회 3,086

댓글 0

    함께 읽은 게시물

    < 보여서 걷는 게 아니라, 걷다 보니 길 >

    1

    ... 더 보기

    < 피터 드러커가 말한 7살도 아는 성공 공식 >

    1

    ... 더 보기

    《끝까지 듣는 사람》

    <

    ... 더 보기

    혹시 Claude 나 cursor 등 AI 로 개발하실 때
    뭔가 AI 스러운 뻔한 디자인 때문에

    ... 더 보기

    LinkedIn

    www.linkedin.com

    LinkedIn