<권정혁님의 Cloud GPU 가이드>

커리어리 친구들, 권정혁님이 이번주 개발자 뉴스 레터를 발행하면서 Cloud GPU 가이드 - "AI에 어떤 GPU를 어디서 써야할까?" 라는 제목에 아주 시기 적절하게 영문 블로그를 번역해서 정리해 공유했습니다. 🕹️ 클라우드 GPU에서 어떤 GPU를 사용해야 할까요? 🛸 Falcon-40B, Falcon-40B-Uncensored, or Falcon-40B-Instruct: 비용 상관없이 최고의 성능을 원한다면 H100 2개, 비용과 성능 밸런스를 추구한다면 RTX 6000 Ada 2개(A6000 이나 RTX6000 아님) 또는 저렴하게 원하면 A6000 2개 🛸 MPT-30B: 최고의 성능이나 가성비: H100 1개, 저렴 : A100 80GB 1개 🛸 Stable Diffusion: 최고의 성능 : H100 1개, 가성비 : 4090 1개, 저렴 : 3090 1개 🛸 Whisper: Stable Diffusion과 같음. Whisper-Large 는 더 적은 VRAM에서 실행가능하지만, 대부분 클라우드는 그런 카드가 없음. 4090/3090도 잘 동작하고, CPU에서도 가능 🛸 초거대 LLM을 파인튜닝 한다면, H100 클러스터 또는 A100 클러스터 🛸 초거대 LLM을 훈련하고 싶다면, 대규모 H100 클러스터 🕹️ 로컬 GPU를 쓴다면: 🛸 위와 거의 같지만, LLM 훈련 및 파인튜닝은 불가 🛸 대부분의 LLM들은 작은 VRAM에서 실행 가능한 버전이 있음 (Falcon on 40GB) 🌸 모델들을 로컬에서 실행해야 할까? 클라우드 GPU로 실행해야 할까? 🛸 둘다 합리적인 선택임. 모델을 클라우드에서 실행하려면 Runpod 의 템플릿 이 가장 쉬운 선택임. 🛸 가장 쉬운 옵션은 호스트된 인스턴스를 사용하는 것 : DreamStudio, RunDiffusion, Playground AI for stable diffusion 등 🌸 RTX 6000, A6000, 6000 Ada 은 무슨 차이야 ? 셋이 완전히 다름. 🛸 RTX 6000 (Quadro RTX 6000, 24 GB VRAM, 2018/08/13 출시) 🛸 RTX A6000 (48 GB VRAM, 2020/10/05 출시) 🛸 RTX 6000 Ada (48 GB VRAM, 2022/12/03 출시) 🌸 DGX GH200, GH200, H100? 🛸 1개의 DGX GH200 은 256개의 GH200 을 포함하고 있음 🛸 1개의 GH200 은 1개의 H100 과 1개의 Grace CPU를 포함 🌸 H100 은 A100에서 메이저 업그레이드인가 ? 🛸 물론 스피드 향상이 매우 큼. H100은 A100 보다 더 많은 수의 GPU로 확장이 가능. 다시 말해, LLM 훈련에는 H100 여러대가 최고임 🌸 AMD, Intel, Cerebras 중 선택하면, 현재로선 Nvidia가 제일 쉬움 🌸 어떤 GPU 클라우드를 써야할까 ? 🛸 다수의 A100/H100이 필요하다면: HPE, Oracle, FluidStack, Lambda Labs 등에 문의. 🛸 몇대의 A100이 필요하다면: FluidStack or Runpod 🛸 H100 1개가 필요하다면: FluidStack or Lambda Labs 🛸 저렴한 3090s, 4090s, A6000s: Tensordock. 🛸 Stable Diffusion 추론만 필요하다면: Salad. 🛸 다양한 종류의 GPU가 필요하다면: Runpod or FluidStack. 🛸 템플릿을 쓰거나 취미로 한다면: Runpod. 🌸 시작하기 가장 쉬운 GPU Cloud 🛸 RunPod에서 템플릿 사용. RunPod 파드는 완전한 기능을 갖춘 VM이 아니라 호스트 머신의 도커 컨테이너라는 점에 유의할 것 🌸 얼마나 많은 VRAM과 시스템 램, 몇개의 vCPU가 필요할까 ? 🛸 VRAM (Video RAM / GPU RAM) - Falcon-40B: 85-100GB - MPT-30B: 80GB - Stable Diffusion: 16GB+ 이상 선호 - Whisper: 12GB+. (OpenAI 버전을 사용하면 이정도, 커뮤니티 버전으로는 CPU로도 가능) 🛸 System ram은 VRAM의 1~2배. 🛸 vCPUs: 8-16 vCPU면 대규모 GPU 워크로드가 아닌 이상 충분 그 외 더 자세한 사항을 원한다면 아래의 뉴스레터에 가입하시면 매일 개발자 관련 뉴스를 보실 수 있습니다. https://news.hada.io/topic?id=10501

Cloud GPU 가이드 - AI에 어떤 GPU를 어디서 써야할까? | GeekNews

GeekNews

Cloud GPU 가이드 - AI에 어떤 GPU를 어디서 써야할까? | GeekNews

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2023년 8월 24일 오전 1:07

댓글 0