비쥬얼 스튜디오 코드에서 Llama 3 실행하기

최근에 Meta에서 인기있는 오픈소스 언어 모델인 Llama 3를 발표했습니다. 전문가가 아닌데 Llama 3를 비쥬얼 스튜디오 코드에서 실행할 수 있을까요? 비전문가를 위해 친절하게 비쥬얼 스튜디오 코드에서 Llama 3를 실행하는 가이드를 소개한 기사 공유합니다.😃


<Visual Studio Code에서 Llama 3를 실행하는 방법 — 단계별 가이드>


Prerequisites

  • Llama3 3를 실행할비쥬얼 스튜디오 코드가 설치된 노트북의 사양을 확인하세요.


  • GPU가 없어도 괜찮은 성능의 CPU와 충분한 RAM이 있으면 아무런 문제 없이 노트북에서 Llama 3를 실행할 수 있다고 합니다.


1단계: Ollama 다운로드 및 설치

  • Ollama 웹사이트로 이동하여 설치 프로그램의 최신 버전을 다운로드하세요. Ollama는 다양한 플랫폼에서 대규모 언어 모델(LLM)을 로컬에서 실행, 생성 및 공유하도록 설계된 도구라고 합니다.


  • 제대로 설치가 되었는지 확인하기 위해 ollama -v 명령어를 사용하세요.


2단계: VS Code에 CodeGPT Extension 설치

  • Visual Studio Code를 실행하고 확장(Extension) 탭으로 이동한 후, codegpt.co 에서 "CodeGPT"를 검색하고 확장을 설치하세요.


  • 확장이 설치되면 VS Code의 왼쪽 사이드바에 CodeGPT 아이콘이 표시된다고 합니다.


3단계: 모델 다운로드

  • VS Code에서 터미널을 열고 ollama pull llama3:8b 명령을 실행하여 Llama 3 모델을 다운로드합니다. 모델 크기가 커서(4GB 이상) 생각보다 시간이 걸릴 수 있다고 합니다.


4단계: Llama 3 모델 선택

  • VS Code의 왼쪽 패널에 있는 CodeGPT 대시보드에서 Provider 드롭다운 메뉴를 찾아 Ollama를 선택하고, 모델 드롭다운에서 "Lama3:8b"를 선택합니다.


5단계: VS 코드에서 Llama 3 실행

  • VS Code에 모델을 다운로드하고 CodeGPT를 설치했으면 테스트 프롬프트를 제공하여 모든 것이 제대로 작동하는지 확인해 봅니다.


원본 기사 링크는 아래와 같습니다. 상세 내용은 원본 기사를 통해 확인하실 수 있습니다. 감사합니다🙏

[Source Link] https://generativeai.pub/how-to-run-llama-3-in-visual-studio-code-with-codegpt-18cb105cf9d5

How To Run Llama 3 In Visual Studio Code With CodeGPT

Medium

How To Run Llama 3 In Visual Studio Code With CodeGPT

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2024년 4월 30일 오전 12:13

 • 

저장 48조회 2,159

댓글 0