How To Run Llama 3 In Visual Studio Code With CodeGPT
Medium
최근에 Meta에서 인기있는 오픈소스 언어 모델인 Llama 3를 발표했습니다. 전문가가 아닌데 Llama 3를 비쥬얼 스튜디오 코드에서 실행할 수 있을까요? 비전문가를 위해 친절하게 비쥬얼 스튜디오 코드에서 Llama 3를 실행하는 가이드를 소개한 기사 공유합니다.😃
<Visual Studio Code에서 Llama 3를 실행하는 방법 — 단계별 가이드>
Prerequisites
Llama3 3를 실행할비쥬얼 스튜디오 코드가 설치된 노트북의 사양을 확인하세요.
GPU가 없어도 괜찮은 성능의 CPU와 충분한 RAM이 있으면 아무런 문제 없이 노트북에서 Llama 3를 실행할 수 있다고 합니다.
1단계: Ollama 다운로드 및 설치
Ollama 웹사이트로 이동하여 설치 프로그램의 최신 버전을 다운로드하세요. Ollama는 다양한 플랫폼에서 대규모 언어 모델(LLM)을 로컬에서 실행, 생성 및 공유하도록 설계된 도구라고 합니다.
제대로 설치가 되었는지 확인하기 위해 ollama -v
명령어를 사용하세요.
2단계: VS Code에 CodeGPT Extension 설치
Visual Studio Code를 실행하고 확장(Extension) 탭으로 이동한 후, codegpt.co 에서 "CodeGPT"를 검색하고 확장을 설치하세요.
확장이 설치되면 VS Code의 왼쪽 사이드바에 CodeGPT 아이콘이 표시된다고 합니다.
3단계: 모델 다운로드
VS Code에서 터미널을 열고 ollama pull llama3:8b
명령을 실행하여 Llama 3 모델을 다운로드합니다. 모델 크기가 커서(4GB 이상) 생각보다 시간이 걸릴 수 있다고 합니다.
4단계: Llama 3 모델 선택
VS Code의 왼쪽 패널에 있는 CodeGPT 대시보드에서 Provider 드롭다운 메뉴를 찾아 Ollama를 선택하고, 모델 드롭다운에서 "Lama3:8b"를 선택합니다.
5단계: VS 코드에서 Llama 3 실행
VS Code에 모델을 다운로드하고 CodeGPT를 설치했으면 테스트 프롬프트를 제공하여 모든 것이 제대로 작동하는지 확인해 봅니다.
원본 기사 링크는 아래와 같습니다. 상세 내용은 원본 기사를 통해 확인하실 수 있습니다. 감사합니다🙏
[Source Link] https://generativeai.pub/how-to-run-llama-3-in-visual-studio-code-with-codegpt-18cb105cf9d5
다음 내용이 궁금하다면?
이미 회원이신가요?
2024년 4월 30일 오전 12:13
방송이나 유튜브 보다보면 경제전문가라 말하는 하락론자와 비관론자가 판을 치는데, 최소 지난 수년, 더 나아가 20여년동안 매번 틀려도 여전히 전문가라고 말하고 다니는 걸 보면 재미있다.
모든 인간사가 그렇듯 인간은 믿고 싶은대로 믿는 존재라 그렇게 믿고 싶은 사람들의 감정적 지지를 받아 밥벌이하고 있다는 건 이해가 된다. 하지만 확율적으로 벌어지기 어려운 천재지변 수준의 사건으로 벌어지는 현상이나 전체 흐름에서 일시적으로 벌어지는 현상, 혹은 인간의 욕망과 본성이 외부적 요인으로 잠시 억눌린 상황에서 현실적 경험 없이 뇌피셜로 몇몇 논리적 근거만으로 설명되는 현상을 바탕으로 자산 가치 떨어지고 세상 망할 것처럼 이야기하는데, 결국 제대로 맞추지도 못하는 사람들을 여전히 추종하는 건 글쎄...
... 더 보기