개발자
AI에 대해 무지하지만 벨로그에 올라온 AI 프로젝트를 보고 너무 재밌어보여서 한번 시도해 보고 싶은 학생입니다. 카카오 챗봇, 디스코드 봇, 아니면 웹사이트에 간단하게 사람들의 말투를 학습 시켜서 대화 가능한 봇을 만들어서 올리고 싶은데 어떤 스택을 사용해서 만들어야 하는지 모르겠습니다. 이미 있는 모델로 학습을 시키면 되는거 같기도 하고 GPT 어시스턴트를 이용하는거 같기도 하는데 뭘로 시작하면 좋을지 궁금합니다. 깊게 파보지는 않고 간단하게 토이프로젝트로 시작하려고 합니다. 궁금한점 1. 챗봇 토이프로젝트를 시작하기 좋은 방법(강의, 책, 필요한 스택) 2. AI 학습과 GPU 상관관계 (서버로 연결해서 학습하거나 GPT 어시스턴트를 쓰면 그래픽 카드 성능은 안중요해 보여서 어떤지) 3. 혹시 GPU가 중요하다면 위와 같은 프로젝트를 만들때 적당한 그래픽 카드 4. M3 pro 사용 중인데 이걸로는 AI 학습이 불가능한지
답변 1
안녕하세요. 단순히 챗봇 구현은 간단합니다. 유튜브에 워낙 여러 능력자분들의 강의도 많구요. 해당내용은 조금만 찾아보셔도 해당 분야의 공신력 있으신분들의 강의가 워낙많습니다. 전 갠적으로 ai쪽은 테디노트님 강의를 추천드립니다. AI학습과 GPU의 상관관계는 확실합니다. 게임으로 따지자면 실사 그래픽을 보면서 원활하고 부드럽게 플레이를 하려면 그만큼의 사양이 필요하죠. 머신러닝도 똑같습니다. 빠르고 정확하게 머신러닝을 하는경우는 그만큼의 GPU나 CPU의 사양이 되야하는거죠. 1TB 용량의 데이터를 학습시켜서 나만의 LLM을 만든다 가정해봅시다. 3060그래픽카드를 사용해서 10시간이 걸린다하면 4090이나 연산그래픽카드인 t4, a100 등등 이런 그래픽카드로 하면 훨씬 단축이되겠죠. 물론 openai gpt나 네이버 클로바x, 엔트로픽 클로드와 같이 api로만 받아서 프롬프트 엔지니어링을 한다하면 gpu는 상관이 없습니다. 다만 비용의 문제지요 그리고 원하는 llm을 만든다치고 파인튜닝이 들어가게되면 비용은 배로 들어가게됩니다. 현재 머신러닝 gpu서버를 임대하여 사용하거나 3060 vram12 짜리를 sli로 2대이상 묶어서 사용하는게 가성비는 좋다고 알고있습니다. 저같은경우는 gpu서버를 임대해서 개발을 하고있습니다. M3 pro 정도면 충분히 가능하지않을까 싶네요. Vram도 높고 다만 이미지 쪽에선 아직은 엔비디아 그래픽카드가 우월한걸로 알고있습니다. 그리고 챗봇 개발에서의 중요한 부분은 히스토리를 AI가 학습하여 이전에 대화내용을 바탕으로 답변을 하는지가 관건이고 최대한 할루시네이션을 줄이는게 정답입니다. 답변이 도움이 되었길 바랍니다.
지금 가입하면 모든 질문의 답변을 볼 수 있어요!
현직자들의 명쾌한 답변을 얻을 수 있어요.
이미 회원이신가요?
지금 가입하면 모든 질문의 답변을 볼 수 있어요!