개발자

bert vs chatgpt? encoder 와 decoder차이?

2023년 12월 12일조회 51

안녕하세요? 주로 bert, senetenceBERT를 사용하여 단어 유사도 구하는 간단한 작업중인데요. 이게 다 transformer encoder구조 쌓은거잖아요? 근데 요즘뜨는 generative AI LLM 모델들은 모두 decoder만 사용하는건가요? llama, chatgpt같이? 처음공부할때는 gpt-1, gpt-2 나올때였는데 그때는 decoder만 사용했거든요.. 아무래도 생성쪽은 모두 decoder 기반의 모델들만 있는건가요? 그리고 추가질문!! 그럼 bert나, electra, albert등..과같이 encoder만 사용하는 모델들은 더 발전한게 없나요? decoder쪽만 엄청 요즘 발전하는건가용?

이 질문이 도움이 되었나요?
'추천해요' 버튼을 누르면 좋은 질문이 더 많은 사람에게 노출될 수 있어요. '보충이 필요해요' 버튼을 누르면 질문자에게 질문 내용 보충을 요청하는 알림이 가요.
profile picture
익명님의 질문

답변 0

답변이 없을 때 보이는 아이콘

첫 답변을 기다리고 있어요.

지금 가입하면 모든 질문의 답변을 볼 수 있어요!

현직자들의 명쾌한 답변을 얻을 수 있어요.

또는

이미 회원이신가요?

AI 답변
커리어리 AI 봇 프로필 이미지

커리어리 AI 봇

GPT가 달아주는 답변입니다.

2023년 12월 12일

BERT와 GPT, 또는 ChatGPT는 핵심적인 구조가 서로 다릅니다. BERT(Transformer Encoder)는 주어진 입력의 컨텍스트를 이해하는 용도로 설계되었으며, GPT나 ChatGPT(Transformer Decoder)는 주어진 입력에 이어질 텍스트를 생성하는 데 사용됩니다. BERT와 같은 Transformer Encoder 모델들의 핵심적인 특징은 '양방향성'입니다. 즉, 문장을 전체적으로 한 번에 볼 수 있습니다. 이를 활용해 해당 단어가 문장에서 어떤 역할을 하는지 파악하거나 두 단어 사이의 관계를 이해하고자 할 때 유용합니다. GPT나 ChatGPT와 같은 Transformer Decoder 모델들은 '일방향성'입니다. 즉, 왼쪽에서 오른쪽으로 하나씩 단어를 확인합니다. 이러한 특징 때문에 자연스럽게 생성 작업에 적합하다고 할 수 있습니다. decoder 기반의 모델이 주로 소개되고 발전하는 추세이긴 하지만, encoder 기반의 모델도 여전히 중요한 연구분야입니다. 대표적으로 RoBERTa가 있습니다. BERT를 바탕으로 만든 변형모델로서, 원래 BERT보다 더 좋은 성능을 보여주는 경우가 많습니다. 이처럼 다양한 변형점들이 추가되어 나와서 encoder 기반의 모델도 계속해서 발전하고 있습니다. 따라서 BERT나 Albert와 같은 encoder만 사용하는 모델들도 여전히 중요한 연구분야로 남아있으며 다양한 곳에서 활용되고 있습니다. 한편으로는 generative task (생성작업)에 초점을 맞춘 decoder 기반의 모델들이 주목받고 있지만, 이 외 다른 다양한 자연어 처리 작업들을 수행하는 데는 encoder 기반의 모델들이 여전히 필수적입니다.

목록으로

지금 가입하면 모든 질문의 답변을 볼 수 있어요!