최근 MS에서 작성한 CodeFusion: A Pre-trained Diffusion Model for Code Generation (https://arxiv.org/abs/2310.17680) 라는 논문에서 gpt3.5-turbo의 사이즈가 20B라고 표기가 되어 있어서 많은 얘기들이 오갔는데요. 결국엔 해프닝으로 돌아간것 같습니다..

현재 논문도 철회된 상태네요.


과연 20B가 정말 아니었을까요?


논문의 저자가 gpt3.5-turbo의 크기를 참고한 출처는 이곳입니다.

https://www.forbes.com/sites/forbestechcouncil/2023/02/17/is-bigger-better-why-the-chatgpt-vs-gpt-3-vs-gpt-4-battle-is-just-a-family-chat/?sh=79bacb1e5b65

CodeFusion: A Pre-trained Diffusion Model for Code Generation

arXiv.org

CodeFusion: A Pre-trained Diffusion Model for Code Generation

더 많은 콘텐츠를 보고 싶다면?

또는

이미 회원이신가요?

2023년 11월 2일 오전 11:16

댓글 0