CodeFusion: A Pre-trained Diffusion Model for Code Generation
arXiv.org
최근 MS에서 작성한 CodeFusion: A Pre-trained Diffusion Model for Code Generation (https://arxiv.org/abs/2310.17680) 라는 논문에서 gpt3.5-turbo의 사이즈가 20B라고 표기가 되어 있어서 많은 얘기들이 오갔는데요. 결국엔 해프닝으로 돌아간것 같습니다..
현재 논문도 철회된 상태네요.
과연 20B가 정말 아니었을까요?
논문의 저자가 gpt3.5-turbo의 크기를 참고한 출처는 이곳입니다.
https://www.forbes.com/sites/forbestechcouncil/2023/02/17/is-bigger-better-why-the-chatgpt-vs-gpt-3-vs-gpt-4-battle-is-just-a-family-chat/?sh=79bacb1e5b65
더 많은 콘텐츠를 보고 싶다면?
이미 회원이신가요?
2023년 11월 2일 오전 11:16