Long Context LLM

LLM이 처음 나왔을 때보다 최근엔 모델의 가능한 input 길이가 급격하게 커짐에 따라 더욱 다양한 서비스들에 LLM을 활용할 수 있게 되었는데요. 그래서 Long Context LLM 관련된 좋은 글들을 정리해봤습니다. 순서대로 보시는걸 추천드립니다. 1. Long Context를 만들기 위해 시도했던 내용들과 분석. https://kaiokendev.github.io/context 2. Vicuna를 만든 UC Berkeley쪽에서 llama 모델(2k tokens input) 기반으로 16K tokens 까지 받을 수 있는 longchat 버전을 개발, 성능들을 실험적으로 비교/분석. https://lmsys.org/blog/2023-06-29-longchat/ 3. Long context 모델은 주로 Finetuning 단에서 이뤄지고 있는데, Pretraining 단에서의 추가 적인고찰. https://www.harmdevries.com/post/context-length/

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2023년 9월 18일 오전 11:28

댓글 2

함께 읽은 게시물

2019년에 저희 팀에서 퍼블리싱한 CHI 논문. 음성 인터페이스 입코딩을 이용한 프로그래밍 교육.

... 더 보기

클로드 코드 Max 한 달 사용 후기

... 더 보기

클로드 코드 한 달 사용 후기

K리그 프로그래머

클로드 코드 한 달 사용 후기

 • 

댓글 2 • 저장 7 • 조회 2,244


MCP 모르면 대체 얼마나 손해 보는 걸까?🤔

... 더 보기

MCP 모르면 대체 얼마나 손해 보는 걸까? | 요즘IT

요즘IT

MCP 모르면 대체 얼마나 손해 보는 걸까? | 요즘IT

최적화 문제 속에 숨은 의도

험한 산속에 5명이 고립되어 있습니다. 생존하려면 어둡고 위험한 다리를 건너 구조대에게 가야 합니다. 그러나 다음과 같은 제약 조건이 있습니다.

... 더 보기