앞으로 연구해야 할 LLM의 응용 엔지니어링 영역 중 가장 포텐셜이 큰 것 중 하나는, 긴 컨텍스트의 임베딩을 캐싱해서 In-Context Retrieval 시의 컴퓨팅 코스트를 극도로 낮출 수 있는 기술이 될 것 같음.


어떻게 구현해야 할 진 알겠지만, 저는 연구할 돈이 엄써서.. 돈 많은 회사 및 연구자 분들 잘 부탁드립니다. 굽신굽신 🙇🏻

더 많은 콘텐츠를 보고 싶다면?

또는

이미 회원이신가요?

2024년 2월 19일 오전 3:38

댓글 0