[0715]모두에게 전하는 모두연 AI뉴스!

  • 인지과학에서 LLM 발전의 힌트를 얻다 : EM-LLM

대규모 언어 모델(LLM)들은 놀라운 능력을 보여왔지만, 여전히 광범위한 맥락(Context)을 처리하는 데 어려움을 겪고 있어 긴 시퀀스에 걸쳐 일관성과 정확성을 유지하는 능력이 제한적입니다. 반면에 인간의 뇌는 평생에 걸친 방대한 시간 규모에서 일화적 경험을 조직하고 검색하는 데 뛰어납니다. 이에 화웨이와 런던대학교의 공동 연구진은 인간의 일화적 기억과 사건 인지의 핵심 측면을 LLM에 통합하는 새로운 접근 방식으로 EM-LLM을 소개합니다. EM-LLM은 계산 효율성을 유지하면서 사실상 무한한 맥락 길이를 효과적으로 처리할 수 있게 합니다. EM-LLM은 Bayesian surprise 기법과 raph-theoretic boundary refinement 기법을 결합하여 토큰 시퀀스를 "일관된 일화적 (episodic) 사건"으로 조직합니다. 필요할 때, 이러한 사건들은 유사성 기반 검색과 시간적으로 연속적인 검색을 결합한 두 단계의 기억 과정을 통해 검색되어, 관련 정보에 효율적이고 인간적인 방식으로 접근합니다. LongBench 데이터셋을 사용한 실험에서 EM-LLM은 우수한 성능을 보여주며, 다양한 작업에서 최신 InfLLM 모델을 전반적으로 4.3% 상대적 개선으로 능가했고, 특히 PassageRetrieval 작업에서 33% 개선을 달성했습니다. 또한, EM-LLM의 사건 분할과 인간이 인지하는 사건 사이에 강한 상관관계가 있음을 보여주며. AI 시스템과 생물학적 시스템 간의 연결고리를 시사합니다. 이 연구는 LLM의 확장된 문맥 처리 능력을 향상시킬 뿐만 아니라, 인간의 기억 메커니즘을 탐구하기 위한 계산적 프레임워크를 제공하여 AI와 인지과학 분야의 학제간 연구를 위한 새로운 길을 열어줍니다.


https://arxiv.org/pdf/2407.09450


  • 검색 증강 이미지 캡셔닝 문제를 위한 검색 견고성의 이해를 돕는 논문을 소개합니다

이미지 캡셔닝을 위한 검색 증강 (Retrieval-Augmented) 모델의 최근 발전은 효율적이고 가벼운 모델에 관련 캡션을 검색하여 활용함으로써 강력한 도메인 전이 능력을 얻을 수 있음을 보여주었습니다. 그럼에도 불구하고 검색된 정보가 때때로 모델을 오도하여 잘못된 생성과 더 나쁜 성능을 초래할 수 있는 등, 실제로 검색 모델은 여전히 완벽하지 않습니다. 이에 코펜하겐과 리스본 대학 공동 연구진은 선행 연구에서 제안한 검색 증강 캡셔닝 모델인 SMALLCAP의 견고성을 분석합니다. 이 모델은 검색된 캡션의 대다수에 나타나는 토큰에 민감하며, 입력 속성 분석을 통해 입력받은 토큰이 생성된 출력에 복사될 가능성이 높다는 것을 보여줍니다. 이러한 발견을 바탕으로, 연구자들은 더 다양한 집합에서 검색된 캡션을 샘플링하여 모델을 훈련할 것을 제안합니다. 이는 모델이 대다수 토큰을 복사하는 것을 학습할 가능성을 줄이고, 도메인 내 및 도메인 간 성능을 모두 향상시킵니다.


https://arxiv.org/pdf/2406.02265


AI 개발자 과정의 압도적인 수준 차이! 입문자에서 전공자까지! 아이펠 9기 모집중 : https://bit.ly/4ePP8iK

HUMAN-LIKE EPISODIC MEMORY FOR INFINITE CONTEXT LLMS

arXiv.org

HUMAN-LIKE EPISODIC MEMORY FOR INFINITE CONTEXT LLMS

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2024년 7월 15일 오전 7:02

댓글 0