Introducing Lamini Memory Tuning: 95% LLM Accuracy, 10x Fewer Hallucinations | Lamini - Enterprise LLM Platform
Lamini
기본 모델 위에 분야별 지식 정보를 수많은 어댑터 모델에 학습시키고, 추론시에는 사용자의 요청에 필요한 어댑터를 사용해 정확한 지식을 제공하는 방법.
구체적으로는 지식을 세분화 해 수백만개(?!)의 LoRA 레이어를 무손실로 훈련시키고, 라우터 레이어가 쿼리에 적합한 LoRA를 몇 개 선택하여 믹싱하여 추론하는 방법.
환각 발생률이 50%에서 5%로 10배 감소 했음. 포춘 500대 고객을 대상으로 95%의 정확도를 달성. 기존 방법으로는 50% 정도.
수백만개의 어댑터와 라우터를 훈련시키는 것이 좀 애매할 것 같긴 하지만, 좋은 방법인 것 같음. 라우터만 학습시키는 방법으로 RAG도 비슷한 방식을 쓸 수 있을 것 같음.
애플 인텐리전스의 어댑터 방식과 유사한 방식인 것이 재미난 포인트. 목적은 약간 다르지만, 앞으로 이런 방식이 많이 연구 될 것 같음.
https://www.lamini.ai/blog/lamini-memory-tuning
더 많은 콘텐츠를 보고 싶다면?
이미 회원이신가요?
2024년 6월 15일 오전 1:21