RAG 구성 시 임베딩과 그래프의 결합

LLM Application을 구현할 때 RAG가 가장 어려운 부분인 것 같습니다.


  1. 데이터를 잘 저장해야 잘 가져올 수 있고

  2. 잘 가져와야 LLM에 잘 넘겨줄 수 있고

  3. 잘 넘겨줘야 LLM이 좋은 답변을 생성할 수 있기 때문입니다


미디엄을 찾아보다가, 임베딩과 그래프를 결합하면 효율적이라는 글을 발견했는데요, 요즘 knowledge graph라는 말이 LLM Application구현에 자주 등장하는데, 랭체인이 Neo4j와 협업한것도 같은 이유인 것 같습니다. 블로그 글에 따르면 임베딩과 그래프를 결합할 때 아래와 같은 이점이 있다고 합니다


  • 포괄적 이해력 향상: 텍스트 임베딩은 개별 단어나 구절의 의미론적 의미를 포착하는 반면, 지식 임베딩은 엔티티 간 명시적 관계를 포착합니다. 두 유형의 임베딩을 통합함으로써 RAG 모델은 입력 텍스트와 지식 그래프에 저장된 구조화된 정보를 더욱 전체적으로 파악할 수 있습니다.

  • 문맥 관련성 향상: 텍스트 임베딩은 입력 텍스트에서 단어 공존 분석을 통해 유용한 문맥적 통찰력을 제공하며, 지식 임베딩은 지식 그래프에서 엔티티 간 관계를 검토하여 문맥 관련성을 제공합니다. 서로 다른 유형의 임베딩을 결합함으로써 RAG 모델은 입력 텍스트와 의미론적으로 관련되고 구조화된 지식과 문맥적으로 일관된 응답을 생성할 수 있습니다.

  • 답변 검색 개선: RAG 모델에서 구조화된 지식을 활용하면 검색 컴포넌트에 지식 임베딩을 통합하여 답변 선택을 크게 개선할 수 있습니다. 지식 임베딩을 사용하여 지식 베이스에서 관련 구절을 인덱싱하고 검색함으로써 RAG 모델은 더 정확하고 정보가 풍부한 응답을 검색할 수 있습니다.

  • 답변 생성 향상: 텍스트 임베딩은 RAG 모델의 생성 컴포넌트에 다양한 언어적 특징과 의미론적 뉘앙스를 통합하여 향상시킵니다. 답변 생성 과정에서 텍스트 임베딩과 지식 임베딩을 통합함으로써 RAG 모델은 언어적 유창성, 의미론적 관련성 및 구조화된 지식에 기반한 응답을 생성할 수 있습니다.

  • 모호성에 대한 견고성 향상: 텍스트 임베딩과 지식 임베딩을 활용함으로써 RAG 모델은 자연어의 모호성과 변동성에 대한 내성이 높아집니다. 텍스트 임베딩은 비정형 텍스트에 존재하는 변동성과 모호성을 포착하고, 지식 임베딩은 명시적 의미 관계를 제공하여 모델의 이해도를 강화하고 명확히 합니다.

  • 효과적인 지식 통합: 지식 임베딩을 통해 RAG 모델은 지식 그래프나 지식 베이스에서 구조화된 지식을 생성 과정에 매끄럽게 통합할 수 있습니다. 지식 임베딩과 텍스트 임베딩의 통합을 통해 RAG 모델은 구조화된 지식과 비정형 텍스트를 완벽하게 융합하여 보다 정보가 풍부하고 문맥에 적절한 응답을 생성할 수 있습니다.


아래 블로그에는 예제코드도 같이 나와있으니, 자세한 내용은 아래 블로그를 참고해주세요!


https://medium.com/towards-data-science/combine-text-embeddings-and-knowledge-graph-embeddings-in-rag-systems-5e6d7e493925


Combine Text Embeddings and Knowledge (Graph) Embeddings in RAG systems

Medium

Combine Text Embeddings and Knowledge (Graph) Embeddings in RAG systems

다음 내용이 궁금하다면?

또는

이미 회원이신가요?

2024년 5월 8일 오전 2:04

 • 

저장 10조회 2,116

댓글 0