NLP | LLM

[RAG] 1. RAG와 LangGraph의 등장과 동작과정

삐롱K 2025. 6. 10. 00:35
728x90
반응형

RAG (Retrieval-Augmented Generation)

  • LLM의 한계를 극복하기 위해 '지식 검색'과 '언어 생성'을 결합한 프레임워크


RAG 동작 과정

질문 이해 및 처리(Query Encoder) 지식 검색(Retrieval) 생성(Generaton)
- 사용자의 질문을 이해하기 위한 언어 모델
- 질문을 벡터 형태로 인코딩
- 외부 지식 베이스에서 관련 정보를 검색 - LLM이 쿼리와 검색된 지식을 이용하여 응답 생성
- LLM Prompting

 


RAG 장단점

1. 장점

  • 외부 지식 활용하여 LLM의 지식 부족 문제를 해결하고, 최신 정보 또는 특정 도메인 지식을 활용할 수 있습니다.
  • 증거를 기반 생성하여 검색된 지식 정보를 증거로 활용하여 보다 사실에 기반한 답변 생성, 생성된 답변의 출처를 명시함으로써 신뢰성 향상


2. 문제점

RAG 파이프라인이 단방향 구조이기 때문에 모든 단계를 한 번에 다 잘해야 함.

  • 사전에 정의된 데이터 소싱(PDF, DB, Table 등) 자원
  • 사전에 정의된 Fixed Size Chunk
  • 사전에 정의된 Query 입력
  • 사전에 정의된 검색 방법
  • 신뢰하기 어려운 LLM 혹은 Agent
  • 고정된 프롬프트 형식
  • LLM의 답변 결과에 대한 문서와의 관련성/신뢰성



LangGraph

🤔 RAG 믿을만한가?
- LLM이 생성한 답변이 Hallucination이 아닐까?
- RAG를 적용하여 받은 답변이 문서에 없는 "사전지식"으로 답변한 건 아닐까?
- "문서 검색에서 원하는 내용이 없을 경우" 인터넷 혹은 논문에서 부족한 정보를 검색하여 지식을 보강할 수는 없을까?


LangGraph 등장

  •  Node, Edge, State(상태관리)를 통해 LLM을 활용한 워크플로우에 순환(Cycle) 연산을 추가하여 손쉽게 흐름을 제어.
  • RAG 파이프라인을 보다 유연하게 설계, 세부 단계별 흐름 제어가 가능
  • Node: 각 세부과정
    • Edge: 이전노드 > 다음노드 연결
평가자(Evaluator) → 질문 재작성 (Query Trnsform)
                              → 추가 검색기(web search)를 통해 문맥(context) 보강
                              → 답변 평가를 통해 검증 및 re-generate
           





Last Updated. 2025.06.09

🔖 참고 자료

Image-1-RAG_vs_Agentic RAG

https://modulabs.co.kr/blog/retrieval-augmented-generation

LangGraph 개념 완전 정복 몰아보기(3시간)

728x90
반응형