728x90
반응형
RAG (Retrieval-Augmented Generation)
- LLM의 한계를 극복하기 위해 '지식 검색'과 '언어 생성'을 결합한 프레임워크
RAG 동작 과정
질문 이해 및 처리(Query Encoder) | 지식 검색(Retrieval) | 생성(Generaton) |
- 사용자의 질문을 이해하기 위한 언어 모델 - 질문을 벡터 형태로 인코딩 |
- 외부 지식 베이스에서 관련 정보를 검색 | - LLM이 쿼리와 검색된 지식을 이용하여 응답 생성 - LLM Prompting |
RAG 장단점
1. 장점
- 외부 지식 활용하여 LLM의 지식 부족 문제를 해결하고, 최신 정보 또는 특정 도메인 지식을 활용할 수 있습니다.
- 증거를 기반 생성하여 검색된 지식 정보를 증거로 활용하여 보다 사실에 기반한 답변 생성, 생성된 답변의 출처를 명시함으로써 신뢰성 향상
2. 문제점
→ RAG 파이프라인이 단방향 구조이기 때문에 모든 단계를 한 번에 다 잘해야 함.
- 사전에 정의된 데이터 소싱(PDF, DB, Table 등) 자원
- 사전에 정의된 Fixed Size Chunk
- 사전에 정의된 Query 입력
- 사전에 정의된 검색 방법
- 신뢰하기 어려운 LLM 혹은 Agent
- 고정된 프롬프트 형식
- LLM의 답변 결과에 대한 문서와의 관련성/신뢰성
LangGraph
🤔 RAG 믿을만한가?
- LLM이 생성한 답변이 Hallucination이 아닐까?
- RAG를 적용하여 받은 답변이 문서에 없는 "사전지식"으로 답변한 건 아닐까?
- "문서 검색에서 원하는 내용이 없을 경우" 인터넷 혹은 논문에서 부족한 정보를 검색하여 지식을 보강할 수는 없을까?
LangGraph 등장
- Node, Edge, State(상태관리)를 통해 LLM을 활용한 워크플로우에 순환(Cycle) 연산을 추가하여 손쉽게 흐름을 제어.
- RAG 파이프라인을 보다 유연하게 설계, 세부 단계별 흐름 제어가 가능
- Node: 각 세부과정
- Edge: 이전노드 > 다음노드 연결
평가자(Evaluator) → 질문 재작성 (Query Trnsform)
→ 추가 검색기(web search)를 통해 문맥(context) 보강
→ 답변 평가를 통해 검증 및 re-generate
Last Updated. 2025.06.09
🔖 참고 자료
728x90
반응형
'NLP | LLM' 카테고리의 다른 글
로컬 환경에서 필수인 Ollama에 대해 알아보기 (3) | 2025.06.18 |
---|---|
AI Agent의 모든 것 (5) | 2025.06.17 |
[LangChain] 1. LangChain의 모든 것 (3) | 2025.06.17 |
[RAG] 2. Query 추론 및 재생성 (0) | 2025.06.10 |
[Text Summarization] 1. TextRank (0) | 2022.10.17 |