RAG (검색 증강 생성)
RAG(Retrieval-Augmented Generation)는 LLM이 외부 지식(문서·데이터베이스·검색 결과)을 조회해 가져온 뒤, 해당 정보를 기반으로 더 정확하고 사실적인 답변을 생성하는 기술이다. LLM의 구조적 한계로 발생하는 할루시네이션을 실질적으로 줄일 수 있는 핵심 전략으로 평가된다.
Ⅰ. 개념과 목적
RAG의 핵심 목적은 “모델이 알고 있는 것만으로 답하는 구조”에서 “필요할 때 외부 지식을 불러와 사실성을 강화하는 구조”로 전환하는 것이다. 이를 통해 LLM의 최신 정보 부재, 오래된 지식, 데이터 편향 문제를 보완할 수 있다.
Ⅱ. RAG의 기본 구조
RAG는 크게 두 단계로 이루어진다.
- ① Retrieval(검색 단계) — 질문에 맞는 문서·지식·증거를 외부에서 조회
- ② Generation(생성 단계) — 검색된 정보를 활용해 답변 생성
이 두 과정을 통해 모델은 단순 추론이 아니라 “근거 기반 생성(Evidence-based)”을 수행할 수 있게 된다.
Ⅲ. 왜 필요한가?
- ① 할루시네이션 감소 — 사실과 다른 출력 생성 확률을 크게 낮춤
- ② 최신 정보 반영 — 모델 재학습 없이도 최신 데이터 활용
- ③ 근거 기반 응답 — 검증 가능한 출처와 함께 답변 제공
- ④ 도메인 특화 강화 — 의료·법률·기술 문서 등 특수 분야 정확도 향상
Ⅳ. RAG 파이프라인의 구성 요소
- 쿼리 임베딩 — 질문을 벡터로 변환
- 벡터 DB — 문서의 의미 기반 검색 수행
- 리트리버(Retriever) — 관련성이 높은 문서 선택
- 리더기/생성 모델(Generator) — 선택된 문서를 기반으로 응답 생성
Ⅴ. LLM·트랜스포머와의 관계
RAG는 트랜스포머 기반 LLM의 확률적 생성 방식의 한계를 직접 보완하는 구조다. 모델 내부에 저장된 ‘고정된 지식’만 활용하는 것이 아니라, 필요할 때 외부에서 검증된 정보를 가져와 더 사실적인 결과를 출력하도록 설계되어 있다.
Ⅵ. 활용 분야
- 검색 기반 챗봇 — 기업 내부 문서를 읽고 답하는 시스템
- 법률·의료 AI — 최신 지침·논문·근거 기반 답변
- 코드 RAG — 코드베이스에서 관련 함수·파일 검색
- 엔터프라이즈 지식 관리 — 사내 문서 자동 질의응답
Ⅶ. 요약
RAG(Retrieval-Augmented Generation)는 LLM이 외부 지식을 조회하여 더 정확하고 신뢰도 높은 답변을 생성하도록 돕는 기술이다. 이는 할루시네이션을 줄이고 최신 정보·도메인 정보를 활용할 수 있게 하며, 생성형 AI의 사실성과 실용성을 높이는 핵심 방법으로 자리 잡고 있다.