AI 할루시네이션(Hallucination)이란?
AI 할루시네이션 (Hallucination) AI 할루시네이션(Hallucination)은 LLM이나 생성형 AI가 실제로 존재하지 않는 정보, 사실과 다른 내용, 혹은 잘못된 결론을 그럴듯하게 만들어내는 현상이다. 이는 모델이 “모르는 것을 모른다”는 구조적 한계로 인해 발생하며, 생성형 AI의 신뢰성을 위협하는 대표적인 오류 유형이다. Ⅰ. 개념과 특징 할루시네이션은 단순한 실수가 아니라, 모델이 입력·지식·문맥에 기반해 가장 그럴듯한 출력을 생성하는 과정에서 실제 사실과 다른 … 더 읽기