AI가 방금 당신에게 완전 거짓을 말했어요. 완전 자신감 있게요.
어쩌면 존재하지 않는 연구를 인용했을지도. 통계를 만들어냈을지도. 어디서 튀어나온 인용구를 말했을지도. 당신 제품엔 없는 기능을 자신감 있게 설명했을지도.
이걸 환각이라고 부르는데, AI 쓸 때 제일 답답한 게 바로 이거예요.
나쁜 소식: 완전히 없앨 순 없어요. AI 모델은 맞게 들리는 게 뭔지 예측해서 텍스트 만드는 거지, 사실 확인을 하는 거 아니거든요.
좋은 소식: 엄청 줄일 수 있어요. 특정 프롬프팅 기법들이 환각율을 35% 이상 줄인다는 게 증명됐고—여러 기법을 조합하면 결과가 훨씬 나아져요.
실제로 먹히는 방법들이 여기 있어요.
AI가 왜 환각을 볼까요
문제를 이해하면 해결하기 쉬워져요.
AI는 인간처럼 ‘알지’ 않아요. 훈련 데이터의 패턴 기반으로 제일 가능성 높은 단어를 예측할 뿐이에요. 질문하면 그럴듯하게 들리는 답변을 만들어내는데, 사실인지 아닌지는 상관없이요.
이래서 AI가 더 환각을 볼 때가:
- 주제가 모호하거나 최근일 때 (훈련 데이터 부족)
- 구체적인 디테일을 요구할 때 (날짜, 숫자, 이름)
- 질문이 애매할 때 (여러 가능한 답변)
- 불확실한데도 답하도록 밀어붙일 때
모델이 모른다고 인정하는 것보다 자신감 있게 엉뚱한 답을 하는 게 낫다고 생각해요. 당신 역할은 엉뚱한 답을 할 가능성을 낮춰야 해요.
기법 1: “모르겠어"라고 말할 수 있게 해주기
AI는 기본적으로 답변을 제공해요. 안 해야 할 때도. 불확실함이 괜찮다는 거 명시적으로 말해줘야 해요.
프롬프트에 추가:
뭔가 확실하지 않으면 그냥 말해. "모르겠어"라고 하는 게
엉뚱한 답 하는 것보다 낫다고. 아예 답이 없는 게
틀린 답보다 낫다고.
이 간단한 변화가 동기 구조를 바꿔요. “답 줘"를 최적화하는 대신 AI가 “정확한 답 줘 아니면 불확실성 인정해"를 최적화하게 되니까요.
Claude 문서에서 나온 연구가 보여주는 게 이것만으로도 사실 질문에서 환각이 엄청 줄어든대요.
기법 2: 출처와 인용 요구하기
AI가 출처를 인용해야 할 땐 주장에 더 신중해져요.
문서일 때:
내가 준 문서에만 기반해서 이 질문에 답해. 답변을 뒷받침하는
구체적인 부분들을 인용해. 문서에 정보가 없으면 그렇게 말해.
일반 상식일 때:
X를 설명해. 구체적인 주장이 있을 땐 그 정보에 대해 확신하는지,
아니면 확인이 필요한지 써 줄래.
인용하게 하면 AI가 그럴듯한 소리의 픽션 만들기보다 뭔가 구체적인 걸 기반으로 답변을 고정하게 돼요.
기법 3: 복잡한 질문 쪼개기
AI가 복잡하고 여러 부분인 질문에서 더 환각을 봐요. 모델이 전부 한 번에 처리하려다가 빈 공간을 추측으로 채우니까요.
대신에:
ProductX의 역사, 주요 기능, 가격, 고객 후기를 말해 줄래?
그리고 ProductY, ProductZ와 비교해 줘.
이렇게 해 봐:
단계별로 쪼개 보자.
먼저: ProductX의 주요 기능이 뭐야?
각 부분마다 따로따로 질문해 줘. 더 정확한 답 얻고 오류도 빨리 잡을 수 있어요.
기법 4: Chain-of-Thought 프롬프팅 사용하기
AI에게 추론 과정을 보여 달라고 하면 로직이 필요한 작업에서 정확도가 대폭 올라가요.
추가:
최종 답변 주기 전에 이것 자세히 생각해 봐.
추론 과정을 보여 줄래?
AI가 각 단계마다 명확히 해야 할 땐 자기 오류를 찾을 가능성이 훨씬 높아져요. 2024 연구에 따르면 chain-of-thought 프롬프팅이 GPT-4의 수학 오류를 28% 줄였대요.
이게 먹히는 이유는 환각이 보통 AI가 단계를 생략하고 결론으로 바로 뛸 때 생기거든요. 명시적 추론을 강요하면 이 틈새가 막혀요.
기법 5: 범위 제한하기
질문이 넓을수록 환각할 여지가 많아요. 더 좁혀봐요.
넓은 게 (위험):
머신러닝에 대해 설명해 줄래?
좁은 게 (더 안전):
지도 학습과 비지도 학습의 차이를 설명해 줄래?
3~4 문장으로 유지하고, 세부 사항 다 말하는 게 아니라
핵심 차이만 집중해.
짧고 초점이 맞춰진 답변이 AI가 불확실한 영역 모험해서 뭔가 만들어낼 기회를 줄여요.
기법 6: 참고 자료 제공하기
AI가 특정 정보로 작업해야 하면 그걸 줘 줄래요. “안다"는 걸 믿지 말고요.
사실 기반 작업:
제품 문서가 여기 있어:
[문서 붙여넣기]
이 문서만 기반으로 고객 질문에 답해 줄래:
[질문]
문서에 없는 정보는 추가하지 말아 줄래.
분석:
데이터가 여기 있어:
[데이터 붙여넣기]
이 데이터에만 있는 거만 분석해 줄래.
없는 정보에 대해선 추측하지 말고.
AI가 일할 참고 자료가 있으면 뭔가 만들어낼 가능성이 훨씬 낮아져요.
기법 7: 자기 답변을 확인하라고 하기
생각보다 효과적이에요. AI가 답변을 준 뒤에 정확성을 확인하도록 요청해 봐요.
후속 프롬프트:
지금 네 답변을 검토해 줄래? 정확하지 않을 수도 있거나
확실하지 않은 주장이 있어? 그걸 지적해 줄래?
AI가 명시적으로 요청받으면 자기 환각을 종종 찾아내요. 이 자체 검증 단계가 품질 관리 층을 추가해요.
중요한 작업일 땐 원래 프롬프트에 이걸 짜 넣을 수도 있어요:
질문에 답하고, 정확성 위해 답변을 다시 검토해 줄래.
완전히 확신하지 못한 것 뭐든 표시해 줄래.
기법 조합하기
기법 하나가 환각을 없애진 못해요. 근데 조합하면 효과가 배가돼요.
여러 기법을 적용한 프롬프트 템플릿이 이거예요:
[주제]에 대해 질문할 거야.
지침:
1. 확실한 정보만 써
2. 불확실하면 추측하지 말고 "확실하지 않아"라고 말해
3. 구체적인 주장엔 너 확신 수준을 메모해
4. 답변을 단계별로 생각해 줄래?
5. 답변 후에 검증이 필요한 부분을 간단히 메모해 줄래?
내 질문: [너의 질문]
이 프롬프트:
- 불확실성 표현 허용함 (기법 1)
- 확신 수준 요구함 (기법 2)
- 단계별 추론 권장함 (기법 4)
- 자체 검증 포함함 (기법 7)
막을 수 없는 것들
현실적으로 보자면요.
AI가 여전히 환각 볼 때가:
- 최근 사건 (훈련 마감 후)
- 불분명한 디테일 (구체적 날짜, 틈새 통계, 조연급 인물)
- 기술 사양 (정확한 API 파라미터, 코드 문법 디테일)
- 인용과 레퍼런스 (종종 조작해요)
정확성이 생명인 곳:
- 독립적으로 확인해
- AI 인용문을 확인 없이 믿지 마
- AI는 초안과 아이디어용, 최종 사실용으로는 안 돼요
검증 마인드셋
최고의 해결책은 프롬프트 기법이 아니에요—마음가짐의 변화예요.
AI 출력물을 최종 답변이 아니라 검증이 필요한 초안으로 봐야 해요. AI를 이용해서:
- 빠르게 아이디어 내기
- 검토할 콘텐츠 초안 만들기
- 가능성 탐색
- 제공한 자료 요약
AI를 당신이 모르는 걸 알고 있는 신탁처럼 쓰지 말아요. 그렇지 않아요. 맞게 들리는 게 뭔지 예측할 뿐. 가끔 틀려요.
위 기법들로 틀린 답변 받을 일이 훨씬 줄어들어요. 근데 “훨씬 줄어듦"은 “안 된다"는 뜻이 아니에요.
믿되, 확인해.
빠른 참조: 7가지 기법
- “모르겠어” 허용해 — 불확실함이 괜찮다는 명시적 지시
- 출처와 인용 요구 — 구체적 증거로 답변 고정
- 복잡한 질문 쪼개기 — 한 번에 한 부분씩
- Chain-of-Thought 써 — 답변 전에 “단계별로 생각”
- 범위 제한하기 — 더 좁은 질문, 더 짧은 답변
- 참고 자료 제공 — 일할 사실 줘
- 자체 검증 요구 — AI가 자기 답변 검증하게
각각 써서 빠른 개선. 조합해서 최고 신뢰도.
당신 AI는 이제 훨씬 신뢰할 수 있어요.