Disentangling Prompt Element Level Risk Factors for Hallucinations and Omissions in Mental Health LLM Responses

이 논문은 UTCO 프레임워크를 활용해 정신 건강 관련 LLM 응답에서 환각과 누락 위험 요인을 분석한 결과, 문맥과 어조가 실패와 가장 밀접하게 연관되어 있으며 누락이 위기 상황 응답에서 주요 안전 문제로 나타났음을 밝혔습니다.

Congning Ni, Sarvech Qadir, Bryan Steitz, Mihir Sachin Vaidya, Qingyuan Song, Lantian Xia, Shelagh Mulvaney, Siru Liu, Hyeyoung Ryu, Leah Hecht, Amy Bucher, Christopher Symons, Laurie Novak, Susannah L. Rose, Murat Kantarcioglu, Bradley Malin, Zhijun Yin

게시일 2026-04-03
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"정신 건강을 위해 AI(챗봇) 에게 도움을 요청할 때, AI 가 실수하는 이유"**를 파헤친 연구입니다.

마치 정신 건강 상담을 도와주는 AI 가 '가상 환자' 2,000 명 이상과 대화를 나누고, 그 대화에서 어떤 실수가 자주 일어났는지 분석한 보고서라고 생각하시면 됩니다.

이 연구의 핵심 내용을 일상적인 비유로 쉽게 설명해 드릴게요.


1. 연구의 배경: 왜 이 연구가 필요할까요?

우리가 병원에 가지 않고도 스마트폰으로 "지금이 너무 힘들어요, 어떻게 해야 할까요?"라고 AI 에게 물어볼 때가 많습니다. 하지만 AI 가 틀린 정보를 말해주거나 (환각, Hallucination), 정말 필요한 안전 조언을 빼먹는 (생략, Omission) 경우가 있습니다.

기존 연구들은 AI 를 시험할 때 너무 짧고 깔끔한 질문만 던졌습니다. 마치 **"수학 문제를 풀 때, 복잡한 상황 설명 없이 숫자만 주고 답을 맞히게 하는 것"**과 비슷합니다. 하지만 실제 사람들은 고통스러울 때 길고 복잡한 이야기, 감정이 섞인 문장을 쓰죠. 이 연구는 **"실제 사람이 겪는 복잡한 상황"**을 AI 에게 던져보며 실수를 찾아냈습니다.

2. 실험 도구: 'UTCO'라는 레고 블록

연구팀은 질문을 4 가지 레고 블록으로 나누어 실험했습니다.

  • U (User, 사용자): 누구인가? (예: 20 대 여성, 부모님, 이직 중인 직장인 등)
  • T (Topic, 주제): 무슨 문제인가? (예: 우울증, 자살 생각, 불안 등)
  • C (Context, 상황): 어떤 상황인가? (예: "지난 3 주 동안 밤마다 울고 있어요" 같은 구체적인 이야기)
  • O (Tone, 어조): 어떤 감정인가? (예: 절망적, 화난, 당황한, 감사한 등)

이 4 가지 블록을 섞어서 2,075 개의 다양한 질문을 만들어 AI 에게 던졌습니다.

3. 주요 발견: AI 가 실수하는 두 가지 패턴

① '환각 (Hallucination)': AI 가 헛소리를 할 때

  • 비유: AI 가 창의력이 넘치는 소설가가 되어, 사실과 다른 약 이름이나 치료법을 지어내는 경우입니다.
  • 원인: 질문이 너무 길고, 실제 사람이 쓴 것처럼 복잡한 이야기일수록 AI 가 헛소리를 할 확률이 높았습니다. 특히 "혼란스러움 (Confused)"이라는 어조가 섞이면 더 자주 일어났습니다.

② '생략 (Omission)': AI 가 중요한 말을 잊을 때 (더 위험함!)

  • 비유: AI 가 친절한 친구처럼 위로는 해주지만, "자살 생각이 든다면 즉시 119 를 부르세요" 같은 생명을 구할 핵심 정보를 깜빡하는 경우입니다.
  • 발견: 이 연구에서 가장 놀라운 점은 실수가 '헛소리'보다 '생략'이 훨씬 더 많았다는 것입니다 (6.5% vs 13.2%).
  • 위험한 상황: 특히 **'자살'이나 '위기 상황'**과 관련된 질문에서 AI 는 위로는 잘해주지만, 필요한 안전 조치를 빼먹는 경우가 많았습니다.
  • 원인: 사용자가 긴 이야기를 하거나, 절망적이고 불안한 감정을 강하게 표현할 때 AI 는 감정에 치우쳐 "안녕하세요, 힘내세요"라고만 말하고, 구체적인 안전 수칙을 잊어버렸습니다.

4. 가장 중요한 결론: "누가 물어보느냐"보다 "어떻게 물어보느냐"가 중요

많은 사람이 "AI 가 특정 인종이나 성별을 차별하면 실수를 할까?"라고 걱정합니다. 하지만 이 연구는 사용자의 배경 (나이, 성별, 직업 등) 은 실수와 큰 상관이 없었다고 말합니다.

대신 질문의 방식이 모든 것을 결정했습니다.

  • 비유: AI 는 비행기 조종사와 같습니다.
    • 조종사가 실수하는 이유는 "어떤 나라 사람인가?"가 아니라, **"비행기 조종실의 상황이 얼마나 복잡하고 혼란스러운가?"**에 달려 있습니다.
    • 질문이 길고 복잡하며 (Context), 감정적으로 격렬할 때 (Tone), AI 는 당황해서 중요한 안전 장치를 놓치거나 엉뚱한 정보를 만들어냅니다.

5. 우리가 배워야 할 점 (해결책)

이 연구는 AI 개발자와 사용자에게 두 가지 중요한 조언을 줍니다.

  1. 단순한 테스트는 그만두세요: AI 를 평가할 때 "우울증 치료법은?" 같은 짧은 질문만 던지면 안 됩니다. 실제 사람처럼 긴 이야기와 복잡한 감정이 담긴 질문으로 AI 를 시험해야 (스트레스 테스트) 진짜 위험을 찾을 수 있습니다.
  2. 안전이 최우선입니다: AI 가 위로를 해주는 것보다 중요한 안전 정보 (예: 위기 상황 연락처) 를 빼먹지 않는 것이 더 중요합니다. AI 가 "감정적인 이야기"를 들으면, 감정에만 반응하지 않고 **"이건 위험한 신호야, 전문가에게 가자"**라고 자동으로 알려주는 안전 장치가 필요합니다.

요약

이 논문은 **"AI 가 정신 건강 상담을 할 때, 복잡한 이야기와 강한 감정을 표현하는 사람에게 가장 취약하다"**고 경고합니다. AI 가 헛소리를 하는 것보다 중요한救命 정보를 빼먹는 것이 더 위험할 수 있으니, 앞으로는 AI 를 개발할 때 **'안전 정보 누락'**을 가장 먼저 막아야 한다고 말합니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →