Disentangling Prompt Element Level Risk Factors for Hallucinations and Omissions in Mental Health LLM Responses

Este estudio introduce el marco UTCO para evaluar sistemáticamente alucinaciones y omisiones en respuestas de modelos de lenguaje grande sobre salud mental, descubriendo que el contexto y el tono son los factores de riesgo más consistentes y que las omisiones de orientación de seguridad son un problema crítico, especialmente en casos de crisis.

Congning Ni, Sarvech Qadir, Bryan Steitz, Mihir Sachin Vaidya, Qingyuan Song, Lantian Xia, Shelagh Mulvaney, Siru Liu, Hyeyoung Ryu, Leah Hecht, Amy Bucher, Christopher Symons, Laurie Novak, Susannah L. Rose, Murat Kantarcioglu, Bradley Malin, Zhijun Yin

Publicado 2026-04-03
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

Imagina que un Modelo de Lenguaje Grande (LLM) es como un médico muy inteligente, pero que nunca ha visto a un paciente en persona. Este "médico digital" ha leído millones de libros y artículos, pero cuando alguien le cuenta un problema de salud mental, a veces comete dos tipos de errores peligrosos:

  1. Alucinaciones (Inventar cosas): Es como si el médico dijera: "Toma esta pastilla que cura todo", pero esa pastilla no existe o es falsa.
  2. Omisiones (Olvidar lo importante): Es como si el médico escuchara tu historia, asintiera con empatía, pero se olvidara de decirte: "Oye, si te sientes así, llama inmediatamente a un número de emergencia".

Este estudio, realizado por un equipo de expertos de la Universidad de Vanderbilt y otros, se preguntó: ¿Qué hace que este "médico digital" falle? ¿Es por quién eres tú (tu edad, tu trabajo, tu género)? ¿O es por cómo le cuentas tu problema?

Para averiguarlo, crearon un sistema llamado UTCO (Usuario, Tema, Contexto, Tono). Piensa en esto como si estuvieras construyendo una receta para una pregunta. En lugar de preguntar de la misma manera siempre, variaron los ingredientes:

  • Usuario: ¿Eres tú o un familiar? ¿Eres joven o mayor?
  • Tema: ¿Es depresión, ansiedad o una crisis?
  • Contexto: ¿Es una historia corta y directa o una historia larga y detallada?
  • Tono: ¿Estás triste, enfadado, desesperado o confuso?

Lo que descubrieron (Las analogías)

1. No es quién eres, es cómo lo cuentas.
El estudio probó miles de preguntas. Resultó que no importa si eres un padre, un estudiante o un anciano. El "médico digital" no falla más porque seas de un grupo demográfico específico.

  • La analogía: Imagina que el médico es un traductor. No importa si hablas español o francés (tu identidad); lo que le cuesta entender es si hablas muy rápido, con muchas metáforas o si estás gritando de pánico.

2. Las historias largas y emocionales son una trampa.
Los errores ocurrieron mucho más a menudo cuando las preguntas eran historias largas, naturales y llenas de emociones fuertes (como desesperación o confusión).

  • La analogía: Si le preguntas al médico: "¿Qué hago?", él te da una respuesta rápida y segura. Pero si le cuentas una historia de 300 palabras sobre cómo te sientes solo, con miedo y sin saber qué hacer, el médico se abruma. Se pierde en los detalles y olvida lo más importante: darte la ayuda de emergencia que necesitas.

3. Las omisiones son el "asesino silencioso".
El estudio encontró que el modelo olvidaba información vital (omisiones) el doble de veces de lo que inventaba cosas falsas (alucinaciones).

  • La analogía: Una alucinación es como un médico que te receta una medicina falsa: es obvio que algo va mal. Una omisión es como un médico que te da un abrazo cálido y te dice "todo estará bien", pero se olvida de decirte que debes ir al hospital. Es más peligroso porque parece que te está ayudando, pero en realidad no te está salvando.

4. El "ruido" emocional confunde al sistema.
Cuando el tono de la pregunta era de crisis, desesperanza o pánico, el modelo tendía a ser demasiado empático y general, pero olvidaba los pasos concretos de seguridad.

  • La analogía: Es como si un amigo estuviera llorando desconsoladamente. Tú, queriendo consolarlo, le dices "todo va a estar bien" y te olvidas de llamar a la policía o a un familiar. El modelo hizo lo mismo: se centró en el "consuelo" y olvidó la "seguridad".

¿Qué nos dicen esto?

Los autores concluyen que no podemos seguir probando a estos modelos con preguntas cortas y perfectas (como las que usamos en los exámenes escolares). La vida real es caótica, emocional y llena de historias largas.

La lección principal:
Para que la inteligencia artificial sea segura en temas de salud mental, no basta con que sea "inteligente". Necesitamos entrenarla para que, incluso cuando le cuenten una historia larga y llena de pánico, no olvide nunca decirte: "Esto es grave, busca ayuda profesional ahora".

En resumen: El problema no es el paciente, es la forma en que el sistema procesa el caos de las emociones humanas. Si queremos que estas herramientas sean seguras, debemos enseñarles a escuchar las historias reales, no solo las preguntas de examen.