Disentangling Prompt Element Level Risk Factors for Hallucinations and Omissions in Mental Health LLM Responses

Cette étude présente le cadre UTCO pour évaluer systématiquement les hallucinations et les omissions dans les réponses des modèles de langage sur la santé mentale, révélant que le contexte et le ton sont les facteurs de risque les plus déterminants, tandis que les omissions constituent un problème de sécurité majeur, en particulier pour les crises suicidaires.

Congning Ni, Sarvech Qadir, Bryan Steitz, Mihir Sachin Vaidya, Qingyuan Song, Lantian Xia, Shelagh Mulvaney, Siru Liu, Hyeyoung Ryu, Leah Hecht, Amy Bucher, Christopher Symons, Laurie Novak, Susannah L. Rose, Murat Kantarcioglu, Bradley Malin, Zhijun Yin

Publié 2026-04-03
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🧠 Le Problème : L'IA qui "rêve" ou qui "oublie"

Imaginez que vous avez un médecin virtuel très intelligent (une intelligence artificielle) qui peut discuter avec vous de vos problèmes de santé mentale. C'est génial, car il est disponible 24h/24. Mais comme tout humain, il a deux défauts majeurs quand il répond à des questions urgentes ou complexes :

  1. Les Hallucinations (Le "Rêve") : C'est quand l'IA invente des choses. Elle pourrait vous dire : "Prenez ce médicament miracle" alors qu'il n'existe pas, ou donner un conseil médical faux. C'est comme si un guide touristique vous montrait un monument qui n'existe pas.
  2. Les Omissions (L'"Oubli") : C'est encore plus dangereux. C'est quand l'IA répond poliment, mais oublie de vous dire l'essentiel. Par exemple, si vous dites que vous êtes très triste et que vous avez des idées noires, elle pourrait vous donner des conseils de relaxation, mais oublier de vous dire : "Appelez immédiatement le 15 ou le 311". C'est comme un pompier qui éteint un petit feu dans votre salon, mais oublie de vous dire qu'il y a une fuite de gaz derrière.

🔍 L'Expérience : La Recette "UTCO"

Les chercheurs de cette étude voulaient comprendre pourquoi l'IA fait ces erreurs. Pour cela, ils ont créé une recette spéciale appelée UTCO. Imaginez que chaque message que vous envoyez à l'IA est une recette de cuisine avec quatre ingrédients que l'on peut changer :

  • U (User / L'Utilisateur) : Qui pose la question ? (Une mère, un ado, un grand-père ?)
  • T (Topic / Le Sujet) : De quoi parle-t-on ? (Dépression, anxiété, suicide ?)
  • C (Context / Le Contexte) : Quelle est l'histoire derrière ? (Est-ce une phrase courte ? Une longue histoire triste ?)
  • O (Tone / Le Ton) : Quelle est l'émotion ? (Colère, désespoir, confusion, espoir ?)

Ils ont généré 2 075 questions en mélangeant ces ingrédients de toutes les façons possibles, comme un chef qui teste des milliers de variations d'un plat pour voir quand ça rate.

🕵️‍♂️ Les Découvertes Surprenantes

Voici ce qu'ils ont découvert en analysant les réponses de l'IA (un modèle appelé Llama 3.3) :

1. Ce n'est pas "Qui" pose la question, c'est "Comment"

On pensait peut-être que l'IA se trompait plus souvent avec certains types de personnes (par exemple, les jeunes ou les personnes âgées). Faux !

  • L'analogie : Imaginez un traducteur. Il ne fait pas plus d'erreurs parce que vous êtes un homme ou une femme. Il fait des erreurs parce que vous lui parlez dans un langage confus ou trop compliqué.
  • Le résultat : Le profil de la personne (âge, métier, origine) n'a presque pas d'importance. Ce qui compte, c'est la façon dont la question est formulée.

2. Le Contexte et le Ton sont les vrais coupables

C'est ici que ça devient intéressant. Les erreurs (surtout les oublis dangereux) arrivent quand :

  • Le message est trop long et détaillé : Plus l'histoire est complexe, plus l'IA se perd.
  • Le ton est très émotionnel : Si la personne est en crise, désespérée ou très confuse, l'IA a tendance à devenir trop "gentille" et empathique, mais elle oublie de donner les consignes de sécurité vitales.
  • L'analogie : C'est comme si vous criiez à un serveur dans un restaurant bondé. Si vous criez votre commande avec panique et des détails inutiles, le serveur risque de vous apporter le bon plat, mais d'oublier de vous dire qu'il y a des arachides dedans (l'information de sécurité).

3. Les Omissions sont plus fréquentes que les Hallucinations

C'est le point le plus important de l'étude.

  • Les chiffres : L'IA invente des choses (hallucinations) dans 6,5 % des cas. Mais elle oublie des informations vitales (omissions) dans 13,2 % des cas.
  • Le danger : Les hallucinations sont bruyantes (on voit tout de suite que c'est faux). Les omissions sont silencieuses. L'IA semble répondre parfaitement, mais elle a laissé tomber l'élément le plus important : la sécurité. C'est un "silence dangereux".

💡 La Leçon pour l'Avenir

Cette étude nous dit deux choses essentielles pour rendre les IA plus sûres dans le domaine de la santé mentale :

  1. Arrêtons de tester avec des questions simples : On ne peut pas tester un pilote d'avion juste en lui demandant de voler en ligne droite par beau temps. Il faut le tester dans la tempête. De même, il faut tester les IA avec des questions longues, confuses et pleines d'émotion, comme dans la vraie vie.
  2. L'IA doit apprendre à dire "Je ne suis pas sûr" : Au lieu d'essayer de tout deviner quand la question est floue, l'IA devrait être programmée pour dire : "Je vois que vous êtes en détresse, mais votre message est un peu confus. Pouvez-vous préciser ? Et surtout, voici les numéros d'urgence."

En résumé : Ce n'est pas la personne qui pose la question qui pose problème, c'est la façon dont elle la pose. Pour que l'IA soit un véritable allié en santé mentale, elle doit apprendre à ne pas se perdre dans les histoires tristes et à toujours, toujours, donner les informations de sécurité, même quand on ne les demande pas explicitement.

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →