Disentangling Prompt Element Level Risk Factors for Hallucinations and Omissions in Mental Health LLM Responses

Este estudo introduz o framework UTCO para analisar sistematicamente os riscos de alucinações e omissões em respostas de modelos de linguagem sobre saúde mental, descobrindo que o contexto e o tom da solicitação são os principais fatores preditores de falhas, especialmente em cenários de crise.

Congning Ni, Sarvech Qadir, Bryan Steitz, Mihir Sachin Vaidya, Qingyuan Song, Lantian Xia, Shelagh Mulvaney, Siru Liu, Hyeyoung Ryu, Leah Hecht, Amy Bucher, Christopher Symons, Laurie Novak, Susannah L. Rose, Murat Kantarcioglu, Bradley Malin, Zhijun Yin

Publicado 2026-04-03
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um robô conselheiro superinteligente (chamado de LLM, ou Modelo de Linguagem Grande) que foi treinado para conversar sobre saúde mental. Ele é como um amigo muito bem lido, pronto para ouvir seus problemas e dar conselhos. Mas, e se esse amigo, por mais inteligente que seja, às vezes inventar fatos ou esquecer de avisar coisas vitais quando você está em perigo?

É exatamente sobre isso que este estudo da Universidade de Vanderbilt trata. Os pesquisadores queriam descobrir por que esse robô falha e quando ele falha mais.

Aqui está a explicação simplificada, usando algumas analogias divertidas:

1. O Grande Experimento: A Receita "UTCO"

Para testar o robô, os pesquisadores não apenas fizeram perguntas aleatórias. Eles criaram uma "receita" chamada UTCO para montar as perguntas. Pense nisso como montar um sanduíche com quatro camadas controladas:

  • U (Usuário): Quem está perguntando? (Ex: Uma mãe, um adolescente, um idoso).
  • T (Tópico): Sobre o que é a pergunta? (Ex: Depressão, ansiedade, crise de suicídio).
  • C (Contexto): Qual é a história por trás? (Ex: "Estou me sentindo assim há 3 dias" vs. "Minha vida inteira foi assim").
  • O (Tom): Qual é a emoção? (Ex: Desesperado, confuso, furioso, esperançoso).

Eles criaram mais de 2.000 variações dessas perguntas para ver como o robô reagiria a cada combinação. Foi como testar o mesmo carro em diferentes tipos de estrada: na chuva, na areia, subindo uma montanha, etc.

2. Os Dois Tipos de "Acidentes"

O estudo focou em dois tipos de falhas perigosas:

  • Alucinações (O "Robô Mentiroso"): É quando o robô inventa informações. Imagine que você pergunta "Qual remédio é bom para minha dor de cabeça?" e ele responde com um nome de remédio que não existe ou diz que você deve tomar algo perigoso. Isso é uma alucinação.
  • Omissões (O "Robô que Esquece"): É quando o robô dá uma resposta que parece legal e empática, mas esquece de dizer algo crucial. Imagine que você diz "Estou pensando em me machucar" e ele responde "Tente respirar fundo e beber água", mas esquece de dizer "Ligue para o CVV ou vá ao hospital agora". Ele foi educado, mas falhou em salvar sua vida.

O Resultado Surpreendente:
O robô inventou coisas (alucinações) em 6,5% das vezes. Mas ele esqueceu informações vitais (omissões) em 13,2% das vezes. Ou seja, ele falhou duas vezes mais em deixar de avisar sobre perigos do que em inventar mentiras. E pior: nas perguntas sobre suicídio, ele quase sempre esquecia de dar os recursos de emergência.

3. O Que Faz o Robô Falhar? (A Descoberta Principal)

Os pesquisadores queriam saber: "Será que o robô falha mais com certos tipos de pessoas (idade, gênero, raça) ou com certos tipos de perguntas?"

A resposta foi surpreendente: Não importa quem pergunta, mas sim como a pergunta é feita.

  • A Analogia do "Sinal de Trânsito":
    Imagine que o robô é um motorista. Se você der a ele um mapa simples e direto ("Vá para o norte"), ele vai bem. Mas, se você der a ele uma história longa, confusa, cheia de detalhes emocionais e com pronomes ambíguos ("Eu não sei mais o que fazer com tudo isso, sabe?"), o robô se perde.

    • Contexto e Tom são os vilões: Perguntas longas, cheias de narrativas pessoais e com tons de desespero ou confusão confundiram o robô.
    • Quem pergunta não importa: Depois de controlar o tipo de pergunta, não houve diferença se a pergunta vinha de um homem, uma mulher, um idoso ou um jovem. O robô falhou da mesma forma para todos, desde que a pergunta fosse complexa ou emocionalmente carregada.

4. Por Que Isso Acontece?

Pense no robô como um estudante muito inteligente, mas que às vezes tenta "adivinhar" a resposta para não parecer burro.

  • Quando a pergunta é curta e clara, ele segue as regras.
  • Quando a pergunta é uma história longa e triste (comum em crises reais), ele tenta ser "empático" e "confortante", mas acaba perdendo o foco na segurança. Ele foca em ser um bom ouvinte e esquece de ser um bom profissional de saúde, deixando de lado os avisos de segurança.

5. O Que Isso Significa para o Futuro?

O estudo nos dá duas lições importantes:

  1. Pare de testar com perguntas curtas: A maioria dos testes de inteligência artificial usa perguntas curtas e diretas (como em um teste de múltipla escolha). Isso é como testar um carro de corrida apenas em uma pista de kart. Para ver se ele é seguro, precisamos testá-lo em estradas de terra, com chuva e buracos (ou seja, com perguntas longas, confusas e emocionais, como as que as pessoas realmente fazem na vida real).
  2. O "Silêncio" é perigoso: Precisamos nos preocupar tanto com o que o robô não diz quanto com o que ele diz. Em saúde mental, não avisar sobre um recurso de emergência é tão perigoso quanto dar uma mentira.

Resumo Final:
Este estudo nos alerta que, ao usar robôs para ajudar pessoas em crise, não podemos confiar apenas em testes simples. Precisamos garantir que, mesmo quando a pessoa estiver chorando, confusa e contando uma história longa, o robô saiba exatamente quando parar de conversar e dizer: "Você precisa de ajuda profissional agora". A segurança não é sobre ser o mais inteligente, é sobre não esquecer o básico quando a emoção está no auge.