Not All Trust is the Same: Effects of Decision Workflow and Explanations in Human-AI Decision Making

Este estudo investiga como o fluxo de decisão, as explicações e a experiência do usuário influenciam a confiança e a dependência comportamental em sistemas de IA, revelando que a confiança declarada e o comportamento de reliance são construtos distintos e que o fluxo de decisão de dois passos não reduz necessariamente a superconfiança.

Laura Spillner, Rachel Ringe, Robert Porzel, Rainer Malaka

Publicado 2026-03-06
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você está dirigindo um carro novo e muito inteligente. Esse carro tem um sistema de GPS que não só diz para onde ir, mas também sugere rotas, avisa sobre buracos e até tenta assumir o volante em algumas situações. O grande desafio não é fazer o carro ser perfeito, mas sim fazer você confiar nele na medida certa: nem tanto a ponto de ignorar seus próprios instintos quando ele está errado, e nem tão pouco a ponto de ignorar uma ajuda valiosa quando ele está certo.

Este estudo, feito por pesquisadores da Universidade de Bremen, é como um "laboratório de direção" para entender como as pessoas confiam nesses assistentes de IA. Eles queriam descobrir duas coisas principais:

  1. Se o que a gente diz que sente (confiança) é igual ao que a gente faz (seguir ou ignorar a dica).
  2. Se mudar a forma como a gente recebe a ajuda (ver a dica antes ou depois de pensar) faz diferença.

Aqui está a explicação do que eles descobriram, usando analogias do dia a dia:

1. O "Relógio" e o "Relógio de Bolso" (Confiança vs. Ação)

Os pesquisadores descobriram algo curioso: o que as pessoas dizem que sentem não é exatamente o mesmo que o que elas fazem.

  • A Analogia: Imagine que você pergunta a um amigo: "Você confia no meu novo carro?". Ele diz: "Sim, confio muito!". Mas, quando você pede para ele entrar no carro, ele hesita e prefere andar a pé.
  • O que o estudo mostrou: As pessoas podem dizer que confiam na IA (no questionário), mas na hora da decisão, agem de forma diferente. E vice-versa. Portanto, os criadores de sistemas de IA não podem apenas perguntar "você confia?". Eles precisam observar como as pessoas agem. A confiança declarada e a confiança na prática são como dois relógios diferentes: às vezes marcam a mesma hora, mas muitas vezes não.

2. O Jogo do "Adivinhe Primeiro" (1 Passo vs. 2 Passos)

Um dos grandes debates é: é melhor mostrar a resposta da IA imediatamente (1 passo) ou fazer a pessoa pensar e dar sua própria resposta primeiro, e só depois mostrar a da IA (2 passos)?

  • A Teoria: A ideia do "2 passos" era como um "treino de força mental". Acreditava-se que, se você fosse obrigado a pensar sozinho antes, não seria tão fácil deixar a IA "lavar o seu cérebro" e você aceitaria menos conselhos errados.
  • A Realidade Surpreendente: O estudo descobriu que isso não funcionou como esperado. Na verdade, o método de "pensar primeiro" (2 passos) fez as pessoas confiarem mais na IA, mesmo quando ela estava errada!
  • A Analogia: Imagine que você está em um jogo de perguntas e respostas.
    • No 1 passo, você vê a resposta do computador e pensa: "Ok, vou seguir".
    • No 2 passo, você pensa na sua resposta, escreve no papel, e depois vê a do computador.
    • O que aconteceu? As pessoas que escreveram a resposta primeiro sentiram que tinham "investido" tempo e esforço. Quando viram a resposta da IA, elas pensaram: "Nossa, eu já pensei nisso, e a IA também chegou a essa conclusão. Deve ser a resposta certa!". Isso as fez aceitar a IA com mais facilidade, mesmo quando a IA estava errada. Foi como se o esforço de pensar primeiro tivesse criado uma "ponte" que as levou a seguir a IA cegamente.

3. O "Manual de Instruções" (Explicações)

Outro ponto foi: será que explicar por que a IA chegou a uma conclusão ajuda?

  • O Efeito Cruzado: A explicação não funcionou da mesma forma para todos.
    • No método de 2 passos (pensar primeiro), a explicação funcionou como um "selo de qualidade". As pessoas se sentiram mais seguras e confiaram mais.
    • No método de 1 passo (ver a resposta direto), a explicação às vezes fez as pessoas desconfiarem um pouco mais, como se dissesse: "Ei, espere, por que você está me explicando isso se já me deu a resposta?".
  • A Lição: Não existe uma "fórmula mágica" única. O que funciona para explicar uma coisa depende de como a pessoa está interagindo com o sistema.

4. O "Especialista" vs. O "Leigo"

O estudo também olhou para o conhecimento das pessoas.

  • Quem achava que sabia muito sobre o assunto (o "especialista") tendeu a confiar mais quando teve que pensar primeiro (2 passos) e ver a explicação.
  • Quem achava que sabia pouco (o "leigo") tendeu a confiar mais quando a IA apareceu direto (1 passo).
  • A Analogia: Se você é um cozinheiro experiente, gosta de ver a receita (explicação) e pensar no prato antes de ouvir o chef. Se você não sabe cozinhar, prefere que o chef diga: "Faça isso" e você apenas obedeça.

Conclusão: O Que Isso Significa para o Futuro?

O estudo nos dá um aviso importante: Não existe uma solução única para todos.

  1. Não confie apenas no que as pessoas dizem: Se você está criando um app de IA, não pergunte apenas "você confia?". Olhe para o que as pessoas fazem.
  2. Cuidado com o "Pensar Primeiro": A ideia de forçar o usuário a pensar antes de ver a IA parece boa na teoria, mas na prática, pode fazer as pessoas aceitarem erros da IA com mais facilidade.
  3. Adapte-se: Se o usuário é um especialista, talvez o método de "2 passos com explicações" funcione melhor. Se é um leigo, talvez o método direto seja mais seguro.

Em resumo, a confiança na IA é como uma dança: depende de quem está dançando (o usuário), de qual música está tocando (o tipo de tarefa) e de como os passos são coreografados (o design do sistema). Não adianta tentar usar o mesmo passo de dança para todos os casais.