Do Metrics for Counterfactual Explanations Align with User Perception?

Este estudo demonstra que as métricas algorítmicas atuais para avaliar explicações contrafactuais têm uma correlação fraca e dependente do conjunto de dados com a percepção humana de qualidade, evidenciando a necessidade de abordagens mais centradas no ser humano para a avaliação de inteligência artificial explicável.

Felix Liedeker, Basil Ell, Philipp Cimiano, Christoph Düsing

Publicado 2026-03-17
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um robô superinteligente que decide se você consegue um empréstimo, se um fungo é comestível ou se você tem risco de doença cardíaca. O robô diz "Não", mas não explica o porquê. Para nos acalmar e nos ajudar a entender, criamos uma ferramenta chamada Explicação Contrafactual.

Pense nela como um "E se..." mágico. O robô diz: "Se você tivesse ganho R$ 500 a mais por mês, ou se tivesse menos colesterol, eu teria dito 'Sim'". É como mostrar um caminho alternativo para o sucesso.

Agora, os cientistas de computador criaram uma série de réguas e balanças digitais (chamadas de métricas) para medir se essas explicações são boas. Elas medem coisas como:

  • Esparsidade: Quantas coisas mudamos? (Menos é melhor?)
  • Proximidade: O novo cenário é muito diferente do original? (Deve ser parecido?)
  • Diversidade: Mudamos coisas muito diferentes entre si?

O Grande Problema:
Os cientistas usaram essas réguas digitais para classificar as explicações como "boas" ou "ruins". Mas será que essas réguas digitais medem o que nós, humanos, realmente achamos importante? Será que o que a máquina considera "preciso" é o que o humano considera "útil"?

O Experimento (A Prova de Fogo)

Os autores deste artigo decidiram fazer um teste simples, mas profundo:

  1. Eles geraram milhares dessas explicações "E se..." para três situações diferentes (Cogumelos, Níveis de Obesidade e Doenças Cardíacas).
  2. Eles calcularam todas as réguas digitais para cada explicação.
  3. Depois, eles chamaram 167 pessoas comuns (não especialistas) para ler essas explicações e dar notas de 1 a 4 em coisas como: "Isso faz sentido?", "É fácil de entender?", "Eu confio nisso?".

O Que Eles Descobriram? (A Surpresa)

A descoberta foi como descobrir que o termômetro do carro está quebrado.

  • As réguas digitais não conversam com os humanos: As métricas que os computadores usam para dizer "esta é uma ótima explicação" quase nunca batem com o que as pessoas acham. Às vezes, o computador diz que uma explicação é perfeita, e as pessoas acham confusa. Às vezes, o computador diz que é ruim, e as pessoas acham útil.
  • Cada mundo é um mundo: O que funcionou para explicar cogumelos não funcionou para explicar doenças cardíacas. Não existe uma "fórmula mágica" universal. O que é bom depende totalmente do contexto.
  • Mais réguas não ajudam: Os cientistas pensaram: "E se usarmos 7 réguas ao mesmo tempo em vez de uma só?". Eles tentaram misturar todas as métricas em modelos complexos de inteligência artificial para prever o que os humanos iam pensar. Resultado: Não funcionou. Adicionar mais dados às vezes até piorou a previsão. Foi como tentar adivinhar o clima olhando para a temperatura, a umidade, a pressão, a velocidade do vento e a cor da nuvem... e ainda assim errar porque falta algo fundamental.

A Analogia Final

Imagine que você é um chef de cozinha e quer saber se sua sopa está boa.

  • As Métricas Atuais são como um robô que mede a temperatura da sopa, o pH, o peso dos ingredientes e o tempo de cozimento. O robô diz: "A sopa está perfeita! Todos os números estão no verde!"
  • Os Humanos são os comensais que provam a sopa. Eles dizem: "Está sem sal e muito quente".

O artigo diz que estamos confiantes demais na medição do robô (as métricas) e esquecemos de perguntar ao comensal (o usuário). Estamos tentando medir a "qualidade" de uma explicação com uma régua que mede apenas a geometria dos dados, ignorando a psicologia e a intuição humana.

Conclusão Simples

O estudo conclui que as ferramentas atuais para avaliar explicações de IA estão falhando. Elas não conseguem capturar o que realmente importa para as pessoas: a clareza, a confiança e a utilidade prática.

Os autores pedem que paremos de confiar cegamente nessas "réguas digitais" e comecemos a criar novas formas de avaliar a IA que sejam centradas no ser humano, talvez ouvindo mais as pessoas e menos os algoritmos. Se queremos que a Inteligência Artificial seja confiável, precisamos entender o que ela acha importante, mas principalmente o que nós achamos importante.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →