From Features to Actions: Explainability in Traditional and Agentic AI Systems

Este artigo demonstra que, embora os métodos de atribuição sejam eficazes para explicar previsões estáticas, as abordagens baseadas em rastros (trace-based) são essenciais para diagnosticar falhas em sistemas de IA agênticos, revelando que inconsistências no rastreamento de estado são a principal causa de fracasso nesses cenários dinâmicos.

Sindhuja Chaduvula, Jessee Ho, Kina Kim, Aravind Narayanan, Mahshid Alinoori, Muskan Garg, Dhanesh Ramachandram, Shaina Raza

Publicado 2026-03-09
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Do "Porquê" da Resposta ao "Porquê" da Jornada: Entendendo a IA Agente

Imagine que você tem um assistente muito inteligente. Nos últimos anos, a tecnologia de "Explicabilidade de IA" (XAI) focou em entender assistentes que respondem a uma pergunta de cada vez. Mas agora, surgiram novos assistentes (chamados de IA Agente) que não apenas respondem, mas agem: eles navegam na internet, reservam voos, usam ferramentas e tomam decisões em várias etapas.

Este artigo é como um manual de instruções que diz: "Os métodos antigos de explicar o que a IA faz não funcionam mais para esses novos assistentes. Precisamos de uma nova abordagem."

Aqui está a explicação passo a passo:

1. O Velho Mundo: O Fotógrafo (IA Estática)

Antes, a IA era como um fotógrafo.

  • Como funcionava: Você entregava uma foto (entrada) e ele dizia: "Isso é um gato" (saída).
  • A Explicação: Para explicar a resposta, o fotógrafo apontava para as orelhas e bigodes da foto e dizia: "Eu vi que é um gato porque vi esses detalhes".
  • A Ferramenta: Técnicas como SHAP e LIME funcionavam bem aqui. Elas olhavam para a foto e diziam quais pixels eram importantes. Era estático: uma foto, uma resposta.

2. O Novo Mundo: O Detetive (IA Agente)

Hoje, temos a IA Agente. Ela é como um detetive ou um chef de cozinha em uma cozinha movimentada.

  • Como funciona: O trabalho não é uma foto única. É uma jornada. O detetive precisa:
    1. Ler a pista inicial.
    2. Decidir qual ferramenta usar (um computador, um telefone).
    3. Fazer uma ligação.
    4. Ouvir a resposta.
    5. Anotar algo na agenda.
    6. Decidir o próximo passo com base no que ouviu.
  • O Problema: Se o detetive falhar no final (ex: não consegue reservar o voo), olhar apenas para a "foto inicial" (a pergunta do cliente) não explica onde ele errou. Ele errou na ligação? Esqueceu de anotar o nome? Usou o telefone errado?

3. A Descoberta Principal: A Diferença entre "O que" e "Onde"

Os autores do artigo testaram duas formas de explicar os erros:

  • Método Antigo (Atribuição): Tentar apontar quais palavras da pergunta original causaram o erro.
    • Resultado: Funciona bem para o fotógrafo, mas falha miseravelmente com o detetive. É como culpar a "pista inicial" por um erro que aconteceu na 10ª etapa da investigação. Não ajuda a consertar o problema.
  • Método Novo (Rastreamento/Trace): Olhar para o diário de bordo (o registro de todas as ações, pensamentos e ferramentas usadas).
    • Resultado: Funciona perfeitamente. Eles criaram uma "lista de verificação" (rubrica) para analisar cada passo da jornada.

4. O Que Eles Encontraram? (As Analogias de Falha)

Ao analisar os diários de bordo dos agentes, eles descobriram dois tipos de falhas diferentes:

  • O "Deslize Lento" (TAU-bench Airline):
    Imagine um detetive que, a cada passo, escreve um nome errado no caderno. No começo, ninguém percebe. Mas depois de 10 passos, o nome está tão errado que ele liga para a pessoa errada e a missão falha.

    • A lição: O erro não foi uma decisão única, foi a inconsistência do estado (esquecer ou confundir informações ao longo do tempo). Isso foi a causa de 2,7 vezes mais falhas do que qualquer outra coisa.
  • O "Bloqueio Rápido" (AssistantBench):
    Imagine um chef que decide usar uma faca de serra para cortar um tomate. O erro acontece na primeira escolha. Não importa o quanto ele tente consertar depois; a missão já está perdida.

    • A lição: Aqui, o erro foi escolher a ferramenta errada logo de cara.

5. A Solução Proposta: O "Pacote de Explicação Mínimo" (MEP)

Os autores sugerem que, para entender essas IAs, não podemos mais entregar apenas uma "explicação solta". Precisamos de um Pacote de Explicação Mínimo (MEP) que contenha três coisas:

  1. O Artefato: A explicação em si (ex: "O agente errou").
  2. A Evidência: O registro completo do que aconteceu (o diário de bordo, as ferramentas usadas, o que foi lido).
  3. A Verificação: Um selo de confiança (ex: "Nós verificamos que ele realmente usou a ferramenta errada, não foi apenas uma alucinação").

Resumo em uma frase:

Para entender por que uma IA moderna falha, não olhe apenas para a pergunta inicial (como se fosse uma foto); olhe para o filme inteiro da jornada, porque é lá que você verá se o agente esqueceu de anotar algo, usou a ferramenta errada ou se perdeu no caminho.

Por que isso importa?
Se você quer usar uma IA para cuidar de pacientes, gerenciar dinheiro ou dirigir carros, você não quer apenas saber o que ela decidiu no final. Você precisa saber onde e como ela poderia ter errado no meio do caminho, para poder corrigi-la antes que algo ruim aconteça.