Causality Elicitation from Large Language Models

O artigo propõe um pipeline para extrair hipóteses causais plausíveis de Grandes Modelos de Linguagem (LLMs), mapeando documentos gerados em eventos canônicos e aplicando métodos de descoberta causal para construir grafos candidatos que representam o conhecimento causal implícito nos modelos, sem garantir a causalidade no mundo real.

Takashi Kameyama, Masahiro Kato, Yasuko Hio, Yasushi Takano, Naoto Minakawa

Publicado 2026-03-05
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um gigante sábio, mas um pouco confuso, chamado "Modelo de Linguagem" (ou LLM). Ele leu quase tudo o que existe na internet: livros, notícias, artigos e relatórios. Ele sabe de tudo, mas quando você pergunta a ele sobre como as coisas funcionam no mundo real, ele não te dá uma resposta única e definitiva. Em vez disso, ele conta milhares de histórias diferentes sobre o mesmo assunto.

O problema é que, nessas histórias, ele usa palavras diferentes para descrever a mesma coisa.

  • Na história A, ele diz: "O governo aumentou os impostos".
  • Na história B, ele diz: "A taxação ficou mais pesada".
  • Na história C, ele diz: "Protecionismo subiu".

Para um computador, essas são três coisas totalmente diferentes. Para um humano, são a mesma coisa. O artigo que você enviou propõe uma maneira genial de organizar essa bagunça e descobrir quais eventos causam quais outros, baseando-se apenas no que esse "gigante sábio" acredita que é verdade.

Aqui está como eles fazem isso, passo a passo, usando uma analogia de uma Grande Investigação Policial:

1. O Cenário: Gerar Milhares de Histórias (Passo i)

Os pesquisadores pedem ao "gigante" para escrever 100 histórias diferentes sobre um tema (por exemplo: "O que acontece com a economia do Japão se Trump voltar ao poder?").

  • Analogia: É como se você pedisse para 100 jornalistas diferentes escreverem um artigo sobre o mesmo crime. Cada um terá uma versão ligeiramente diferente.

2. A Coleta de Evidências: Extrair Eventos (Passo ii)

De cada uma dessas 100 histórias, eles tiram uma lista de "eventos" importantes (o que aconteceu, quem decidiu o quê).

  • Analogia: O detetive pega cada relatório e anota em um post-it: "Aumentaram impostos", "Empresas fugiram", "Moeda caiu".

3. O Grande Desafio: Unificar os Post-its (Passo iii - A Magia)

Aqui está o problema principal. Se você tiver 100 post-its, muitos dirão coisas parecidas, mas com palavras diferentes.

  • "Aumentaram impostos"
  • "Taxação subiu"
  • "Impostos mais altos"

Se o computador tratar isso como 3 coisas diferentes, a investigação falha. O artigo propõe um Sistema de Arquivamento Inteligente:

  1. Eles usam uma ferramenta matemática (chamada embedding) para medir o "cheiro" das palavras. Palavras com o mesmo significado têm o mesmo "cheiro".
  2. Eles agrupam os post-its que têm o mesmo "cheiro" em pilhas.
  3. Eles pedem ao "gigante" para dar um nome oficial para cada pilha.
    • Resultado: Todas as variações viram apenas um único evento oficial chamado: "Aumento de Tarifas".
  • Analogia: É como ter uma sala cheia de suspeitos com nomes falsos. O detetive agrupa os que parecem ser a mesma pessoa e cria uma ficha única com o nome verdadeiro: "O Chefe".

4. O Mapa de Conexões: A Tabela de Verdade (Passo iv)

Agora que todos os eventos têm nomes oficiais, eles criam uma tabela gigante.

  • As linhas são as 100 histórias.

  • As colunas são os eventos oficiais (ex: "Aumento de Tarifas", "Fuga de Empresas", "Queda da Moeda").

  • Eles marcam com um "X" se a história X contém o evento Y.

  • Analogia: É como uma planilha de Excel onde você vê, em todas as histórias, se "Aumento de Tarifas" aparece junto com "Fuga de Empresas".

5. A Descoberta: Quem Causa Quem? (Passo v)

Com essa tabela limpa e organizada, eles usam algoritmos matemáticos (como o PC, GES e LiNGAM) para procurar padrões. O computador pergunta: "Sempre que 'Aumento de Tarifas' aparece, 'Fuga de Empresas' também aparece? Eles estão conectados?"

O resultado não é uma lei da física, mas um Mapa de Hipóteses.

  • O que o mapa mostra: "O modelo de linguagem acredita que, quando o governo aumenta tarifas, as empresas tendem a fugir."
  • O que o mapa NÃO é: Não prova que isso é verdade no mundo real. É apenas o que o "gigante" aprendeu lendo a internet.

Por que isso é útil? (Os Casos de Uso)

O artigo testou isso com dois temas:

  1. Trump e o Japão: O modelo descobriu que, na visão da IA, as restrições de tecnologia dos EUA forçam o Japão a mudar suas fábricas para lá.
  2. IA e o Preço do Ouro: O modelo conectou o investimento em Inteligência Artificial a tensões geopolíticas, que por sua vez levam os bancos centrais a comprar mais ouro.

A Conclusão Simples

Imagine que você quer entender como o mundo funciona, mas você não tem tempo de ler todos os livros. Você pede para uma IA ler tudo e te dar um resumo.

  • Sem este método: A IA te daria um monte de frases soltas e confusas.
  • Com este método: A IA organiza as frases, descobre os padrões e te entrega um mapa visual mostrando: "Olha, segundo o que li, se A acontece, B provavelmente segue".

O aviso final: O mapa não é a realidade. É um "rascunho de hipóteses". É como se a IA dissesse: "Baseado em tudo que li, acredito que existe uma conexão entre isso e aquilo. Agora, você, especialista humano, deve olhar esse mapa e dizer: 'Sim, faz sentido' ou 'Não, isso está errado'."

É uma ferramenta para gerar ideias e organizar o pensamento, não para substituir a verdade absoluta.