FinRule-Bench: A Benchmark for Joint Reasoning over Financial Tables and Principles

O artigo apresenta o FinRule-Bench, um novo benchmark que avalia a capacidade de modelos de linguagem de realizar raciocínio financeiro baseado em regras e diagnósticos de conformidade em tabelas financeiras reais, revelando que, embora performem bem na verificação isolada de regras, suas capacidades degradam-se significativamente em tarefas que exigem discriminação de princípios e diagnóstico de múltiplas violações simultâneas.

Arun Vignesh Malarkkan, Manan Roy Choudhury, Guangwei Zhang, Vivek Gupta, Qingyun Wang, Yanjie Fu, Denghui Zhang

Publicado Fri, 13 Ma
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você é um detetive financeiro e sua missão é revisar as contas de uma empresa para garantir que tudo está correto, seguindo as "leis" da contabilidade.

Até hoje, os "supercomputadores" de inteligência artificial (chamados de Grandes Modelos de Linguagem ou LLMs) eram ótimos em responder perguntas simples sobre esses números, como "quanto a empresa lucrou?". Mas ninguém sabia se eles conseguiam realmente auditar as contas, ou seja, encontrar erros complexos e explicar por que estavam errados, seguindo regras estritas.

Foi aí que os pesquisadores criaram o FinRule-Bench. Vamos entender como funciona usando uma analogia divertida:

1. O Problema: O Aluno que Decora, mas Não Entende

Imagine que você tem um aluno muito inteligente que decorou todas as respostas de um livro de matemática. Se você perguntar "2+2?", ele responde "4" instantaneamente.
Mas, se você der a ele uma conta de verdade, com um erro de digitação no meio, e perguntar: "Onde está o erro e qual regra foi quebrada?", ele pode ficar confuso. Ele pode achar que o erro é em outro lugar ou inventar um erro que não existe.

Os benchmarks (testes) antigos de IA financeira eram como perguntar apenas "2+2?". Eles não testavam se a IA conseguia encontrar o erro em uma folha de cálculo gigante e complexa.

2. A Solução: O "Simulador de Auditoria" (FinRule-Bench)

Os autores criaram um novo teste chamado FinRule-Bench. Pense nele como um simulador de voo para auditores, mas para IAs.

  • O Cenário: Eles pegaram documentos reais de empresas (como balanços patrimoniais) que estavam perfeitamente corretos.
  • O Truque: Eles introduziram erros controlados e minúsculos nessas contas corretas. É como se um funcionário tivesse trocado um único número ou escrito "Fundo" em vez de "Dinheiro em Caixa".
  • A Missão da IA: A IA precisa olhar para a tabela, saber qual é a regra contábil correta (ex: "Ativos devem ser iguais a Passivos + Patrimônio") e dizer:
    1. "Tem erro?" (Verificação)
    2. "Qual regra foi quebrada?" (Identificação)
    3. "Onde exatamente está o erro e quais são todos os erros?" (Diagnóstico Conjunto)

3. Os Três Níveis do Jogo

O teste tem três níveis de dificuldade, como um videogame:

  • Nível 1 (Verificação): Você mostra uma regra e pergunta: "Essa conta segue essa regra?" É como perguntar: "O carro tem pneu?" (Sim/Não). A IA faz bem nisso.
  • Nível 2 (Identificação): Você dá uma lista de 10 regras possíveis e diz: "Uma delas foi quebrada. Qual é?" É como mostrar 10 leis de trânsito e perguntar qual o motorista violou. A IA começa a errar mais.
  • Nível 3 (Diagnóstico Conjunto - O Difícil): Você diz: "Pode haver vários erros ao mesmo tempo em lugares diferentes. Encontre todos e diga onde estão." É como procurar 3 agulhas em um palheiro, sabendo que elas podem estar misturadas. Aqui é onde a IA falha miseravelmente.

4. A Descoberta Chocante

O estudo descobriu algo interessante:

  • As IAs são ótimas em contas simples e isoladas.
  • Mas, quando precisam pensar junto (juntar várias regras, olhar para diferentes partes da tabela e entender o contexto), elas ficam confusas.
  • Elas frequentemente inventam erros (dizem que há um problema onde não há) ou perdem erros (não veem o problema que está na frente delas).
  • Elas também têm dificuldade em apontar exatamente qual linha da tabela está errada. É como se dissessem: "A conta está errada", mas não conseguissem dizer "O erro está na linha 42, coluna B".

5. O "Pulo do Gato" (Raciocínio Causal)

Os pesquisadores tentaram ajudar as IAs usando um método chamado Raciocínio Causal e Contrafactual.
Imagine que você ensina a IA não apenas a ver o erro, mas a imaginar o "e se":

  • "Veja, aqui o número está errado. Se eu mudasse esse número de volta para o original, a regra seria cumprida. Entendeu a causa?"

Isso ajudou um pouco, especialmente nas IAs menores, mas não foi suficiente para consertar tudo. Mesmo com essa "ajuda", elas ainda falhavam em encontrar todos os erros ao mesmo tempo.

Resumo em Uma Frase

O FinRule-Bench é um teste rigoroso que mostrou que, embora as IAs sejam ótimas em responder perguntas sobre finanças, elas ainda não são confiáveis para auditar contas reais sozinhas, pois têm dificuldade em encontrar e localizar múltiplos erros complexos seguindo regras estritas.

Por que isso importa?
Porque, no mundo real, se uma IA auditar as contas de um banco ou de uma empresa de energia e deixar passar um erro (ou inventar um), pode causar prejuízos gigantescos ou multas. Este teste nos avisa: "Ei, não confie cegamente na IA para fazer auditoria ainda; precisamos de humanos supervisionando."