ITLC at SemEval-2026 Task 11: Normalization and Deterministic Parsing for Formal Reasoning in LLMs

O artigo apresenta um método inovador que reduz os efeitos de conteúdo no raciocínio de modelos de linguagem multilíngues através da abstração estrutural e da análise determinística, alcançando um desempenho de destaque no benchmark SemEval-2026 Task 11.

Wicaksono Leksono Muhamad, Joanito Agili Lopo, Tack Hwa Wong, Muhammad Ravi Shulthan Habibi, Samuel Cahyawijaya

Publicado 2026-03-04
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um amigo muito inteligente, mas um pouco distraído, chamado LLM (um Modelo de Linguagem Grande, como o Google Gemini ou o ChatGPT). Esse amigo é ótimo em escrever poemas, contar histórias e saber fatos do mundo. Mas, quando você pede para ele resolver um problema de lógica pura, ele às vezes se confunde.

Por que? Porque ele é muito influenciado pelo conteúdo.

O Problema: O "Viés do Conteúdo"

Pense assim: Se eu disser:

"Todos os cachorros são animais. Alguns animais são gatos. Logo, todos os cachorros são gatos."

Um humano vê imediatamente que isso é falso. A lógica está errada. Mas o nosso amigo LLM pode pensar: "Bem, cachorros são animais, e gatos são animais... parece que faz sentido, né?" Ele usa o que sabe sobre o mundo real (que cachorros e gatos são ambos animais) para "adivinhar" a resposta, em vez de olhar apenas para a estrutura da frase. Isso é o que os pesquisadores chamam de viés de conteúdo.

Em idiomas diferentes (como português, espanhol ou russo), esse problema fica ainda pior, porque o modelo pode não entender bem as nuances da gramática.

A Solução: O "Tradutor de Estrutura" (ITLC)

A equipe deste artigo criou um método chamado ITLC para consertar isso. Eles não tentaram "reprogramar" o cérebro do modelo (o que seria como tentar ensinar um adulto a andar de novo). Em vez disso, eles criaram um filtro antes de o modelo pensar.

Aqui está como funciona, usando uma analogia de receita de bolo:

1. Normalização: Transformando a Receita em Símbolos

Imagine que você recebe uma receita de bolo escrita de forma confusa:

"Se você colocar farinha e ovos, e depois assar, o bolo fica fofinho. Mas se você colocar apenas farinha, ele fica duro."

Para um robô de lógica, isso é difícil. O método da equipe pega essa frase e a transforma em uma fórmula matemática pura, removendo todas as palavras "gordas" (farinha, ovos, bolo) e deixando apenas a estrutura:

"Se A e B, então C. Se apenas A, então D."

No mundo dos silogismos (aqueles raciocínios com "Todos os X são Y"), eles pegam frases como "Todos os gatos são felinos" e transformam em:

"Todos os A são B."

Isso é chamado de Abstração Estrutural. Eles tiram o "tempero" (o conteúdo) e deixam apenas o "prato" (a lógica).

2. O Tradutor de Pivot (Para Línguas Diferentes)

Como os modelos de IA são melhores em inglês, quando a frase vem em português ou espanhol, eles fazem uma "ponte":

  1. Pegam a frase em português.
  2. Traduzem apenas a estrutura lógica para o inglês (mantendo os nomes originais das coisas para não perder o sentido).
  3. Agora, a lógica está em um formato que o modelo entende perfeitamente.

3. O Detetive Determinístico (Análise Rígida)

Depois de transformar a frase em "Todos os A são B", eles não deixam o modelo "adivinhar" se é verdadeiro ou falso. Eles usam um detetive de regras fixas (um algoritmo simples).

É como um jogo de tabuleiro com regras claras:

  • Se a regra diz "Todos os A são B" e "Todos os B são C", então obrigatoriamente "Todos os A são C".
  • O detetive verifica se a conclusão segue as regras do jogo. Se seguir, é Válido. Se não seguir, é Inválido.

Não há espaço para "acho que faz sentido". Ou a matemática fecha, ou não fecha.

O Resultado: Otimismo e Precisão

Ao usar esse método, a equipe conseguiu:

  • Eliminar o viés: O modelo parou de se deixar enganar pelo que ele "sabe" sobre o mundo e passou a olhar apenas para a lógica.
  • Funcionar em vários idiomas: Como eles traduziram a estrutura para um formato padrão, funcionou bem em inglês, português, espanhol, russo, etc.
  • Ser simples e barato: Eles não precisaram treinar um modelo gigante do zero (o que custa milhões). Apenas criaram um "filtro" inteligente antes de usar o modelo.

Resumo em uma frase

A equipe criou um tradutor de "pensamento lógico" que remove as distrações do mundo real e das línguas diferentes, transformando problemas complexos em uma fórmula matemática simples que qualquer computador pode resolver sem errar.

É como tirar os óculos coloridos que distorcem a realidade e colocar óculos de raio-X que mostram apenas a estrutura óssea da lógica.