Compositional Neuro-Symbolic Reasoning

Este artigo propõe uma arquitetura neuro-simbólica que combina representações de objetos, propostas de transformações guiadas por redes neurais e filtragem simbólica de consistência para melhorar a generalização composicional em tarefas do ARC-AGI-2, elevando o desempenho de modelos de linguagem sem necessidade de ajuste fino específico ou aprendizado por reforço.

Anugyan Das, Omkar Ghugarkar, Vishvesh Bhat, Asad Aali

Publicado 2026-04-06
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você está tentando ensinar um computador a resolver um quebra-cabeça visual muito difícil, como os do jogo ARC (Corpus de Abstração e Raciocínio). O desafio é que você só tem algumas poucas pistas (exemplos) e precisa descobrir a regra secreta para resolver um novo caso que nunca viu antes.

Os pesquisadores deste artigo (da CoreThink AI e da Stanford) descobriram que os "cérebros" de computador modernos (chamados de Grandes Modelos de Linguagem ou LLMs) são ótimos em chutar, mas ruins em seguir regras lógicas rigorosas. Eles tendem a alucinar ou falhar quando o padrão muda um pouco.

Para resolver isso, eles criaram um sistema híbrido (neuro-simbólico) que funciona como uma equipe de detetives com especialidades diferentes. Vamos usar uma analogia de uma cozinha de restaurante de alta tecnologia para explicar como funciona:

1. O Problema: O Chef que Alucina

Antes, tínhamos apenas um "Chef" (o modelo de IA pura) tentando adivinhar a receita inteira de uma vez só.

  • O que acontecia: O Chef olhava para os ingredientes e dizia: "Acho que é salada, mas talvez seja sopa, ou talvez eu deva colocar chocolate". Ele tentava adivinhar a regra inteira de uma vez.
  • O resultado: Ele acertava às vezes, mas falhava muito quando a receita exigia lógica complexa (como "se o objeto for vermelho, pule 2 casas").

2. A Solução: A Cozinha Especializada (O Sistema Neuro-Simbólico)

Os autores dividiram o trabalho em 4 etapas, como se fosse uma linha de montagem de uma cozinha perfeita:

Etapa 1: O Garçom Organizado (Abstração Simbólica)

Em vez de olhar para a "imagem" bagunçada (os pixels), o sistema primeiro pede a um "Garçom" (um algoritmo simples e matemático) para organizar a mesa.

  • A Analogia: O Garçom não vê "pixels coloridos". Ele vê "objetos". Ele diz: "Aqui temos um quadrado vermelho, ali um círculo azul, e o fundo é preto". Ele separa o que é importante do que é apenas o fundo.
  • Por que é bom: Isso limpa a bagunça. O cérebro do computador não precisa tentar entender pixels; ele entende "objetos".

Etapa 2: O Chefe de Cozinha Criativo (Geração de Hipóteses)

Agora, com a mesa organizada, o "Chefe de Cozinha" (um modelo de IA neural) entra em ação. Mas ele não pode inventar qualquer coisa.

  • A Analogia: O Chefe tem um livro de receitas limitado (chamado DSL - Linguagem de Domínio Específico). Ele só pode escolher entre 22 tipos de movimentos básicos, como "Preencher horizontalmente", "Conectar dois objetos" ou "Fazer um buraco".
  • O Truque: O Chefe usa sua criatividade para propor quais dessas 22 receitas podem resolver o problema, baseando-se nos exemplos que o Garçom organizou. Ele não chuta aleatoriamente; ele chuta dentro de um conjunto de regras lógicas.

Etapa 3: O Inspetor de Qualidade (Filtro de Consistência)

Aqui está a mágica. O Chefe pode ter sugerido 5 receitas diferentes. Mas o sistema tem um Inspetor de Qualidade (lógica simbólica).

  • A Analogia: O Inspetor pega todas as receitas sugeridas e diz: "Espere! Se essa receita funciona para o Exemplo 1, ela tem que funcionar para o Exemplo 2 e 3 também".
  • O Resultado: Se uma receita funciona no primeiro prato, mas estraga o segundo, o Inspetor a joga fora. Ele só deixa passar as regras que são consistentes em todos os exemplos. Isso elimina o "achismo".

Etapa 4: O Montador Final (Geração da Solução)

Com a regra certa e limpa (a receita aprovada pelo Inspetor), o sistema monta o prato final para o cliente (o teste).

  • A Analogia: Se o sistema ainda tiver dúvidas, ele usa um "segundo Chef" (outro modelo de IA) apenas para montar o prato final, mas seguindo estritamente a receita aprovada. Eles podem fazer várias tentativas e escolher a que todos concordam (votação).

O Que Isso Significa na Prática?

  • Antes: A IA tentava "adivinhar" a resposta inteira de uma vez, como um aluno tentando memorizar a prova sem entender a matéria.
  • Agora: A IA primeiro entende o que são os objetos (Garçom), depois procura uma regra lógica em um livro de regras (Chefe), verifica se a regra funciona em todos os casos (Inspetor) e só então aplica a solução.

Os Resultados

Quando testaram isso no ARC-AGI-2 (uma versão muito difícil do teste):

  • Um modelo de IA comum (apenas o "Chef" tentando adivinhar) acertou cerca de 16%.
  • O sistema híbrido (a equipe completa) acertou 24,4%.
  • Quando combinaram dois sistemas diferentes (como ter dois inspectores diferentes), o acerto subiu para 30,8%.

A Lição Principal

O artigo nos ensina que, para a inteligência artificial se tornar verdadeiramente inteligente (como um humano), não basta apenas ter um cérebro gigante que memoriza tudo. É preciso separar as tarefas:

  1. Ver o mundo de forma clara (Percepção).
  2. Pensar usando regras lógicas e limitadas (Raciocínio Simbólico).
  3. Verificar se a lógica faz sentido em todos os casos (Consistência).

É como dizer: "Não adianta ter um gênio que alucina; é melhor ter um gênio que segue um manual de instruções rigoroso e é supervisionado por um auditor". Isso torna a IA mais confiável e capaz de resolver problemas novos sem precisar de milhões de exemplos de treino.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →