Agent-OM: Leveraging LLM Agents for Ontology Matching

O artigo apresenta o Agent-OM, um novo paradigma baseado em agentes de LLM que utiliza um framework com agentes siameses e ferramentas específicas para realizar correspondência de ontologias, demonstrando desempenho superior em tarefas complexas e de poucos exemplos em comparação com os sistemas mais avançados existentes.

Zhangcheng Qiang, Weiqing Wang, Kerry Taylor

Publicado 2026-03-10
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem dois dicionários gigantes: um escrito em um dialeto antigo e outro em um dialeto moderno. O objetivo é encontrar quais palavras significam a mesma coisa em ambos. Isso é o que chamamos de Correspondência de Ontologias (ou Ontology Matching). Antigamente, fazer isso era como tentar juntar essas duas listas manualmente, o que exigia especialistas humanos gastando dias ou semanas. Depois, vieram os computadores, mas eles muitas vezes erravam porque não entendiam o "sentido" das palavras, apenas a forma.

Agora, chegou a era da Inteligência Artificial (os Grandes Modelos de Linguagem, ou LLMs, como o ChatGPT). Eles são ótimos em entender linguagem, mas têm dois grandes defeitos:

  1. Alucinação: Eles às vezes inventam fatos que parecem verdadeiros, mas não são.
  2. Cegueira de Contexto: Eles não lembram de tudo o que leram antes e têm dificuldade em planejar tarefas complexas.

Aqui entra o Agent-OM, a solução proposta por este artigo.

A Analogia: O Detetive com uma Equipe de Apoio

Em vez de pedir para um único "robô inteligente" (o LLM) tentar adivinhar todas as correspondências de uma vez (o que levaria a muitos erros e custos altos), os autores criaram o Agent-OM.

Pense no Agent-OM não como um único gênio solitário, mas como um Detetive Chefe que lidera uma equipe especializada.

  1. O Cérebro Central (LLM): É o Detetive Chefe. Ele não faz todo o trabalho braçal. Sua função é planejar, dar ordens e tomar as decisões finais. Ele usa uma técnica chamada "Cadeia de Pensamento" (CoT), que é como se ele falasse em voz alta: "Primeiro, vou procurar o nome, depois o significado, depois a categoria..." antes de agir.

  2. Os Ferramentas (Tools): O Detetive não carrega um banco de dados na cabeça. Ele usa ferramentas:

    • O Arquivista (Retrieval Agent): Ele vai até a biblioteca (o banco de dados híbrido), pega a ficha do "Programa de Comitê" e resume as informações para o chefe.
    • O Tradutor (Matching Agent): Ele compara a ficha do "Programa de Comitê" com as fichas do outro dicionário.
    • O Verificador (Validator): Antes de fechar o caso, ele pergunta ao Detetive: "Tem certeza que isso é a mesma coisa? Vamos revisar o contexto." Isso evita que o robô alucine e invente conexões.
  3. A Memória Compartilhada: O Detetive e sua equipe têm um quadro de avisos (memória de curto e longo prazo). Tudo o que é descoberto é anotado lá. Se o Detetive precisa lembrar de algo que viu há 10 páginas atrás, ele olha no quadro, em vez de tentar decorar tudo.

Como Funciona na Prática?

Imagine que você quer encontrar o equivalente de "Programa de Comitê" em outro sistema.

  • O Jeito Antigo (Só LLM): Você pergunta ao robô: "O que é Programa de Comitê? É igual a 'Chair_PC'?". O robô tenta adivinhar. Se ele estiver cansado ou confuso, ele pode dizer "Sim" quando a resposta é "Não". Além disso, se você tiver 1.000 palavras para comparar, você teria que fazer 1 milhão de perguntas (1.000 x 1.000), o que é caro e lento.
  • O Jeito Agent-OM:
    1. O sistema primeiro organiza as informações em uma base de dados inteligente (como um índice de livro).
    2. Em vez de comparar tudo com tudo, ele busca apenas os candidatos mais prováveis (como olhar apenas as palavras que começam com a mesma letra).
    3. O Detetive Chefe analisa apenas esses poucos candidatos, usa o contexto para entender o significado real e pede ao Verificador para confirmar.
    4. Só então ele decide: "Sim, são a mesma coisa".

Por que isso é um avanço?

  • Precisão vs. Memória: O sistema é muito bom em tarefas difíceis e complexas (onde há poucas informações de exemplo), superando os sistemas antigos. Em tarefas simples, ele fica no mesmo nível dos melhores.
  • Economia: Ao usar uma busca inteligente em vez de comparar tudo com tudo, o sistema gasta muito menos "dinheiro" (tokens) e tempo.
  • Segurança: O sistema de verificação reduz drasticamente as "alucinações" (erros de invenção) que os robôs costumam cometer.

O Paradoxo do Trabalho (Moravec's Paradox)

Os autores fazem uma observação engraçada e curiosa:

  • Tarefas Difíceis (para humanos): Entender o contexto de uma palavra em um texto complexo é fácil para o robô.
  • Tarefas Fáceis (para humanos): Fazer uma comparação simples e direta de duas palavras idênticas às vezes é onde o robô trava ou erra mais, porque ele tenta "pensar demais" e complicar.

Conclusão

O Agent-OM é como transformar um robô solitário e propenso a erros em um escritório de detetives organizado. Eles usam ferramentas, consultam arquivos, planejam cada passo e verificam o trabalho uns dos outros. O resultado é um sistema que consegue unir dicionários de conhecimentos diferentes com muito mais precisão, rapidez e inteligência do que qualquer método anterior, abrindo caminho para que computadores entendam e conectem o conhecimento humano de verdade.