Towards Robust Retrieval-Augmented Generation Based on Knowledge Graph: A Comparative Analysis

Este artigo utiliza o corpus RGB para realizar uma análise comparativa entre o RAG padrão e o GraphRAG, demonstrando que customizações baseadas em grafos de conhecimento melhoram a robustez dos sistemas de Geração Aumentada por Recuperação em cenários de ruído, integração, rejeição negativa e contrafactuais.

Hazem Amamou, Stéphane Gagnon, Alan Davoust, Anderson R. Avila

Publicado 2026-03-09
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um assistente superinteligente, um "gênio" que leu quase tudo o que existe na internet. Esse é o LLM (o modelo de linguagem grande). O problema é que, às vezes, esse gênio alucina: ele inventa fatos, esquece coisas recentes ou se confunde quando recebe informações contraditórias.

Para consertar isso, criamos o RAG (Geração Aumentada por Recuperação). É como se, antes de responder, o gênio consultasse uma biblioteca de documentos externos. Mas e se a biblioteca estiver cheia de livros com erros, páginas rasgadas ou informações falsas? O gênio pode acabar lendo o errado e respondendo de forma errada.

Este artigo é como um teste de estresse para ver como podemos fazer esse sistema funcionar melhor, mesmo quando a "biblioteca" está bagunçada.

Aqui está a explicação simplificada, usando analogias do dia a dia:

1. O Problema: A Biblioteca Bagunçada

Os autores usaram um teste chamado RGB (Benchmark de Geração Aumentada por Recuperação). Imagine que você pede ao seu assistente: "Quem ganhou a Copa do Mundo de 2022?".
O sistema busca na internet e encontra 5 documentos. Mas, dependendo do teste, esses documentos podem ser:

  • Cheios de ruído: 80% são notícias falsas ou irreleváveis.
  • Contraditórios: Um diz "Brasil", outro diz "Argentina".
  • Incompletos: Nenhum deles tem a resposta, mas o assistente insiste em chutar algo.

O objetivo do artigo é ver como fazer o assistente não se confundir com essa bagunça.

2. A Solução Proposta: O Mapa do Tesouro (Grafos de Conhecimento)

A maioria dos sistemas RAG atuais lê os documentos como se fossem blocos de texto soltos (como ler um jornal aleatoriamente).
Os autores propuseram usar o GraphRAG.

  • A Analogia: Em vez de apenas ler livros soltos, o sistema cria um Mapa do Tesouro (um Grafo de Conhecimento). Ele conecta os pontos: "Brasil" está ligado a "2022", que está ligado a "Campeão".
  • Isso ajuda o assistente a entender as relações entre as coisas, não apenas palavras soltas. É como ter um organizador que diz: "Ei, essa informação aqui não faz sentido com aquela ali".

3. Os Quatro Desafios (O "Treinamento" do Assistente)

Os autores testaram o sistema em quatro situações difíceis:

  • Robustez ao Ruído (O Barulho no Rádio):

    • Cenário: O assistente recebe 5 documentos, mas 4 são lixo.
    • Resultado: O sistema com o "Mapa" (GraphRAG) conseguiu ignorar o lixo e focar no documento certo muito melhor do que o sistema comum, especialmente em modelos menores (como o GPT-3.5). Foi como se o mapa ajudasse a encontrar o tesouro mesmo no meio de uma tempestade de areia.
  • Integração de Informação (O Quebra-Cabeça):

    • Cenário: A resposta está espalhada em 3 documentos diferentes.
    • Resultado: O sistema com o "Mapa" foi excelente em juntar as peças do quebra-cabeça. Ele conseguiu conectar a informação do documento A com a do documento B para formar a resposta completa.
  • Rejeição Negativa (Saber Dizer "Não"):

    • Cenário: A pergunta é impossível de responder com os documentos fornecidos. O assistente deve admitir que não sabe, em vez de inventar.
    • Resultado: Aqui foi o mais difícil. Muitos assistentes são "confiantes demais" e inventam respostas. O sistema com o "Mapa" e um prompt especial (instruções claras) aprendeu a dizer: "Não tenho essa informação", rejeitando a pergunta com mais frequência. Foi como treinar o assistente para ter humildade.
  • Robustez a Fatos Falsos (O Detetive de Mentiras):

    • Cenário: Um documento diz "A Terra é plana". O assistente deve identificar que é mentira e corrigir.
    • Resultado: O sistema com o "Mapa" (especialmente o modelo GPT-4o-mini) conseguiu detectar a mentira e corrigi-la quase 100% das vezes. O "Mapa" serviu como uma bússola que mostrou que a informação estava errada.

4. O Grande Descoberta: Menos é Mais (às vezes)

Uma descoberta curiosa foi que os modelos "menores" (como o GPT-3.5) se beneficiaram muito mais desse sistema de "Mapa" do que os modelos "gigantes" (GPT-4).

  • Por que? O modelo gigante já tem muita informação na cabeça dele (conhecimento interno). O modelo menor é mais "vazio" e se perde fácil. O "Mapa" (Grafo de Conhecimento) deu ao modelo menor uma estrutura que ele precisava desesperadamente para não se perder.

Conclusão Simples

O papel mostra que, para criar assistentes de IA confiáveis no mundo real (onde a internet está cheia de fake news e erros), não basta apenas "ler mais". É preciso organizar a informação.

Transformar textos soltos em um Mapa de Conhecimento (Grafo) ajuda a IA a:

  1. Ignorar o lixo.
  2. Juntar informações espalhadas.
  3. Saber quando não responder.
  4. Identificar mentiras.

É como passar de um assistente que apenas "lê em voz alta" para um assistente que entende o contexto e sabe o que é verdade, mesmo quando o mundo ao redor está confuso.