Query Disambiguation via Answer-Free Context: Doubling Performance on Humanity's Last Exam

Este trabalho demonstra que a reescrita de consultas para reduzir ambiguidades, utilizando contexto de fundamentação sem respostas, duplica o desempenho de modelos de linguagem no benchmark "Humanity's Last Exam", superando abordagens que apenas preparam o contexto antes da pergunta.

Michael Majurski, Cynthia Matuszek

Publicado 2026-03-06
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você está tentando pedir uma receita de bolo para um chef de cozinha muito inteligente, mas que nunca viu o seu armário.

Você diz: "Quero fazer aquele bolo com o ingrediente que brilha no escuro."

O chef, sendo muito inteligente, pensa: "Ah, 'brilha no escuro'! Deve ser o fosforescente que usamos em relógios!" Ele te dá a receita do bolo de fosforescente. Mas você estava pensando em zinco sulfeto, usado em lasers, e ficou frustrado porque a resposta não era o que você queria. O problema não foi a inteligência do chef, foi que você não deu o contexto certo.

Este artigo de pesquisa é como descobrir que, antes de pedir o bolo, você deve primeiro mostrar ao chef uma foto do seu armário (o contexto) e pedir para ele reescrever o seu pedido para ficar mais claro.

Aqui está a explicação simples do que os autores descobriram:

1. O Problema: O "Chef" não lê a sua mente

Os modelos de linguagem (como o ChatGPT) são super inteligentes, mas eles não sabem o que você está pensando. Se você fizer uma pergunta vaga, eles vão tentar adivinhar com base no que aprenderam antes. Às vezes, eles acertam, mas muitas vezes eles erram porque faltam detalhes óbvios para você, mas não para eles.

2. A Solução: O "Contexto Sem Resposta"

Os pesquisadores usaram uma técnica chamada RAG (que é como dar ao chef um livro de receitas para ele consultar). Normalmente, se o livro tiver a resposta exata, o chef acerta.

Mas o que acontece se o livro tiver informações sobre o ingrediente, mas não disser qual é a resposta final?

  • O jeito antigo: Você mostra o livro inteiro para o chef e diz: "Olhe aqui e me diga o que é". O chef muitas vezes se confunde com tanta informação.
  • O jeito novo (da pesquisa): Você pega as informações do livro (que não têm a resposta) e usa um "assistente" para reescrever a sua pergunta antes de entregá-la ao chef.

3. A Mágica: Reescrever a Pergunta

Aqui está o segredo:

  • Pergunta Original: "Para que servem cristais de sulfeto de zinco?" (Vaga).
  • Contexto (Livro): "O sulfeto de zinco brilha em relógios e telas de TV. Também é usado em lasers." (Não diz a resposta final, só dá dicas).
  • Pergunta Reescrita (Pelo Assistente): "Em qual parte do espectro eletromagnético operam os lasers que usam cristais de sulfeto de zinco?" (Clara e específica).

Ao usar o contexto para reescrever a pergunta, o modelo de IA entende exatamente o que você quer, mesmo que o contexto não tenha a resposta escrita lá. É como se o assistente dissesse ao chef: "Ei, o cliente não quer saber sobre relógios, ele quer saber sobre lasers! Pergunte sobre lasers!"

4. O Resultado: Dobrar a Nota

Os autores testaram isso em um exame difícil chamado "O Último Exame da Humanidade".

  • Sem ajuda, o modelo acertou 14% das perguntas.
  • Com a pergunta reescrita usando o contexto, a nota subiu para 37%.
  • Tradução: A inteligência do modelo quase triplicou só porque a pergunta foi feita de um jeito mais claro!

5. A Lição Importante: Não faça tudo de uma vez

O estudo descobriu algo curioso: você não pode pedir para o chef pensar e reescrever a pergunta ao mesmo tempo na mesma frase.

  • Se você diz: "Pense sobre o livro, reescreva a pergunta e depois responda", o chef fica confuso e a nota cai.
  • É melhor ter duas etapas separadas:
    1. Um passo para reescrever a pergunta (limpar a confusão).
    2. Um segundo passo para responder a pergunta já limpa.

É como se você precisasse de um editor de texto para arrumar seu e-mail antes de enviar, em vez de tentar escrever e editar ao mesmo tempo enquanto digita.

Resumo em uma Analogia Final

Imagine que você está tentando encontrar uma agulha num palheiro.

  • Sem contexto: Você entra no palheiro e grita "Onde está a agulha?". O palheiro é grande e você não acha.
  • Com contexto direto: Alguém te entrega a agulha. Fácil, mas isso é "trapaça" (o modelo só decora a resposta).
  • Com o método deste artigo: Alguém te entrega um mapa que diz "A agulha está perto de um fardo de palha azul". Você usa esse mapa para reescrever sua busca para: "Procure a agulha perto do fardo azul". Agora, você encontra a agulha muito mais rápido, mesmo que o mapa não tenha mostrado a agulha em si.

Conclusão: A qualidade da resposta depende muito de como a pergunta é feita. Usar informações de fundo para "traduzir" a pergunta do usuário para uma linguagem que a IA entende melhor é a chave para obter respostas muito mais precisas.