Automatic In-Domain Exemplar Construction and LLM-Based Refinement of Multi-LLM Expansions for Query Expansion

O artigo apresenta um framework automatizado e adaptável a domínios para expansão de consultas que combina a construção de exemplares in-domain via pipeline BM25-MonoT5, uma estratégia de seleção de demonstrações baseada em clusters e um ensemble de dois LLMs com refinamento, alcançando ganhos significativos em diversos conjuntos de dados sem necessidade de supervisão.

Minghan Li, Ercong Nie, Siqi Zhao, Tongna Chen, Huiping Huang, Guodong Zhou

Publicado 2026-03-16
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você é um bibliotecário muito inteligente (o LLM, ou Modelo de Linguagem) em uma biblioteca gigante. O seu trabalho é encontrar o livro perfeito para um cliente que chega com uma pergunta vaga, como "como consertar algo quebrado?".

O problema é que o cliente usa palavras simples, mas os livros na biblioteca usam termos técnicos e específicos. Se você procurar apenas pelas palavras exatas do cliente, pode não encontrar nada útil. Isso é o que chamamos de "expansão de consulta" no mundo da busca na internet: tentar adivinhar outras palavras que o cliente poderia ter usado para achar o que precisa.

Este artigo apresenta uma nova maneira de fazer isso, que é automática, inteligente e não precisa de ajuda humana constante. Vamos explicar como funciona usando uma analogia de uma equipe de detetives.

1. O Problema: O Detetive Solitário e os Exemplos Errados

Antes, os sistemas de busca funcionavam assim:

  • O Detetive Solitário: Usava apenas um único modelo de IA.
  • Os Exemplos Manuais: Alguém tinha que escrever à mão exemplos de perguntas e respostas para ensinar o detetive. Se o detetive fosse treinado com exemplos de "receitas de bolo" e você pedisse para ele procurar "como consertar um motor", ele ficaria confuso.
  • Resultado: Funcionava bem em alguns casos, mas falhava miseravelmente quando o assunto mudava (mudança de domínio).

2. A Solução Proposta: A Equipe de Detetives Automatizada

Os autores criaram um sistema de três etapas que funciona como uma equipe de investigação superorganizada:

Etapa 1: O Arquivo de Casos (Construção do Pool de Exemplos)

Em vez de alguém escrever os exemplos manualmente, o sistema cria seu próprio "arquivo de casos" usando a própria biblioteca.

  • Como funciona: O sistema pega uma pergunta, joga no sistema de busca básico (BM25) para achar os documentos mais parecidos, e depois usa um "juiz" (MonoT5) para confirmar se aquele documento é realmente útil.
  • A Analogia: É como se o detetive olhasse para o passado, pegasse casos antigos que foram resolvidos com sucesso e os organizasse em uma pasta chamada "Casos Reais". Agora, ele tem milhares de exemplos reais do mesmo tipo de problema que ele vai enfrentar hoje.

Etapa 2: Escolhendo os Mentores Certos (Seleção por Agrupamento)

Ter 100.000 exemplos na pasta é bom, mas mostrar todos eles para o detetive antes de cada pergunta deixaria o sistema lento e confuso.

  • O Truque: O sistema usa uma técnica de "agrupamento" (clustering). Imagine que ele separa os casos em grupos baseados no tema (ex: um grupo para "motores", outro para "eletrônicos", outro para "medicina").
  • A Escolha: De cada grupo, ele escolhe apenas um exemplo que seja o "centro" daquele grupo (o mais representativo).
  • Resultado: Antes de responder à pergunta do cliente, o sistema pega 4 exemplos perfeitos e relevantes daquele tema específico. Isso é chamado de Aprendizado em Contexto (ICL). O detetive olha para esses exemplos e diz: "Ah, entendi! Quando alguém pergunta sobre motores, eu devo pensar em 'pistão' e 'óleo', não em 'farinha'".

Etapa 3: A Reunião de Detetives (Ensemble de Dois LLMs + Refinamento)

Aqui está a parte mais genial. Em vez de confiar em apenas um detetive, eles usam dois detetives diferentes (dois modelos de IA diferentes, como Qwen e Llama) para trabalhar no mesmo caso.

  1. Detetive A lê os exemplos e sugere uma lista de palavras-chave.
  2. Detetive B faz o mesmo, mas com sua própria perspectiva.
  3. O Chefe (Modelo de Refinamento): Um terceiro detetive (o "Chefe") recebe as duas listas. Ele não apenas cola as duas listas uma na outra (o que geraria repetição e bagunça). Ele reescrita a informação, fundindo as melhores ideias de ambos, removendo o que é redundante e criando uma única, perfeita e coerente lista de palavras-chave.

Por que isso é incrível?

  1. Não precisa de rótulos humanos: O sistema se ensina sozinho usando os dados que já tem. É como um estagiário que aprende lendo os arquivos da empresa, sem precisar de um professor o tempo todo.
  2. Adaptável: Se você mudar a biblioteca (de receitas para medicina), o sistema reorganiza seus exemplos automaticamente.
  3. Melhor que a soma das partes: A "reunião" dos dois detetives com o chefe refinando a resposta funciona muito melhor do que qualquer um deles trabalhando sozinho. É como se dois especialistas conversassem e chegassem a uma conclusão mais precisa do que se cada um tentasse adivinhar sozinho.

O Resultado Final

O teste mostrou que essa equipe automatizada encontrou as respostas certas muito mais vezes do que os métodos antigos (que usavam apenas palavras-chave simples ou exemplos fixos escritos à mão).

Em resumo: O papel descreve um sistema onde a IA cria seus próprios exemplos de treinamento, escolhe os melhores exemplos para a situação atual e usa uma "reunião de especialistas" para gerar a melhor pergunta possível, tudo isso sem precisar de humanos escrevendo nada manualmente. É como ter um bibliotecário que aprende rápido, se adapta a qualquer assunto e sempre traz o livro exato que você precisa.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →