Self-Distillation for Multi-Token Prediction

O artigo propõe o MTP-D, um método de auto-distilação simples e eficiente que aumenta as taxas de aceitação dos cabeçalhos de previsão de múltiplos tokens e preserva o desempenho do modelo principal, além de introduzir uma estratégia de extensão em loop que acelera significativamente a inferência em LLMs.

Guoliang Zhao, Ruobing Xie, An Wang, Shuaipeng Li, Huaibing Xie, Xingwu Sun

Publicado 2026-03-26
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você está escrevendo um livro muito longo e complexo. O método tradicional de escrever com Inteligência Artificial (LLMs) é como ter um escritor que escreve uma palavra de cada vez. Ele pensa, escreve a primeira palavra, espera a confirmação, pensa na segunda, espera de novo, e assim por diante. Isso é muito lento e cansativo, especialmente para textos longos.

Para resolver isso, os pesquisadores criaram uma técnica chamada Previsão de Múltiplos Tokens (MTP). É como se o escritor tivesse vários "ajudantes" (cabeças) ao lado dele. Em vez de escrever apenas uma palavra, o escritor principal escreve uma, e os ajudantes tentam adivinhar as próximas 3 ou 4 palavras de uma vez. Se os ajudantes acertarem, o livro avança muito mais rápido.

O Problema:
O problema é que, até agora, esses "ajudantes" não eram muito bons. Eles erravam muito as previsões. Quando o escritor principal verificava o trabalho deles, a maioria das palavras era descartada. Então, o sistema voltava a escrever uma palavra de cada vez, perdendo a vantagem de velocidade. Além disso, treinar muitos ajudantes ao mesmo tempo era um pesadelo: quanto mais ajudantes você adicionava, mais eles atrapalhavam o escritor principal, e o desempenho geral caía.

A Solução: MTP-D (O "Tutor" Inteligente)
Os autores deste artigo da Tencent propuseram uma solução brilhante e simples chamada MTP-D. Eles usaram uma técnica chamada Auto-Distilação.

Pense nisso assim:

  1. O Mestre (Cabeça Principal): É o escritor principal, muito experiente e confiável.
  2. O Estagiário (Cabeça MTP): É o ajudante que precisa aprender a prever o futuro.

No método antigo, o estagiário tentava adivinhar sozinho e errava muito. No novo método MTP-D, o escritor principal (Mestre) olha para o que ele pensa que vai escrever a seguir e diz para o estagiário: "Ei, olhe apenas para as minhas 10.000 melhores ideias de palavras. Tente imitar a minha confiança nelas."

Isso é feito de duas formas inteligentes:

  • Distilação de Top-N: O vocabulário é gigante (como um dicionário com 100.000 palavras). O Mestre não ensina o estagiário sobre todas as palavras, apenas sobre as Top 10.000 (as mais prováveis). Isso economiza energia e evita confusão.
  • Corte de Gradiente (Gradient-Detached): O Mestre ensina o estagiário, mas se o estagiário errar, a culpa não volta para o Mestre. O Mestre continua escrevendo perfeitamente, enquanto o estagiário aprende sozinho a melhorar. Isso evita que o treinamento de muitos ajudantes estrague o trabalho do escritor principal.

O Truque Adicional: A "Extensão em Loop"
Depois de treinar 4 ajudantes, os pesquisadores tiveram uma ideia genial: "E se usarmos esses 4 ajudantes já treinados para criar 4 novos?"

Eles criaram uma estratégia de Loop. Eles pegam o grupo de ajudantes treinados, copiam seu conhecimento e usam como "base" para treinar um novo grupo. É como se um time de futebol experiente treinasse um time reserva, e depois o time reserva treinasse um time de iniciantes. Como eles já compartilham a mesma "cultura" e lógica, o novo grupo aprende muito rápido e com poucos dados.

Os Resultados:

  • Mais Aceitação: Os ajudantes agora acertam muito mais as previsões (aumento de 7,5% na taxa de aceitação).
  • Velocidade Insana: Com 4 ajudantes, o sistema ficou 22,9% mais rápido. Com a extensão em loop (chegando a 16 ajudantes), a velocidade aumentou em mais de 220% em comparação ao método antigo de 1 ajudante.
  • Sem Perda de Qualidade: O escritor principal (a qualidade do texto) não sofreu nenhuma queda. A história continua tão boa quanto antes, só que escrita em tempo recorde.

Resumo da Ópera:
Os pesquisadores criaram um sistema onde a IA aprende a "adivinhar o futuro" de forma muito mais eficiente, usando um método de ensino onde o "professor" guia o "aluno" apenas nas melhores opções, sem atrapalhar o professor. Isso permite que a IA escreva parágrafos inteiros de uma vez só, tornando a geração de texto muito mais rápida e barata, sem perder a inteligência. É como transformar um carro que anda a 100 km/h em um foguete que viaja a 300 km/h, usando o mesmo motor.

Afogado em artigos na sua área?

Receba digests diários dos artigos mais recentes que correspondam às suas palavras-chave de pesquisa — com resumos técnicos, no seu idioma.

Experimentar Digest →