Do Post-Training Algorithms Actually Differ? A Controlled Study Across Model Scales Uncovers Scale-Dependent Ranking Inversions

Este estudo apresenta o OXRL, um framework unificado que avalia 51 algoritmos de pós-treinamento e revela que as classificações de desempenho são instáveis e dependentes da escala do modelo, enquanto modificações na função de perda trazem ganhos insignificantes e a escolha do algoritmo tem impacto principalmente dentro da distribuição de treinamento.

Xiaoyi Li

Publicado 2026-03-23
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você é um chef de cozinha tentando criar o prato perfeito. Você tem uma receita base (o modelo de IA treinado) e quer aperfeiçoá-la para que ela fique deliciosa e útil para os clientes (o alinhamento pós-treinamento).

Nos últimos anos, surgiram dezenas de novas técnicas de cozinha (algoritmos como DPO, SimPO, PPO, etc.). Cada chef (pesquisador) diz: "Minha técnica é a melhor!", mas eles usam panelas diferentes, ingredientes diferentes e medem o sabor de formas distintas. Ninguém conseguia comparar quem realmente cozinhava melhor.

Este estudo, chamado OXRL, foi como uma Grande Competição de Cozinhas Controlada. Eles pegaram 51 técnicas diferentes, usaram a mesma cozinha, os mesmos fogões e os mesmos ingredientes, e testaram tudo em panelas de tamanhos variados (de 0,5 a 7 bilhões de "ingredientes" ou parâmetros).

Aqui estão as descobertas principais, explicadas de forma simples:

1. O Tamanho da Panela Muda Tudo (Inversão de Ranking)

A descoberta mais chocante é que o que funciona em uma panela pequena, falha em uma grande, e vice-versa.

  • Na panela pequena (Modelos de 1,5 bilhão): A técnica de "Aprendizado por Reforço Online" (onde o modelo pratica e aprende com seus próprios erros em tempo real, como um aluno fazendo exercícios) era a campeã. Era como se um aluno inteligente precisasse de muita prática para aprender.
  • Na panela gigante (Modelos de 7 bilhões): A situação inverteu completamente! A técnica que era a pior na panela pequena (chamada SimPO) tornou-se a melhor de todas.
  • A Analogia: Imagine que você está ensinando uma criança (modelo pequeno) e um adulto (modelo grande) a andar de bicicleta.
    • Para a criança, você precisa segurá-la e guiá-la o tempo todo (técnicas online complexas).
    • Para o adulto, se você apenas der uma instrução simples e clara (técnicas mais simples como SimPO), ele entende e faz perfeitamente. Tentar segurar o adulto seria inútil e até atrapalhar.
    • Conclusão: Não existe "melhor técnica" universal. Depende do tamanho do seu modelo.

2. A "Temperatura" da Receita Não Importa (Os 20 Variantes do DPO)

Os pesquisadores testaram 20 variações da técnica mais famosa (DPO), tentando mudar pequenas coisas na "fórmula matemática" (como adicionar um pouco mais de sal ou mudar o tipo de pimenta).

  • O Resultado: Nenhuma das 20 variações foi melhor que a receita original. Na verdade, a maioria foi igual ou pior.
  • A Analogia: É como tentar criar 20 tipos diferentes de "molho de tomate especial" para uma pizza que já está perfeita. Você pode mudar a quantidade de manjericão ou o tipo de tomate, mas o sabor final não vai melhorar. O problema não era o molho; era a massa (o modelo) ou o forno (o tamanho).
  • Conclusão: Gastar tempo criando novas fórmulas matemáticas complexas é um desperdício. Use a receita original (DPO padrão) e foque em outras coisas.

3. O Treino é Específico para a Tarefa (O Efeito "Especialista")

Eles testaram os modelos em matemática (GSM8K) e em outras tarefas gerais (como responder perguntas de cultura geral).

  • O Resultado: Na matemática, a diferença entre o melhor e o pior algoritmo foi enorme (quase 20 pontos). Mas, nas tarefas gerais, essa diferença caiu para quase zero (menos de 1 ponto).
  • A Analogia: Imagine um atleta que treina especificamente para correr 100 metros rasos.
    • Na pista de 100m (a tarefa para a qual foi treinado), ele é muito mais rápido que os outros.
    • Mas, se você o colocar para nadar ou jogar xadrez (tarefas gerais), ele não é nem um pouco melhor que uma pessoa comum.
  • Conclusão: Escolher o algoritmo certo só importa se você estiver treinando para a tarefa específica. Para o resto, não faz muita diferença.

4. A Hierarquia do Sucesso (O que realmente importa?)

O estudo criou uma lista de prioridades para quem quer treinar uma IA, do mais importante para o menos importante:

  1. O Tamanho do Modelo (A Panela): É o fator mais importante. Um modelo maior faz uma diferença gigantesca (como trocar de uma panela de barro para uma de ferro fundido).
  2. O Tipo de Treino (O Fogo): Se você usa treino online (prática) ou offline (leitura de respostas), faz uma diferença média.
  3. A Técnica de Alinhamento (O Molho): A escolha entre DPO, PPO, etc., faz uma pequena diferença.
  4. A Fórmula Matemática (O Tempero): Mudar a equação matemática (as 20 variações) quase não faz diferença.

Resumo para o Dia a Dia

Se você é um desenvolvedor ou alguém curioso sobre IA:

  • Não se preocupe em inventar novas fórmulas matemáticas complexas. Elas não vão te dar superpoderes.
  • Se o seu modelo é pequeno: Use técnicas de prática (online) e evite as mais simples.
  • Se o seu modelo é grande: Use técnicas mais simples e diretas (como SimPO).
  • Se você quer melhorar seu modelo: Invista em ter um modelo maior e com mais dados, não em tentar ajustar a "temperatura" da receita.

O estudo nos ensina que, na corrida da Inteligência Artificial, o tamanho do motor (o modelo) importa muito mais do que o tipo de combustível (o algoritmo) que você escolhe.

Afogado em artigos na sua área?

Receba digests diários dos artigos mais recentes que correspondam às suas palavras-chave de pesquisa — com resumos técnicos, no seu idioma.

Experimentar Digest →