Robust Fine-Tuning from Non-Robust Pretrained Models: Mitigating Suboptimal Transfer With Epsilon-Scheduling

Este artigo identifica o fenômeno de transferência subótima ao realizar o ajuste fino robusto em modelos pré-treinados não robustos e propõe a técnica de "Epsilon-Scheduling" para mitigar esse problema, melhorando consistentemente o desempenho e a robustez esperada em diversas configurações.

Jonas Ngnawé, Maxime Heuillet, Sabyasachi Sahoo, Yann Pequignot, Ola Ahmad, Audrey Durand, Frédéric Precioso, Christian Gagné

Publicado 2026-03-16
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um chef de cozinha extremamente talentoso que foi treinado por anos em uma grande escola de culinária (o modelo pré-treinado). Esse chef sabe cozinhar pratos deliciosos e complexos, mas ele nunca foi treinado para lidar com alergias severas ou ingredientes estragados (os exemplos adversários).

Agora, você quer contratar esse chef para trabalhar na sua própria cozinha (a tarefa específica, como classificar fotos de carros ou pássaros). O problema é que, na sua cozinha, você precisa que ele seja à prova de falhas: ele não pode errar nem mesmo se alguém tentar sabotar o prato com um ingrediente escondido.

Aqui está o que a descoberta deste paper diz, traduzida para uma linguagem simples:

1. O Problema: O "Choque de Realidade" (Transferência Subótima)

Quando tentamos treinar esse chef talentoso (mas não à prova de falhas) para ser à prova de falhas imediatamente, algo estranho acontece.

Se você começar a jogar ingredientes estragados (perturbações) no prato dele desde o primeiro dia de trabalho, o chef fica tão confuso e assustado que esquece como cozinhar. Ele tenta se defender dos ingredientes ruins a ponto de esquecer a receita original.

  • Resultado: O prato final fica horrível. Ele não é mais um bom chef para a sua cozinha específica, e também não é um chef à prova de falhas. Isso é o que os autores chamam de "Transferência Subótima". O modelo pré-treinado, que deveria ser uma vantagem, torna-se um obstáculo.

2. A Descoberta: O Chef Precisa de Tempo

Os pesquisadores notaram que, quando tentam forçar a robustez desde o início, o chef demora muito para "acordar" e entender a nova receita. Ele fica travado, tentando se defender de ataques que nem existem ainda, e só começa a aprender a tarefa real muito tarde no processo.

3. A Solução: O "Planejamento de Perturbação" (Epsilon-Scheduling)

Para resolver isso, os autores criaram uma estratégia inteligente chamada Epsilon-Scheduling (Agendamento de Épsilon). Pense nisso como um plano de treinamento gradual:

  1. Fase 1 (Aprendizado Puro): Nos primeiros dias, o chef trabalha sem ingredientes estragados. Ele foca 100% em aprender a sua receita específica (adaptar-se à tarefa). Ele fica rápido e eficiente.
  2. Fase 2 (O Desafio Gradual): Depois que ele já domina a receita, você começa a introduzir pouco a pouco os ingredientes estragados. Primeiro um pouquinho, depois um pouco mais.
  3. Fase 3 (A Resistência Total): No final do treinamento, ele já está tão forte e adaptado que consegue cozinhar o prato perfeito, mesmo com os ingredientes sabotados.

A analogia do ginasta: É como treinar um ginasta. Você não joga ele de um trampolim de 10 metros no primeiro dia de treino. Você começa no chão, depois no tapete, depois em uma barra baixa, e só depois sobe para a altura máxima. Se você começar no topo, ele cai e se machuca (o modelo falha).

4. A Nova Régua de Medida: "Robustez Esperada"

Antes, as pessoas mediam o sucesso de duas formas:

  • "O prato ficou bom?" (Precisão limpa).
  • "O prato ficou bom com o ingrediente estragado máximo?" (Precisão robusta).

O paper introduz uma nova métrica chamada Robustez Esperada. Imagine que você quer saber: "Qual a chance de o prato ficar bom se, aleatoriamente, alguém colocar um ingrediente estragado de qualquer tamanho?"
Em vez de olhar apenas para o pior caso ou o melhor caso, essa métrica olha para a média de tudo. É como dizer: "Este chef é confiável em 90% das situações, não importa o tamanho do problema".

O Resultado Final

Ao usar esse "planejamento gradual" (Epsilon-Scheduling):

  • O chef (modelo) aprende a tarefa específica muito bem.
  • Ele se torna resistente a ataques.
  • Ele não "esquece" o que sabia antes.

Resumo em uma frase:
Não tente ensinar alguém a ser super-resistente e especialista ao mesmo tempo desde o primeiro segundo; deixe-o aprender a especialidade primeiro e, só então, ensine-o a se defender dos problemas gradualmente. Isso salva o modelo de falhar e o torna muito mais forte.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →