Benchmarking Unlearning for Vision Transformers

Este trabalho apresenta o primeiro benchmark abrangente para algoritmos de esquecimento em máquinas (MU) aplicados a Vision Transformers, avaliando seu desempenho em diferentes arquiteturas, conjuntos de dados e protocolos para estabelecer uma linha de base de referência e permitir comparações justas e reprodutíveis.

Kairan Zhao, Iurie Luca, Peter Triantafillou

Publicado 2026-02-24
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você treinou um aluno muito inteligente (o Vision Transformer ou VT) para reconhecer fotos de animais. Ele estudou milhares de imagens e ficou ótimo no trabalho. Mas, um dia, você percebe que ele aprendeu algumas fotos de um gato que pertencia a um vizinho que não quer mais ser reconhecido, ou talvez ele tenha aprendido com fotos falsas que distorcem a realidade.

Agora, você precisa pedir ao aluno para "esquecer" especificamente essas fotos ruins, sem que ele perca a capacidade de reconhecer os outros animais ou fique confuso. Esse processo de "esquecer" seletivamente é chamado de Desaprendizado de Máquina (Machine Unlearning).

Até agora, os cientistas sabiam como fazer isso com modelos antigos (como as CNNs, que funcionam como filtros de câmera). Mas os modelos modernos, os Vision Transformers (VTs), funcionam de maneira diferente (eles olham para a imagem inteira de uma vez, como um humano, em vez de olhar pedacinho por pedacinho). Ninguém sabia direito como fazer esses modelos modernos "esquecerem" as coisas corretamente.

Este artigo é como um grande teste de laboratório para descobrir como fazer isso funcionar.

As Metáforas do Estudo

1. O Aluno e a Memória (Memorização)

O estudo descobriu uma coisa curiosa: tanto o modelo antigo (CNN) quanto o novo (VT) têm um comportamento de memória muito parecido.

  • A Analogia: Imagine que, ao estudar, alguns alunos decoram a resposta de cor (memorizam), enquanto outros entendem o conceito. O estudo mostrou que, mesmo que o VT seja mais "inteligente" e global, ele ainda tende a "decorar" algumas fotos específicas, assim como os modelos antigos.
  • A Descoberta: Como eles memorizam de forma parecida, podemos usar as mesmas "ferramentas" que usávamos para os modelos antigos para ajudá-los a esquecer.

2. As Ferramentas de Esquecimento (Algoritmos)

Os pesquisadores testaram três métodos principais para fazer o aluno esquecer:

  • O "Reestudo" (Fine-tune): O aluno apenas reestuda as fotos boas, ignorando as ruins. Funciona bem se ele não tivesse decorado tanto as ruins.
  • O "Empurrão" (NegGrad+): É como se o professor dissesse: "Esqueça essa foto! Pense exatamente no oposto do que você aprendeu com ela, mas mantenha o resto". O estudo descobriu que essa é a melhor ferramenta para os modelos modernos, especialmente em tarefas difíceis.
  • O "Corte Cirúrgico" (SalUn): Tenta apagar apenas os "neurônios" que lembram da foto ruim. Funciona bem para manter a precisão, mas às vezes falha em proteger a privacidade (o aluno ainda pode revelar que viu a foto).

3. O Detetive de Memória (Proxies)

Para saber o que o aluno decorou, não podemos recriar o modelo do zero milhares de vezes (seria muito caro e demorado). Então, usamos "detetives" ou proxies (indicadores) para adivinhar o que foi memorizado.

  • A Analogia: É como olhar para a confiança do aluno ao responder. Se ele diz "Tenho 100% de certeza" em uma foto específica, provavelmente ele a decorou.
  • O Resultado: O estudo mostrou que esses "detetives" funcionam muito bem nos modelos modernos também. O melhor detetive para tarefas complexas foi o Holdout Retraining (que compara o modelo atual com um modelo treinado sem aquela foto).

4. Arquiteturas Diferentes: O Olho Global vs. O Olho Local

O estudo comparou dois tipos de VTs:

  • ViT (Vision Transformer): Olha para a imagem inteira de uma vez (como um falcão voando alto).
  • Swin-T: Olha em janelas menores e depois junta tudo (como um humano olhando detalhe por detalhe).
  • A Lição: O Swin-T (mais parecido com os modelos antigos) foi muito bom com a ferramenta de "Empurrão" (NegGrad+). O ViT (mais global) funcionou melhor apenas com o "Reestudo" simples. Não existe uma solução única para todos; depende de como o modelo "enxerga".

5. O Esquecimento Contínuo

Na vida real, você não pede para esquecer apenas uma vez. Você pode pedir para esquecer 100 fotos diferentes, uma por uma.

  • O Teste: Os pesquisadores fizeram o modelo esquecer em etapas (como se fosse um dia após o outro).
  • O Resultado: Felizmente, o modelo não ficou "confuso" ou "quebrado" com o tempo. Ele manteve sua inteligência e capacidade de esquecer, mesmo após várias rodadas. É como se o cérebro do modelo fosse elástico e não se cansasse de esquecer.

Resumo para o Dia a Dia

Este trabalho é importante porque:

  1. Valida a Segurança: Mostra que podemos remover dados sensíveis (como fotos de pessoas que pediram para sair) de modelos de IA modernos sem estragar o modelo.
  2. Economiza Tempo e Dinheiro: Descobriu que não precisamos inventar métodos totalmente novos para os modelos modernos; podemos adaptar os métodos antigos com algumas ajustes.
  3. Dá um Manual de Instruções: Agora, quem quiser usar esses modelos em empresas ou hospitais sabe exatamente qual ferramenta usar (provavelmente o método "NegGrad+" com o detector "Holdout Retraining") dependendo do tipo de modelo que tem.

Em suma, o estudo garantiu que, mesmo com a tecnologia de IA ficando mais avançada e "inteligente", ainda temos controle sobre o que ela aprende e o que ela deve esquecer, mantendo a privacidade e a segurança em dia.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →