Continual Unlearning for Text-to-Image Diffusion Models: A Regularization Perspective

Este artigo apresenta o primeiro estudo sistemático sobre o esquecimento contínuo em modelos de difusão texto-para-imagem, demonstrando que a deriva cumulativa de parâmetros leva ao colapso da utilidade e propondo uma abordagem baseada em regularização e projeção de gradientes para mitigar esse problema enquanto preserva o conhecimento retido.

Justin Lee, Zheda Mai, Jinsu Yoo, Chongyu Fan, Cheng Zhang, Wei-Lun Chao

Publicado 2026-03-04
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um chef de cozinha extremamente talentoso (o modelo de IA) que aprendeu a cozinhar milhões de pratos diferentes, desde "sushi" até "pizza", e até mesmo imitar o estilo de cozinheiros famosos como "Gordon Ramsay" ou "Julia Child".

O problema é que, às vezes, alguém pede para o chef esquecer como fazer um prato específico (por exemplo, "pizza de abacaxi" por questões de direitos autorais) ou um estilo específico (o estilo do "Chef Ramsay").

O Problema: O Esquecimento em Cascata

Até agora, os cientistas achavam que podiam pedir para o chef esquecer tudo de uma vez só, e ele faria isso bem. Mas, na vida real, os pedidos chegam um por um:

  1. Segunda-feira: "Esqueça a pizza de abacaxi."
  2. Terça-feira: "Esqueça o estilo do Chef Ramsay."
  3. Quarta-feira: "Esqueça a imagem de ursos."

O que os autores deste artigo descobriram é que, quando o chef tenta esquecer coisas uma de cada vez, ele começa a perder a cabeça. Depois de alguns pedidos, ele não só esquece o que foi pedido, mas também começa a esquecer como fazer outras coisas que ele deveria lembrar (como fazer sushi ou pizza normal). Ele começa a gerar imagens estranhas e ruins.

Isso acontece porque, a cada vez que ele tenta "apagar" uma memória, ele mexe tanto no cérebro dele (os parâmetros do modelo) que acaba se afastando demais do ponto de partida original. É como se ele tentasse apagar uma mancha na parede, mas esfregasse tão forte que a tinta inteira começou a descascar.

A Solução: O "Cinto de Segurança" e o "Filtro Inteligente"

Os pesquisadores propuseram duas ideias principais para consertar isso, usando analogias simples:

1. O Cinto de Segurança (Regularização)

Imagine que o cérebro do chef é um carro. Quando ele tenta esquecer algo, ele acelera muito e sai da estrada.
Os autores sugerem colocar um "cinto de segurança" (chamado de regularização) que impede o carro de ir muito longe do ponto de partida.

  • Como funciona: Eles criam regras que dizem: "Você pode mudar seu cérebro para esquecer o pedido, mas não pode se afastar mais do que X centímetros do seu estado original".
  • Resultado: O chef esquece o que precisa, mas mantém a estabilidade para não esquecer o resto.

2. O Filtro Inteligente (Projeção de Gradiente)

Aqui está a parte mais criativa. Às vezes, o que o chef precisa esquecer é muito parecido com o que ele precisa lembrar.

  • Exemplo: Se o chef precisa esquecer o estilo "Impressionismo", ele pode acabar esquecendo também o estilo "Pós-Impressionismo", porque são muito parecidos. É como tentar tirar o "azul" de uma pintura sem tirar o "verde", mas como as cores se misturam, é difícil.

Os autores criaram um filtro de radar (chamado de projeção de gradiente).

  • A Analogia: Imagine que o cérebro do chef é uma sala cheia de interruptores de luz. Quando você quer apagar a luz "Impressionismo", você puxa o fio. Mas, sem cuidado, você puxa o fio da luz "Pós-Impressionismo" também.
  • O Truque: O novo método olha para os interruptores antes de puxar o fio. Ele diz: "Espere! Esse interruptor controla também a luz 'Pós-Impressionismo'. Vamos puxar o fio de um ângulo diferente, apenas para apagar o 'Impressionismo', sem tocar no 'Pós-Impressionismo'".
  • Resultado: O chef esquece exatamente o que foi pedido, mas preserva perfeitamente as coisas que são parecidas.

Por que isso é importante?

Hoje em dia, as leis exigem que as empresas de IA apaguem dados pessoais ou conteúdos com direitos autorais quando solicitados. Se não fizermos isso direito, a IA pode ficar "quebrada" e inútil para todos os outros usos.

Este artigo mostra que:

  1. Pedir para esquecer coisas uma por uma é muito difícil e quebra o modelo se não tiver cuidado.
  2. Usar "cintos de segurança" (regras de estabilidade) ajuda muito.
  3. Usar um "filtro inteligente" que entende a semelhança entre as coisas é a chave para não apagar o que não deveria.

Em resumo: Os autores ensinaram como fazer um "esquecimento cirúrgico" em IAs de imagem. Em vez de dar um tapa na cabeça do modelo para ele esquecer, eles ensinaram a fazer uma cirurgia delicada que remove apenas o tumor (o conceito indesejado) sem machucar o cérebro saudável ao redor.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →