Benchmarking Unlearning for Vision Transformers

Questo lavoro presenta il primo benchmark per il machine unlearning nei Vision Transformers, valutando diverse famiglie di modelli, algoritmi e protocolli su dataset variabili per stabilire una base di riferimento comparabile e analizzare le dinamiche di memorizzazione rispetto alle CNN.

Kairan Zhao, Iurie Luca, Peter Triantafillou

Pubblicato 2026-02-24
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

Il Grande "Dimenticare" delle Intelligenze Artificiali: Quando i Transformer Imparano a Non Ricordare

Immagina di avere un cuoco robot (l'Intelligenza Artificiale) che ha imparato a cucinare guardando milioni di ricette su internet.
Finora, i cuochi robot più famosi erano come chef tradizionali (le CNN): imparavano guardando un ingrediente alla volta, molto vicini tra loro.
Oggi, però, abbiamo una nuova generazione di cuochi robot chiamati Vision Transformers (VT). Sono come chef visionari: guardano l'intero piatto tutto insieme, analizzando le relazioni tra ogni singolo pezzo, anche quelli lontani. Sono diventati bravissimi, spesso meglio degli chef tradizionali.

Ma c'è un problema: cosa succede se una delle ricette che hanno imparato è sbagliata, offensiva, o se qualcuno vuole che il robot "dimentichi" di averla mai vista? (Questo è il diritto alla cancellazione dei dati).

In passato, gli scienziati avevano creato dei metodi per far "dimenticare" le ricette sbagliate agli chef tradizionali. Ma nessuno sapeva se questi stessi metodi funzionassero per i nuovi chef visionari (VT).

Questo studio è come un grande banco di prova (un "benchmark") per rispondere a questa domanda. Hanno messo alla prova diversi metodi per far dimenticare le cose ai nuovi robot, usando ingredienti di difficoltà diversa (dalle immagini semplici come i numeri, a quelle complesse come i volti).

Ecco cosa hanno scoperto, usando delle metafore:

1. Come imparano a memoria i robot? (La Memoria)

Hanno scoperto che, nonostante i nuovi robot (VT) guardino le immagini in modo diverso, la loro "memoria" funziona quasi esattamente come quella dei vecchi robot.

  • L'analogia: Immagina che entrambi i tipi di robot abbiano una libreria interna. In entrambe le librerie, ci sono alcuni libri che hanno letto così tante volte che li conoscono a memoria (memorizzazione), e altri che hanno solo sfogliato.
  • La scoperta: Anche se i nuovi robot sono più "globali" nel modo di pensare, tendono a memorizzare gli esempi specifici nello stesso modo dei vecchi. Questo è una buona notizia: significa che possiamo usare le stesse "chiavi" per aprire le loro memorie.

2. Gli Strumenti per Dimenticare (I Metodi)

Hanno testato tre strumenti principali per cancellare le memorie:

  • Il "Rifai da capo" (Fine-tune): È come dire al robot: "Ripassa solo le ricette giuste". Funziona bene se le ricette sbagliate erano poche e semplici, ma è lento e non sempre perfetto.
  • Il "Cancellatore di Gradienti" (NegGrad+): È come un gommone di gomma che spinge via attivamente le informazioni sbagliate, mentre tiene ferme quelle giuste.
  • Il "Cancellatore Selettivo" (SalUn): È come un chirurgo che cerca di rimuovere solo i neuroni specifici che hanno imparato la ricetta sbagliata.

Il Risultato Sorprendente:
Il metodo del Gommone (NegGrad+) è stato il campione indiscusso! Ha funzionato meglio di tutti, specialmente sui robot più complessi.
Il metodo del Chirurgo (SalUn), invece, ha fatto un bel lavoro nel mantenere le prestazioni generali, ma ha fallito nel proteggere la privacy: il robot sembrava aver dimenticato la ricetta, ma in realtà la ricordava ancora abbastanza da essere scoperto da un investigatore (un attacco di inferenza).

3. L'Importanza della "Mappa" (I Proxy)

Per far dimenticare qualcosa a un robot, devi sapere cosa ha memorizzato. Ma calcolare esattamente cosa ha memorizzato è costosissimo (come contare ogni singolo granello di sabbia).
Hanno usato delle mappe approssimative (chiamate "proxy") per capire dove il robot aveva memorizzato le cose.

  • La scoperta: Le mappe usate per i vecchi robot funzionano perfettamente anche per i nuovi! In particolare, una mappa chiamata "Holdout Retraining" (che è come un test di controllo) si è rivelata la migliore per i robot più complessi, mentre una mappa basata sulla "fiducia" (Confidence) va bene per i compiti più semplici.

4. Architettura e Dimensione (ViT vs Swin-T)

Non tutti i robot visionari sono uguali:

  • ViT: Sono come pittori astratti che vedono tutto il quadro insieme. Tendono a funzionare meglio con il metodo "Rifai da capo" (Fine-tune).
  • Swin-T: Sono come architetti che costruiscono il quadro pezzo per pezzo (a blocchi), un po' come i vecchi chef. Questi funzionano benissimo con il metodo "Gommone" (NegGrad+).
  • Dimensione: A volte, un robot più grande non è necessariamente migliore per dimenticare. C'è una "taglia giusta" (né troppo piccolo, né troppo grande) per ottenere il miglior equilibrio tra memoria e cancellazione.

5. Dimenticare nel Tempo (Unlearning Continuo)

Nella vita reale, non cancelliamo un solo dato alla volta, ma ne cancelliamo molti nel tempo.

  • La scoperta: Se fai dimenticare al robot una cosa alla volta per 5 o 10 volte di fila, il robot non si confonde e non perde le sue capacità. Rimane stabile. È come se avesse un sistema immunitario che si adatta senza ammalarsi.

In Sintesi: Cosa ci dice questo studio?

  1. I nuovi robot (Vision Transformers) sono pronti: Possiamo applicare le tecniche di cancellazione sviluppate per i vecchi robot anche a questi nuovi, ma dobbiamo scegliere lo strumento giusto per il robot giusto.
  2. Il metodo "Gommone" (NegGrad+) è il re: È il più robusto e sicuro per far dimenticare le cose, specialmente su compiti difficili.
  3. La privacy è salvaguardata: Usando le mappe giuste (proxy) e il metodo giusto, possiamo garantire che i robot dimentichino davvero ciò che non dovrebbero sapere, senza rovinare le loro capacità di lavorare sugli altri dati.

In pratica, questo studio ci dà la mappa del tesoro per costruire Intelligenze Artificiali più sicure, etiche e rispettose della privacy, che possono essere "aggiornate" cancellando le informazioni sbagliate senza dover essere ricostruite da zero.

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →