Robust Fine-Tuning from Non-Robust Pretrained Models: Mitigating Suboptimal Transfer With Epsilon-Scheduling

Questo articolo propone la tecnica di "Epsilon-Scheduling", un metodo innovativo che regola la forza delle perturbazioni durante il fine-tuning per mitigare il trasferimento subottimale e migliorare la robustezza attesa nei modelli pre-addestrati non robusti.

Jonas Ngnawé, Maxime Heuillet, Sabyasachi Sahoo, Yann Pequignot, Ola Ahmad, Audrey Durand, Frédéric Precioso, Christian Gagné

Pubblicato 2026-03-16
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

🎓 Il Problema: Il "Cervello" che si confonde

Immagina di avere un genio (un modello di intelligenza artificiale pre-addestrato) che ha studiato milioni di libri e immagini su internet. È bravissimo a riconoscere cose: sa distinguere un gatto da un cane, un'auto da un aereo. Tuttavia, questo genio ha un difetto: è troppo sicuro di sé e non sa difendersi da piccoli "truccetti" o inganni (chiamati esempi avversari). Se qualcuno gli mostra un'immagine di un cane con un piccolo adesivo invisibile all'occhio umano, il genio potrebbe pensare che sia un gatto.

Ora, vuoi insegnargli a riconoscere una nuova cosa specifica (ad esempio, solo i cani di una certa razza) e allo stesso tempo vuoi che sia impossibile da ingannare. Questo processo si chiama Fine-Tuning Robusto (RFT).

Il problema scoperto dagli autori:
Quando provi a insegnare a questo genio a essere "impossibile da ingannare" fin dal primo giorno, succede una cosa strana: il genio va in tilt.
Invece di imparare la nuova cosa, si confonde così tanto che dimentica anche quello che sapeva prima. Il risultato è che diventa pessimo sia nel riconoscere i cani, sia nel difendersi dagli inganni. È come se un calciatore professionista, cercando di imparare una nuova difesa complessa, dimenticasse come si corre e finisse per non segnare più gol.

Gli autori chiamano questo fenomeno "Trasferimento Subottimale": hai preso un modello potente, ma il metodo per renderlo sicuro lo ha reso inutile.


🛠️ La Soluzione: La "Scaletta" (Epsilon-Scheduling)

Gli autori si sono chiesti: "Perché succede questo?"
Hanno scoperto che il problema è che il genio cerca di imparare la nuova cosa e la difesa contemporaneamente, fin dall'inizio. È come se dovessi imparare a guidare un'auto, ma il istruttore ti mettesse subito le catene alle ruote e ti dicesse: "Guida, ma non devi mai toccare il volante con più di un grammo di forza!". È impossibile.

La loro soluzione geniale si chiama Epsilon-Scheduling (o "Pianificazione dell'Epsilon"). Immaginala come una scaletta graduale:

  1. Fase 1 (Le prime settimane): Si insegna al modello a riconoscere la nuova cosa (es. i cani) senza preoccuparsi degli inganni. Si usa una "palestra normale". Il modello impara velocemente e si adatta bene.
  2. Fase 2 (Il ponte): Si inizia a introdurre lentamente i "truccetti" (gli inganni). Non si buttano subito tutti i truccetti possibili, ma si inizia con quelli piccoli e si aumenta la difficoltà piano piano, come un allenatore che aumenta i pesi in palestra.
  3. Fase 3 (La fine): Solo quando il modello è già bravo a riconoscere i cani, si introduce la difesa completa contro gli inganni più forti.

L'analogia della scuola di guida:

  • Metodo vecchio (RFT-fix): Ti metti al volante, ti metti le catene ai piedi e ti dicono "Guida in città con il traffico". Risultato? Ti schianti subito.
  • Metodo nuovo (Epsilon-Scheduling): Prima impari a guidare in un parcheggio vuoto (adattamento al compito). Poi guidi in una strada di campagna con un po' di vento (aumento graduale della difficoltà). Infine, guidi in città con il traffico intenso e ostacoli improvvisi (robustezza finale).

📊 I Risultati: Funziona davvero?

Gli autori hanno testato questa "scaletta" su molti modelli diversi (come ViT, Swin, ResNet) e su molti compiti diversi (riconoscere uccelli, auto, aerei, ecc.).

I risultati sono stati sorprendenti:

  • Nessun più "crash": Il modello non dimentica più cosa sta imparando.
  • Migliore equilibrio: Il modello diventa sia bravo a riconoscere le cose (alta precisione) sia bravo a non farsi ingannare (alta robustezza).
  • Una nuova misura del successo: Hanno introdotto un nuovo modo per valutare i modelli chiamato "Robustezza Attesa". Invece di guardare solo quanto è bravo il modello quando viene attaccato al massimo livello, guardano la sua media di performance su tutti i livelli di attacco (da zero fino al massimo). È come dire: "Non mi importa solo se sopravvive all'uragano, ma voglio sapere quanto è stabile anche con la brezza leggera".

💡 In Sintesi

Questo paper ci insegna che la pazienza paga.
Quando si cerca di rendere un'intelligenza artificiale sicura partendo da modelli che non lo sono, non bisogna buttare subito tutto il peso della sicurezza. Bisogna prima farla "adattare" al nuovo compito e solo dopo, gradualmente, insegnarle a difendersi.

Grazie a questo metodo (Epsilon-Scheduling), possiamo prendere i modelli potenti che abbiamo già (che sono economici e veloci da usare) e renderli sicuri per il mondo reale, senza doverli ricreare da zero o senza rovinarne le prestazioni. È un passo avanti fondamentale per rendere l'AI più affidabile nella vita di tutti i giorni.

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →