Safety Mirage: How Spurious Correlations Undermine VLM Safety Fine-Tuning and Can Be Mitigated by Machine Unlearning
Il paper rivela come il fine-tuning supervisionato per la sicurezza dei modelli visione-linguaggio crei un "miraggio di sicurezza" basato su correlazioni spurie che possono essere aggirate o causano rifiuti eccessivi, dimostrando che l'apprendimento non supervisionato (machine unlearning) è una soluzione più efficace per rimuovere le conoscenze dannose preservando le capacità generali del modello.