You Don't Need All That Attention: Surgical Memorization Mitigation in Text-to-Image Diffusion Models
Die Studie stellt GUARD vor, ein neuartiges Framework zur präzisen Minderung von Memorization in Text-zu-Bild-Diffusionsmodellen, das durch eine dynamische, prompt-spezifische Abschwächung der Cross-Attention während der Inferenz die Wiedergabe von Trainingsdaten verhindert, ohne dabei die Bildqualität zu beeinträchtigen.