You Don't Need All That Attention: Surgical Memorization Mitigation in Text-to-Image Diffusion Models
El artículo presenta GUARD, un marco innovador que mitiga la memorización de datos de entrenamiento en modelos de difusión texto-a-imagen mediante la atenuación dinámica y quirúrgica de la atención cruzada durante la inferencia, logrando así prevenir la reproducción de imágenes originales sin comprometer la calidad de la generación.