Biased Generalization in Diffusion Models
Este artigo desafia a prática comum de interromper o treinamento de modelos de difusão no mínimo da perda de teste, identificando e quantificando uma fase de "generalização enviesada" em que o modelo continua a reduzir o erro enquanto gera amostras excessivamente próximas aos dados de treinamento devido à natureza sequencial da aprendizagem de características, o que representa um risco crítico para aplicações que exigem privacidade.