No Memorization, No Detection: Output Distribution-Based Contamination Detection in Small Language Models
Cette étude démontre que la méthode de détection de contamination par distribution de sortie (CDD) échoue systématiquement sur les petits modèles de langage, car son efficacité dépend de la mémorisation littérale des données, et que les approches basées sur la probabilité comme la perplexité ou Min-k% Prob s'avèrent nettement supérieures dans tous les cas testés.