Is K-fold cross validation the best model selection method for Machine Learning?
Il paper propone un nuovo criterio statistico chiamato K-fold CUBV, basato su limiti superiori del rischio reale e disuguaglianze di concentrazione, per superare i limiti della convalida incrociata K-fold tradizionale nella selezione dei modelli di machine learning, riducendo i falsi positivi e fornendo stime di rischio più robuste su dataset piccoli ed eterogenei.