Is K-fold cross validation the best model selection method for Machine Learning?
Die Studie schlägt eine neuartige statistische Methode namens K-fold CUBV vor, die auf Konzentrationsungleichungen und Bayesianischen Obergrenzen basiert, um die Zuverlässigkeit von K-fold-Cross-Validation bei kleinen Datensätzen zu verbessern und übermäßige falsch-positive Ergebnisse zu vermeiden.