Is K-fold cross validation the best model selection method for Machine Learning?
Dit paper introduceert K-fold CUBV, een robuust criterium dat K-fold cross-validatie combineert met bovenste risicogrenzen om de werkelijke prestaties van machine learning-modellen nauwkeuriger te beoordelen en het aantal vals-positieven te verminderen, vooral bij kleine en heterogene datasets.