Is K-fold cross validation the best model selection method for Machine Learning?
El artículo propone un nuevo criterio estadístico llamado K-fold CUBV, que combina la validación cruzada K-fold con límites superiores de riesgo para ofrecer una evaluación más robusta y con menos falsos positivos que los métodos tradicionales en conjuntos de datos pequeños o heterogéneos.