SurvHTE-Bench: A Benchmark for Heterogeneous Treatment Effect Estimation in Survival Analysis

Este artículo presenta SurvHTE-Bench, el primer benchmark integral para la estimación de efectos heterogéneos del tratamiento en análisis de supervivencia, que evalúa rigurosamente diversos métodos mediante conjuntos de datos sintéticos, semisintéticos y del mundo real para establecer un estándar de evaluación justo y reproducible.

Shahriar Noroozizadeh, Xiaobin Shen, Jeremy C. Weiss + 1 more2026-03-06🤖 cs.AI

AuToMATo: An Out-Of-The-Box Persistence-Based Clustering Algorithm

El artículo presenta AuToMATo, un algoritmo de agrupamiento basado en homología persistente que, mediante la combinación de ToMATo con un procedimiento de *bootstrapping* y parámetros predeterminados, ofrece una solución "llave en mano" que supera a otros métodos de vanguardia y se integra eficazmente con el algoritmo Mapper en el análisis topológico de datos.

Marius Huber, Sara Kalisnik, Patrick Schnider2026-03-05🤖 cs.LG

Convergence, Sticking and Escape: Stochastic Dynamics Near Critical Points in SGD

Este artículo analiza las propiedades de convergencia y las dinámicas de escape del Descenso de Gradiente Estocástico (SGD) en paisajes unidimensionales, demostrando cómo las características del ruido y la geometría de la función determinan los tiempos de permanencia cerca de máximos locales y las probabilidades de transición hacia mínimos adyacentes.

Dmitry Dudukalov, Artem Logachov, Vladimir Lotov + 3 more2026-03-05🤖 cs.LG

A Copula Based Supervised Filter for Feature Selection in Diabetes Risk Prediction Using Machine Learning

Este artículo propone un filtro supervisado eficiente basado en un puntaje de concordancia de cola superior derivado de la cópula Gumbel para la selección de características en la predicción de riesgo de diabetes, demostrando mediante dos conjuntos de datos que este método identifica predictores clínicamente relevantes y mejora o iguala el rendimiento de técnicas estándar como Mutual Information y ReliefF.

Agnideep Aich, Md Monzur Murshed, Sameera Hewage + 1 more2026-03-05🤖 cs.LG

Boosting In-Context Learning in LLMs Through the Lens of Classical Supervised Learning

Este artículo propone Supervised Calibration (SC), un marco unificado basado en la minimización de pérdidas que supera las limitaciones de los métodos de calibración actuales en el aprendizaje en contexto (ICL) al aprender transformaciones afines óptimas que pueden alterar la orientación de los límites de decisión de los LLM, logrando así un rendimiento superior en múltiples conjuntos de datos y modelos.

Korel Gundem, Juncheng Dong, Dennis Zhang + 2 more2026-03-05🤖 cs.AI

Finite-Dimensional Gaussian Approximation for Deep Neural Networks: Universality in Random Weights

Este artículo establece límites de aproximación gaussiana para las distribuciones finitas de redes neuronales profundas con pesos aleatorios y funciones de activación Lipschitz, demostrando que convergen a un límite gaussiano a medida que las anchuras de las capas crecen, con tasas de convergencia específicas para arquitecturas de profundidad fija.

Krishnakumar Balasubramanian, Nathan Ross2026-03-05🤖 cs.LG

Learning in an Echo Chamber: Online Learning with Replay Adversary

Este trabajo introduce el marco de "Aprendizaje en Sala de Eco" para modelar el entrenamiento con datos auto-annotados, demostrando que la dimensión Extendida de Umbral (ExThD\mathrm{ExThD}) es la medida exacta de la aprendibilidad en este escenario y que los algoritmos basados en cierre logran límites óptimos de errores frente a adversarios de reproducción, superando las limitaciones de los métodos clásicos.

Daniil Dmitriev, Harald Eskelund Franck, Carolin Heinzler + 1 more2026-03-05🤖 cs.LG

Implicit Bias of Per-sample Adam on Separable Data: Departure from the Full-batch Regime

Este trabajo demuestra que el sesgo implícito del algoritmo Adam con actualizaciones por muestra individual en datos separables puede desviarse del régimen de lote completo, convergiendo en algunos casos hacia clasificadores de margen máximo 2\ell_2 en lugar de \ell_\infty, mientras que el algoritmo Signum mantiene una convergencia invariable hacia el margen máximo \ell_\infty independientemente del tamaño del lote.

Beomhan Baek, Minhak Song, Chulhee Yun2026-03-05🤖 cs.AI