Quantifying Memorization and Privacy Risks in Genomic Language Models

Este artículo presenta un marco de evaluación de privacidad multi-vectorial diseñado para cuantificar y auditar los riesgos de memorización en modelos de lenguaje genómico, demostrando que estos sistemas pueden memorizar secuencias sensibles y que se requiere una auditoría combinada para evaluar dicha vulnerabilidad de manera integral.

Alexander Nemecek, Wenbiao Li, Xiaoqian Jiang, Jaideep Vaidya, Erman Ayday2026-03-11🤖 cs.LG

Vision-Language Models Encode Clinical Guidelines for Concept-Based Medical Reasoning

El artículo presenta MedCBR, un marco de razonamiento basado en conceptos que integra guías clínicas y modelos de lenguaje-visión para mejorar la interpretabilidad y el rendimiento diagnóstico en imágenes médicas mediante la generación de narrativas clínicas estructuradas.

Mohamed Harmanani, Bining Long, Zhuoxin Guo, Paul F. R. Wilson, Amirhossein Sabour, Minh Nguyen Nhat To, Gabor Fichtinger, Purang Abolmaesumi, Parvin Mousavi2026-03-11🤖 cs.LG

Optimizing Reinforcement Learning Training over Digital Twin Enabled Multi-fidelity Networks

Este artículo propone un marco de aprendizaje por refuerzo jerárquico asistido por gemelo digital que optimiza conjuntamente la política de ajuste de inclinación de antenas y la estrategia de recolección de datos en redes móviles, logrando reducir la latencia de recopilación de datos físicos hasta un 28,01% en comparación con métodos existentes.

Hanzhi Yu, Hasan Farooq, Julien Forgeat, Shruti Bothe, Kristijonas Cyras, Md Moin Uddin Chowdhury, Mingzhe Chen2026-03-11🤖 cs.LG

Kernel Debiased Plug-in Estimation based on the Universal Least Favorable Submodel

El artículo presenta ULFS-KDPE, un estimador de plug-in sesgado basado en un modelo desfavorable universal dentro de un espacio de Hilbert de núcleo reproductor (RKHS), que permite estimar parámetros diferenciables en modelos no paramétricos alcanzando la eficiencia semiparamétrica sin necesidad de derivar ni evaluar explícitamente las funciones de influencia eficiente.

Haiyi Chen, Yang Liu, Ivana Malenica2026-03-11🤖 cs.LG

Semantic Level of Detail: Multi-Scale Knowledge Representation via Heat Kernel Diffusion on Hyperbolic Manifolds

El artículo presenta Semantic Level of Detail (SLoD), un marco que utiliza la difusión del núcleo de calor en variedades hiperbólicas para establecer una operación de zoom continua que controla la resolución semántica, identifica automáticamente los límites entre niveles de abstracción mediante brechas espectrales y demuestra su eficacia para descubrir jerarquías significativas en grafos de conocimiento reales como WordNet.

Edward Izgorodin2026-03-11🤖 cs.AI

MAcPNN: Mutual Assisted Learning on Data Streams with Temporal Dependence

El artículo presenta MAcPNN, un paradigma de aprendizaje mutuo inspirado en la teoría sociocultural de Vygotsky que utiliza redes neuronales progresivas continuas (cPNN) en dispositivos IoT autónomos para mejorar el rendimiento en flujos de datos mediante la colaboración selectiva ante cambios de concepto, reduciendo así la necesidad de comunicación constante en comparación con el aprendizaje federado.

Federico Giannini, Emanuele Della Valle2026-03-11🤖 cs.LG

Data-driven robust Markov decision processes on Borel spaces: performance guarantees via an axiomatic approach

El artículo presenta un enfoque axiomático para procesos de decisión de Markov robustos en espacios de Borel que, mediante conjuntos de ambigüedad basados en distancias empíricas, garantiza la convergencia y ofrece cotas de rendimiento fuera de muestra con alta probabilidad para tamaños de muestra finitos, superando así las limitaciones de los MDPs empíricos tradicionales.

Sivaramakrishnan Ramani2026-03-11✓ Author reviewed 🤖 cs.LG

MAPLE: Elevating Medical Reasoning from Statistical Consensus to Process-Led Alignment

El artículo presenta MAPLE, un nuevo paradigma de entrenamiento que integra modelos de recompensa de proceso médico con el aprendizaje por refuerzo en tiempo de prueba para superar las limitaciones del voto mayoritario y mejorar el razonamiento clínico mediante una supervisión alineada con expertos.

Kailong Fan, Anqi Pu, Yichen Wu, Wanhua Li, Yicong Li, Hanspeter Pfister, Huafeng Liu, Xiang Li, Quanzheng Li, Ning Guo2026-03-11🤖 cs.LG

The Coupling Within: Flow Matching via Distilled Normalizing Flows

El artículo propone Normalized Flow Matching (NFM), un método que mejora el entrenamiento de modelos generadores de flujo mediante la destilación de acoplamientos adaptativos de modelos de flujo normalizado preentrenados, logrando un rendimiento superior tanto a los flujos entrenados con acoplamientos independientes u óptimos como al propio modelo docente.

David Berthelot, Tianrong Chen, Jiatao Gu, Marco Cuturi, Laurent Dinh, Bhavik Chandna, Michal Klein, Josh Susskind, Shuangfei Zhai2026-03-11🤖 cs.LG

When to Retrain after Drift: A Data-Only Test of Post-Drift Data Size Sufficiency

El artículo presenta CALIPER, un método agnóstico a modelos y detectores que utiliza únicamente datos para determinar cuándo la cantidad de información post-desplazamiento es suficiente para reentrenar un predictor de manera estable, cerrando así la brecha entre la detección de desplazamiento y la adaptación basada en datos en el aprendizaje en flujo.

Ren Fujiwara, Yasuko Matsubara, Yasushi Sakurai2026-03-11🤖 cs.LG

Two Teachers Better Than One: Hardware-Physics Co-Guided Distributed Scientific Machine Learning

El marco EPIC aborda los desafíos de la implementación centralizada del aprendizaje automático científico en entornos distribuidos mediante un enfoque de codificación local ligera y decodificación consciente de la física, logrando reducciones significativas en la latencia y el consumo de energía mientras mejora la fidelidad de reconstrucción en tareas como la inversión de onda completa.

Yuchen Yuan, Junhuan Yang, Hao Wan, Yipei Liu, Hanhan Wu, Youzuo Lin, Lei Yang2026-03-11🤖 cs.LG