Noisy PDE Training Requires Bigger PINNs

El artículo demuestra que las Redes Neuronales Informadas por Física (PINNs) requieren un tamaño de modelo suficientemente grande para lograr un riesgo empírico inferior a la varianza del ruido en los datos, estableciendo un límite inferior cuantitativo que impide que simplemente aumentar la cantidad de etiquetas ruidosas reduzca el error sin un aumento proporcional en los parámetros.

Sebastien Andre-Sloan, Anirbit Mukherjee, Matthew Colbrook2026-03-10🤖 cs.LG

Towards Practical Benchmarking of Data Cleaning Techniques: On Generating Authentic Errors via Large Language Models

Este trabajo presenta TableEG, un marco basado en modelos de lenguaje grandes y fine-tuning que genera errores sintéticos auténticos en tablas, logrando una distribución y patrones similares a los errores reales para establecer un benchmark robusto que supera a los métodos existentes y facilita la evaluación de técnicas de detección y corrección de datos.

Xinyuan Liu, Jiahui Chen, Bocheng Hu, Yu Sun, Xinyang Chen, Shaoxu Song, Yongxin Tong2026-03-10🤖 cs.LG

A Robust Incomplete Multimodal Low-Rank Adaptation Approach for Emotion Recognition

Este artículo presenta MCULoRA, un nuevo enfoque de adaptación de bajo rango que desacopla dinámicamente las características de las combinaciones modales para resolver los conflictos de gradientes en el reconocimiento de emociones multimodal con datos incompletos, superando significativamente a los métodos existentes.

Xinkui Zhao, Jinsong Shu, Yangyang Wu, Guanjie Cheng, Zihe Liu, Naibo Wang, Shuiguang Deng, Zhongle Xie, Jianwei Yin2026-03-10💻 cs

Flow Matching Meets Biology and Life Science: A Survey

Este artículo presenta la primera encuesta exhaustiva sobre el flujo de emparejamiento y sus aplicaciones en biología y ciencias de la vida, abarcando desde sus fundamentos teóricos hasta su uso en la modelación de secuencias biológicas, el diseño de moléculas y la generación de péptidos y proteínas.

Zihao Li, Zhichen Zeng, Xiao Lin, Feihao Fang, Yanru Qu, Zhe Xu, Zhining Liu, Xuying Ning, Tianxin Wei, Ge Liu, Hanghang Tong, Jingrui He2026-03-10🤖 cs.LG

Weak-to-Strong Generalization with Failure Trajectories: A Tree-based Approach to Elicit Optimal Policy in Strong Models

Este artículo propone un enfoque basado en "árboles de trayectorias" y búsqueda Monte Carlo (MCTS) para generalizar de modelos débiles a fuertes en entornos de decisión complejos, aprovechando tanto el conocimiento de éxito como la experiencia de fracaso para optimizar el rendimiento del modelo fuerte.

Ruimeng Ye, Zihan Wang, Yang Xiao, Zinan Ling, Manling Li, Bo Hui2026-03-10🤖 cs.LG

Exposing the Illusion of Fairness: Auditing Vulnerabilities to Distributional Manipulation Attacks

Este trabajo expone cómo un auditor malicioso puede manipular muestras de datos para crear una ilusión de cumplimiento de las normas de equidad sin alterar significativamente la distribución subyacente, y propone métodos estadísticos basados en la distancia de distribución para detectar y contrarrestar estos ataques de manipulación.

Valentin Lafargue, Adriana Laurindo Monteiro, Emmanuelle Claeys, Laurent Risser, Jean-Michel Loubes2026-03-10🤖 cs.LG

Beyond Benchmarks: Dynamic, Automatic And Systematic Red-Teaming Agents For Trustworthy Medical Language Models

Este artículo presenta un marco de red-teaming dinámico, automático y sistemático (DAS) que revela una brecha crítica entre el alto rendimiento en benchmarks estáticos y la baja fiabilidad dinámica de los modelos de lenguaje médico, demostrando que la mayoría de estos sistemas son vulnerables a fallos de robustez, privacidad, sesgo y alucinaciones cuando se someten a pruebas de estrés continuas y adaptativas.

Jiazhen Pan (Cherise), Bailiang Jian (Cherise), Paul Hager (Cherise), Yundi Zhang (Cherise), Che Liu (Cherise), Friedrike Jungmann (Cherise), Hongwei Bran Li (Cherise), Chenyu You (Cherise), Junde Wu (Cherise), Jiayuan Zhu (Cherise), Fenglin Liu (Cherise), Yuyuan Liu (Cherise), Niklas Bubeck (Cherise), Christian Wachinger (Cherise), Chen (Cherise), Chen (Cherise), Zhenyu Gong, Cheng Ouyang, Georgios Kaissis, Benedikt Wiestler, Daniel Rueckert2026-03-10🤖 cs.LG

CauKer: Classification Time Series Foundation Models Can Be Pretrained on Synthetic Data

El artículo presenta CauKer, un algoritmo novedoso que genera series temporales sintéticas causales y diversas mediante la combinación de modelos causales estructurales y composición de kernels de procesos gaussianos, permitiendo un preentrenamiento eficiente en muestras de modelos fundacionales de series temporales para clasificación y demostrando leyes de escalado claras que no se observan en datos reales.

Shifeng Xie, Vasilii Feofanov, Ambroise Odonnat, Lei Zan, Marius Alonso, Jianfeng Zhang, Themis Palpanas, Lujia Pan, Keli Zhang, Ievgen Redko2026-03-10🤖 cs.LG

Time-Scale Coupling Between States and Parameters in Recurrent Neural Networks

Este trabajo demuestra que los mecanismos de puerta en las redes neuronales recurrentes actúan como precondicionadores de optimización impulsados por los datos, acoplando las escalas temporales del estado con la dinámica de los parámetros para generar tasas de aprendizaje efectivas dependientes del retraso y la dirección que complementan la adaptabilidad de los optimizadores y mejoran la entrenabilidad.

Lorenzo Livi2026-03-10🤖 cs.LG

Constraint Learning in Multi-Agent Dynamic Games from Demonstrations of Local Nash Interactions

Este artículo presenta un algoritmo basado en juegos dinámicos inversos que utiliza programas lineales enteros mixtos para aprender restricciones paramétricas a partir de demostraciones de interacciones de equilibrio de Nash local, garantizando teóricamente aproximaciones internas de los conjuntos seguros y permitiendo la planificación de movimientos robustos en sistemas multiagente con dinámicas no lineales.

Zhouyu Zhang, Chih-Yuan Chiu, Glen Chou2026-03-10🤖 cs.LG

CbLDM: A Diffusion Model for recovering nanostructure from atomic pair distribution function

Este estudio propone el modelo CbLDM, una red de difusión latente condicional que utiliza matrices Laplacianas para recuperar de manera estable y físicamente significativa la nanoestructura de nanopartículas metálicas monometálicas a partir de sus funciones de distribución de pares atómicos.

Jiarui Cao, Zhiyang Zhang, Heming Wang, Jun Xu, Ling Lan, Simon J. L. Billinge, Ran Gu2026-03-10🔬 cond-mat.mtrl-sci

Entropy-Driven Curriculum for Multi-Task Training in Human Mobility Prediction

Este artículo presenta un marco de entrenamiento unificado que combina un currículo impulsado por la entropía y el aprendizaje multi-tarea para mejorar la predicción de la movilidad humana, logrando un rendimiento superior y una convergencia más rápida al organizar la complejidad de los datos y optimizar simultáneamente la ubicación, la distancia y la dirección.

Tianye Fang, Xuanshu Luo, Martin Werner2026-03-10🤖 cs.LG

Synthetic data for ratemaking: imputation-based methods vs adversarial networks and autoencoders

Este artículo demuestra que los métodos de imputación basados en MICE son una alternativa eficaz y más sencilla de implementar que las redes generativas adversarias y los autoencoders para generar datos sintéticos de alta fidelidad en la tarificación actuarial, preservando tanto las distribuciones marginales como las relaciones multivariadas necesarias para entrenar modelos GLM.

Yevhen Havrylenko, Meelis Käärik, Artur Tuttar2026-03-10🤖 cs.LG

Faster Gradient Methods for Highly-Smooth Stochastic Bilevel Optimization

Este artículo propone la clase de métodos F²SA-pp que utiliza diferencias finitas de orden pp para aproximar el hipergradiente en optimización bilevel estocástica, logrando una complejidad superior de O~(pϵ4p/2)\tilde{\mathcal{O}}(p \epsilon^{-4-p/2}) para problemas altamente suaves y demostrando que esta tasa es casi óptima al coincidir con el límite inferior Ω(ϵ4)\Omega(\epsilon^{-4}) en regiones de suavidad suficientemente alta.

Lesi Chen, Junru Li, El Mahdi Chayti, Jingzhao Zhang2026-03-10🤖 cs.LG

Behavioral Inference at Scale: The Fundamental Asymmetry Between Motivations and Belief Systems

El estudio demuestra que, aunque es posible inferir con gran precisión las motivaciones de agentes LLM a escala, la identificación de sus sistemas de creencias enfrenta un límite fundamental de asimetría informativa que, incluso con arquitecturas avanzadas, impide clasificar correctamente más de la mitad de los perfiles debido a una zona de ambigüedad conductual.

Jason Starace, Terence Soule2026-03-10🤖 cs.LG