Score Matching Diffusion Based Feedback Control and Planning of Nonlinear Systems

Este artículo propone un marco de control basado en la coincidencia de puntuación de difusión para sistemas no lineales, que utiliza un proceso de difusión hacia adelante seguido de una ley de retroalimentación determinista de "desruido" para guiar la densidad de probabilidad del sistema hacia una distribución objetivo, ofreciendo una alternativa tratable al control no lineal con garantías teóricas para sistemas sin deriva y lineales invariantes en el tiempo.

Karthik Elamvazhuthi, Darshan Gadginmath, Fabio Pasqualetti2026-03-12⚡ eess

Panda: A pretrained forecast model for chaotic dynamics

El artículo presenta Panda, un modelo de pronóstico preentrenado que, tras ser entrenado exclusivamente en un conjunto de datos sintéticos de sistemas caóticos, demuestra capacidades emergentes como la predicción en cero disparos de sistemas no vistos, la generalización de ecuaciones diferenciales ordinarias a parciales y el rendimiento efectivo en series temporales experimentales del mundo real.

Jeffrey Lai, Anthony Bao, William Gilpin2026-03-12🌀 nlin

LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

Este estudio presenta una encuesta basada en datos que analiza el crecimiento y las tendencias de la investigación sobre las limitaciones de los modelos de lenguaje grandes (LLLMs) entre 2022 y 2025, identificando mediante un enfoque semiautomático que el razonamiento es la limitación más estudiada y que el volumen de publicaciones sobre este tema ha aumentado significativamente, especialmente en arXiv.

Aida Kostikova, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen, Steffen Eger2026-03-12💬 cs.CL

Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments

Este artículo propone un marco de razonamiento abductivo basado en la consistencia que integra las predicciones de múltiples modelos preentrenados mediante reglas lógicas para mitigar la degradación del rendimiento en entornos novedosos, logrando mejoras significativas en precisión y recall frente a enfoques individuales y de conjunto estándar.

Mario Leiva, Noel Ngu, Joshua Shay Kricheli, Aditya Taparia, Ransalu Senanayake, Paulo Shakarian, Nathaniel Bastian, John Corcoran, Gerardo Simari2026-03-12🤖 cs.AI

Comparative Analysis of Modern Machine Learning Models for Retail Sales Forecasting

Este estudio demuestra que, en el contexto de la previsión de ventas minoristas con demanda intermitente y datos incompletos, los métodos basados en árboles como XGBoost superan a arquitecturas de aprendizaje profundo más sofisticadas, lo que sugiere que la selección del modelo debe priorizar la adecuación a las características del problema sobre la complejidad arquitectónica.

Luka Hobor, Mario Brcic, Lidija Polutnik, Ante Kapetanovic2026-03-12🤖 cs.LG

Learning What Reinforcement Learning Can't: Interleaved Online Fine-Tuning for Hardest Questions

El artículo presenta ReLIFT, un nuevo enfoque de entrenamiento que alterna el aprendizaje por refuerzo con el ajuste fino en línea para superar las limitaciones del primero al incorporar nuevos conocimientos y patrones de razonamiento, logrando así mejoras significativas en benchmarks de alto nivel con una fracción mínima de datos de demostración.

Lu Ma, Hao Liang, Meiyi Qiang, Lexiang Tang, Xiaochen Ma, Zhen Hao Wong, Junbo Niu, Chengyu Shen, Runming He, Yanhao Li, Bin Cui, Wentao Zhang2026-03-12🤖 cs.AI

Sequential-Parallel Duality in Prefix Scannable Models

Este artículo introduce los Modelos Escaneables de Prefijo (PSMs), una clase general de modelos de secuencia que unifica arquitecturas existentes como Mamba y GLA mediante operadores de agregación no necesariamente asociativos, logrando así un equilibrio óptimo entre entrenamiento paralelo, inferencia eficiente y una fuerte generalización en longitud.

Morris Yau, Sharut Gupta, Valerie Engelmayer, Kazuki Irie, Stefanie Jegelka, Jacob Andreas2026-03-12🤖 cs.LG

The Yokai Learning Environment: Tracking Beliefs Over Space and Time

Este artículo presenta el Entorno de Aprendizaje Yokai (YLE), un nuevo benchmark de código abierto para la coordinación cero-shot que supera las limitaciones del entorno Hanabi al requerir que los agentes cooperen mediante el seguimiento de creencias sobre cartas móviles y el razonamiento bajo pistas ambiguas, revelando así que los métodos de vanguardia que dominan Hanabi fallan en mantener modelos internos consistentes con socios desconocidos en este nuevo entorno.

Constantin Ruhdorfer, Matteo Bortoletto, Johannes Forkel, Jakob Foerster, Andreas Bulling2026-03-12🤖 cs.AI

Universal Dynamics with Globally Controlled Analog Quantum Simulators

Este trabajo establece las condiciones teóricas para la universalidad en simuladores cuánticos análogos con control global, demuestra su capacidad para generar dinámicas complejas y validación experimental mediante control óptimo directo en átomos de Rydberg, logrando interacciones de tres cuerpos y dinámicas topológicas.

Hong-Ye Hu, Abigail McClain Gomez, Liyuan Chen, Aaron Trowbridge, Andy J. Goldschmidt, Zachary Manchester, Frederic T. Chong, Arthur Jaffe, Susanne F. Yelin2026-03-12⚛️ quant-ph

Zero-Shot Transferable Solution Method for Parametric Optimal Control Problems

Este artículo presenta un método de solución transferible y de cero disparos para problemas de control óptimo paramétrico que, mediante el uso de políticas de codificador de funciones y una descomposición fuera de línea/en línea, permite una adaptación eficiente a nuevos objetivos con un costo computacional mínimo y un rendimiento casi óptimo.

Xingjian Li, Kelvin Kan, Deepanshu Verma, Krishna Kumar, Stanley Osher, Ján Drgona2026-03-12🤖 cs.LG

Global Minimizers of Sigmoid Contrastive Loss

Este artículo explica teóricamente las ventajas de sincronizar la temperatura inversa y el sesgo entrenables en la pérdida de contraste sigmoidea, introduciendo el concepto de "Constelaciones" para justificar el éxito de SigLIP, explicar la brecha modal observada en modelos como CLIP y SigLIP, y determinar la dimensión necesaria para generar representaciones de alta calidad.

Kiril Bangachev, Guy Bresler, Iliyas Noman, Yury Polyanskiy2026-03-12🤖 cs.LG

Multi-modal Data Spectrum: Multi-modal Datasets are Multi-dimensional

Este estudio presenta una investigación empírica a gran escala que revela que las dependencias intra e inter-modales en los conjuntos de datos multimodales varían significativamente y que muchos benchmarks diseñados para reducir sesgos textuales han inadvertidamente amplificado la dependencia de las imágenes, lo que subraya la necesidad de un diseño de evaluación más riguroso.

Divyam Madaan, Varshan Muhunthan, Kyunghyun Cho, Sumit Chopra2026-03-12💬 cs.CL