Mindstorms in Natural Language-Based Societies of Mind

Este trabajo presenta las Sociedades de Mente Basadas en Lenguaje Natural (NLSOMs), un marco inspirado en las teorías de Minsky y Schmidhuber donde múltiples agentes de redes neuronales colaboran mediante lenguaje natural para resolver tareas complejas de IA multimodal, al tiempo que explora las implicaciones sociales y económicas de escalar estos sistemas hacia sociedades de miles de millones de agentes.

Mingchen Zhuge, Haozhe Liu, Francesco Faccio, Dylan R. Ashley, Róbert Csordás, Anand Gopalakrishnan, Abdullah Hamdi, Hasan Abed Al Kader Hammoud, Vincent Herrmann, Kazuki Irie, Louis Kirsch, Bing Li, Guohao Li, Shuming Liu, Jinjie Mai, Piotr Pi\k{e}kos, Aditya Ramesh, Imanol Schlag, Weimin Shi, Aleksandar Stanic, Wenyi Wang, Yuhui Wang, Mengmeng Xu, Deng-Ping Fan, Bernard Ghanem, Jürgen Schmidhuber2026-03-12💬 cs.CL

Large Language Models for Travel Behavior Prediction

Este estudio demuestra que los modelos de lenguaje grandes (LLM) pueden predecir el comportamiento de viaje con una eficacia comparable a los modelos tradicionales, ya sea mediante estrategias de prompting sin entrenamiento o utilizando sus representaciones textuales para mejorar el aprendizaje supervisado en escenarios con pocos datos.

Baichuan Mo, Hanyong Xu, Ruoyun Ma, Jung-Hoon Cho, Dingyi Zhuang, Xiaotong Guo, Jinhua Zhao2026-03-12💬 cs.CL

Communication-Efficient Multimodal Federated Learning: Joint Modality and Client Selection

El artículo presenta MFedMC, un marco de aprendizaje federado multimodal eficiente en comunicación que aborda la heterogeneidad de los clientes y las limitaciones de ancho de banda mediante una arquitectura desacoplada y un algoritmo de selección conjunta de modalidades y clientes, logrando una reducción de la sobrecarga de comunicación superior a 20 veces sin sacrificar la precisión.

Liangqi Yuan, Dong-Jun Han, Su Wang, Devesh Upadhyay, Christopher G. Brinton2026-03-12🤖 cs.LG

Explainable machine learning for predicting shellfish toxicity in the Adriatic Sea using long-term monitoring data of HABs

Este estudio aplica técnicas de aprendizaje automático explicables a un conjunto de datos de 28 años en el Golfo de Trieste para predecir con precisión la toxicidad de los mejillones causada por floraciones de algas nocivas, identificando especies clave de dinoflagelados y factores ambientales como predictores fundamentales para mejorar los sistemas de alerta temprana.

Martin Marzidovšek, Janja Francé, Vid Podpečan + 3 more2026-03-12🤖 cs.AI

Mamba Neural Operator: Who Wins? Transformers vs. State-Space Models for PDEs

Este artículo presenta el Operador Neuronal Mamba (MNO), un nuevo marco teórico que supera a los Transformers en la resolución de ecuaciones diferenciales parciales al integrar modelos de espacio de estado estructurados para capturar con mayor eficacia las dinámicas continuas y las dependencias de largo alcance.

Chun-Wun Cheng, Jiahao Huang, Yi Zhang, Guang Yang, Carola-Bibiane Schönlieb, Angelica I. Aviles-Rivero2026-03-12🤖 cs.LG

Losing dimensions: Geometric memorization in generative diffusion

El artículo propone una teoría de memorización geométrica que demuestra cómo los modelos de difusión experimentan un colapso suave en su capacidad de variación a medida que los datos escasean, condensándose gradualmente en configuraciones de baja energía que replican ejemplos específicos antes de alcanzar una copia exacta.

Beatrice Achilli, Enrico Ventura, Gianluigi Silvestri, Bao Pham, Gabriel Raya, Dmitry Krotov, Carlo Lucibello, Luca Ambrogioni2026-03-12📊 stat

Class Incremental Learning with Task-Specific Batch Normalization and Out-of-Distribution Detection

Este estudio propone un marco novedoso de aprendizaje continuo para clasificación de imágenes que adapta métodos de aprendizaje incremental por tareas al escenario sin identificador de tarea, utilizando detección de distribuciones fuera de distribución y normalización por lotes específica por tarea para predecir el identificador de tarea y equilibrar eficazmente la plasticidad y la estabilidad.

Zhiping Zhou, Xuchen Xie, Yiqiao Qiu, Run Lin, Weishi Zheng, Ruixuan Wang2026-03-12🤖 cs.LG

Particle Trajectory Representation Learning with Masked Point Modeling

El artículo presenta PoLAr-MAE, un modelo de aprendizaje auto-supervisado basado en la predicción de energía de puntos enmascarados que logra una eficiencia de datos excepcional al entrenarse con solo 100 eventos etiquetados para obtener un rendimiento de segmentación semántica comparable al de los métodos supervisados entrenados con más de 100.000 eventos en imágenes de cámaras de proyección temporal de argón líquido (LArTPC).

Sam Young, Yeon-jae Jwa, Kazuhiro Terao2026-03-12⚛️ hep-ex

Graph machine learning for flight delay prediction due to holding manouver

Este estudio propone un enfoque de aprendizaje automático basado en grafos para predecir los retrasos de vuelos causados por maniobras de espera, demostrando que un modelo CatBoost enriquecido con características de red supera a las Redes de Atención Gráfica (GAT) en este conjunto de datos desequilibrado y ofrece una herramienta web para simulaciones operativas en tiempo real.

Jorge L. Franco, Manoel V. Machado Neto, Filipe A. N. Verri + 1 more2026-03-12🤖 cs.LG

Logarithmic Regret for Online KL-Regularized Reinforcement Learning

Este trabajo propone un algoritmo de aprendizaje por refuerzo en línea basado en el optimismo para contextos de banda contextual y RL regularizados por KL, demostrando teóricamente que explora el paisaje de optimización benigno de la regularización para lograr un límite de arrepentimiento logarítmico, superando así las limitaciones de análisis previos que dependían de supuestos de cobertura fuertes o se reducían al escenario de RL tradicional.

Heyang Zhao, Chenlu Ye, Wei Xiong + 2 more2026-03-12📊 stat