Spatial-TTT: Streaming Visual-based Spatial Intelligence with Test-Time Training

El artículo presenta Spatial-TTT, un marco de inteligencia espacial basado en video que utiliza entrenamiento en tiempo de prueba (TTT) y una arquitectura híbrida con mecanismos predictivos espaciales para mantener y actualizar eficientemente la evidencia espacial a partir de flujos de video ilimitados, logrando un rendimiento superior en benchmarks de comprensión espacial a largo plazo.

Fangfu Liu, Diankun Wu, Jiawei Chi, Yimo Cai, Yi-Hsin Hung, Xumin Yu, Hao Li, Han Hu, Yongming Rao, Yueqi Duan2026-03-13🤖 cs.LG

The Latent Color Subspace: Emergent Order in High-Dimensional Chaos

Este artículo presenta un método libre de entrenamiento para el modelo FLUX.1 que descubre y explota un subespacio latente de color estructurado (Hue, Saturation, Lightness) en su espacio de representación VAE, permitiendo la predicción y el control preciso de los colores en imágenes generadas mediante manipulación matemática directa.

Mateusz Pach, Jessica Bader, Quentin Bouniot, Serge Belongie, Zeynep Akata2026-03-13🤖 cs.LG

Efficient Bayesian Updates for Deep Active Learning via Laplace Approximations

Este artículo propone un método de aprendizaje activo profundo eficiente que sustituye el costoso reentrenamiento de redes neuronales por una actualización bayesiana basada en la aproximación de Laplace, permitiendo la selección de lotes diversos mediante construcción secuencial y estrategias de anticipación con una complejidad computacional significativamente menor.

Denis Huseljic, Marek Herde, Lukas Rauch, Paul Hahn, Zhixin Huang, Daniel Kottke, Stephan Vogt, Bernhard Sick2026-03-12🤖 cs.LG

An Updated Assessment of Reinforcement Learning for Macro Placement

Este estudio presenta una evaluación actualizada del enfoque de aprendizaje por refuerzo profundo de Google Brain para la colocación de macros, introduciendo nuevos benchmarks en tecnología sub-10nm, una línea base mejorada de recocido simulado y un análisis exhaustivo que revela desafíos pendientes en la escalabilidad y reproducibilidad de la metodología.

Chung-Kuan Cheng, Andrew B. Kahng, Sayak Kundu, Yucheng Wang, Zhiang Wang2026-03-12🤖 cs.LG

Mindstorms in Natural Language-Based Societies of Mind

Este trabajo presenta las Sociedades de Mente Basadas en Lenguaje Natural (NLSOMs), un marco inspirado en las teorías de Minsky y Schmidhuber donde múltiples agentes de redes neuronales colaboran mediante lenguaje natural para resolver tareas complejas de IA multimodal, al tiempo que explora las implicaciones sociales y económicas de escalar estos sistemas hacia sociedades de miles de millones de agentes.

Mingchen Zhuge, Haozhe Liu, Francesco Faccio, Dylan R. Ashley, Róbert Csordás, Anand Gopalakrishnan, Abdullah Hamdi, Hasan Abed Al Kader Hammoud, Vincent Herrmann, Kazuki Irie, Louis Kirsch, Bing Li, Guohao Li, Shuming Liu, Jinjie Mai, Piotr Pi\k{e}kos, Aditya Ramesh, Imanol Schlag, Weimin Shi, Aleksandar Stanic, Wenyi Wang, Yuhui Wang, Mengmeng Xu, Deng-Ping Fan, Bernard Ghanem, Jürgen Schmidhuber2026-03-12💬 cs.CL

Large Language Models for Travel Behavior Prediction

Este estudio demuestra que los modelos de lenguaje grandes (LLM) pueden predecir el comportamiento de viaje con una eficacia comparable a los modelos tradicionales, ya sea mediante estrategias de prompting sin entrenamiento o utilizando sus representaciones textuales para mejorar el aprendizaje supervisado en escenarios con pocos datos.

Baichuan Mo, Hanyong Xu, Ruoyun Ma, Jung-Hoon Cho, Dingyi Zhuang, Xiaotong Guo, Jinhua Zhao2026-03-12💬 cs.CL

Communication-Efficient Multimodal Federated Learning: Joint Modality and Client Selection

El artículo presenta MFedMC, un marco de aprendizaje federado multimodal eficiente en comunicación que aborda la heterogeneidad de los clientes y las limitaciones de ancho de banda mediante una arquitectura desacoplada y un algoritmo de selección conjunta de modalidades y clientes, logrando una reducción de la sobrecarga de comunicación superior a 20 veces sin sacrificar la precisión.

Liangqi Yuan, Dong-Jun Han, Su Wang, Devesh Upadhyay, Christopher G. Brinton2026-03-12🤖 cs.LG

Explainable machine learning for predicting shellfish toxicity in the Adriatic Sea using long-term monitoring data of HABs

Este estudio aplica técnicas de aprendizaje automático explicables a un conjunto de datos de 28 años en el Golfo de Trieste para predecir con precisión la toxicidad de los mejillones causada por floraciones de algas nocivas, identificando especies clave de dinoflagelados y factores ambientales como predictores fundamentales para mejorar los sistemas de alerta temprana.

Martin Marzidovšek, Janja Francé, Vid Podpečan + 3 more2026-03-12🤖 cs.AI

Mamba Neural Operator: Who Wins? Transformers vs. State-Space Models for PDEs

Este artículo presenta el Operador Neuronal Mamba (MNO), un nuevo marco teórico que supera a los Transformers en la resolución de ecuaciones diferenciales parciales al integrar modelos de espacio de estado estructurados para capturar con mayor eficacia las dinámicas continuas y las dependencias de largo alcance.

Chun-Wun Cheng, Jiahao Huang, Yi Zhang, Guang Yang, Carola-Bibiane Schönlieb, Angelica I. Aviles-Rivero2026-03-12🤖 cs.LG

Losing dimensions: Geometric memorization in generative diffusion

El artículo propone una teoría de memorización geométrica que demuestra cómo los modelos de difusión experimentan un colapso suave en su capacidad de variación a medida que los datos escasean, condensándose gradualmente en configuraciones de baja energía que replican ejemplos específicos antes de alcanzar una copia exacta.

Beatrice Achilli, Enrico Ventura, Gianluigi Silvestri, Bao Pham, Gabriel Raya, Dmitry Krotov, Carlo Lucibello, Luca Ambrogioni2026-03-12📊 stat