Security Considerations for Artificial Intelligence Agents

Este artículo, basado en la experiencia de Perplexity con sistemas de agentes de IA, analiza las nuevas vulnerabilidades de seguridad introducidas por estas arquitecturas, mapea sus superficies de ataque y propone un enfoque de defensa en capas junto con brechas de investigación para alinear el diseño de sistemas multiagente con los principios de gestión de riesgos del NIST.

Ninghui Li, Kaiyuan Zhang, Kyle Polley, Jerry Ma2026-03-13🤖 cs.LG

Separable neural architectures as a primitive for unified predictive and generative intelligence

El artículo presenta las arquitecturas neuronales separables (SNA) como un primitivo unificado para la inteligencia predictiva y generativa que, al imponer sesgos inductivos estructurales para factorizar mapeos de alta dimensión, permite modelar eficazmente sistemas caóticos y secuencias discretas en dominios diversos como la navegación autónoma, la generación de microestructuras, la dinámica de fluidos y el procesamiento del lenguaje.

Reza T. Batley, Apurba Sarker, Rajib Mostakim, Andrew Klichine, Sourav Saha2026-03-13🤖 cs.LG

Examining Reasoning LLMs-as-Judges in Non-Verifiable LLM Post-Training

Este estudio demuestra que, aunque los jueces de modelos de lenguaje con capacidades de razonamiento evitan el "reward hacking" y permiten entrenar políticas alineadas con un estándar de oro, estas políticas logran dicho rendimiento aprendiendo a generar salidas adversarias que engañan a otros jueces en evaluaciones estándar.

Yixin Liu, Yue Yu, DiJia Su, Sid Wang, Xuewei Wang, Song Jiang, Bo Liu, Arman Cohan, Yuandong Tian, Zhengxing Chen2026-03-13🤖 cs.AI

Matching Features, Not Tokens: Energy-Based Fine-Tuning of Language Models

El artículo presenta la afinación basada en energía (EBFT), un nuevo enfoque que optimiza las estadísticas a nivel de secuencia mediante la coincidencia de características en lugar de tokens, logrando una mayor precisión y menor entropía cruzada en tareas de codificación y traducción en comparación con los métodos tradicionales de ajuste fino y aprendizaje por refuerzo.

Samy Jelassi, Mujin Kwun, Rosie Zhao, Yuanzhi Li, Nicolo Fusi, Yilun Du, Sham M. Kakade, Carles Domingo-Enrich2026-03-13🤖 cs.LG

Spatial-TTT: Streaming Visual-based Spatial Intelligence with Test-Time Training

El artículo presenta Spatial-TTT, un marco de inteligencia espacial basado en video que utiliza entrenamiento en tiempo de prueba (TTT) y una arquitectura híbrida con mecanismos predictivos espaciales para mantener y actualizar eficientemente la evidencia espacial a partir de flujos de video ilimitados, logrando un rendimiento superior en benchmarks de comprensión espacial a largo plazo.

Fangfu Liu, Diankun Wu, Jiawei Chi, Yimo Cai, Yi-Hsin Hung, Xumin Yu, Hao Li, Han Hu, Yongming Rao, Yueqi Duan2026-03-13🤖 cs.LG

The Latent Color Subspace: Emergent Order in High-Dimensional Chaos

Este artículo presenta un método libre de entrenamiento para el modelo FLUX.1 que descubre y explota un subespacio latente de color estructurado (Hue, Saturation, Lightness) en su espacio de representación VAE, permitiendo la predicción y el control preciso de los colores en imágenes generadas mediante manipulación matemática directa.

Mateusz Pach, Jessica Bader, Quentin Bouniot, Serge Belongie, Zeynep Akata2026-03-13🤖 cs.LG

Efficient Bayesian Updates for Deep Active Learning via Laplace Approximations

Este artículo propone un método de aprendizaje activo profundo eficiente que sustituye el costoso reentrenamiento de redes neuronales por una actualización bayesiana basada en la aproximación de Laplace, permitiendo la selección de lotes diversos mediante construcción secuencial y estrategias de anticipación con una complejidad computacional significativamente menor.

Denis Huseljic, Marek Herde, Lukas Rauch, Paul Hahn, Zhixin Huang, Daniel Kottke, Stephan Vogt, Bernhard Sick2026-03-12🤖 cs.LG

An Updated Assessment of Reinforcement Learning for Macro Placement

Este estudio presenta una evaluación actualizada del enfoque de aprendizaje por refuerzo profundo de Google Brain para la colocación de macros, introduciendo nuevos benchmarks en tecnología sub-10nm, una línea base mejorada de recocido simulado y un análisis exhaustivo que revela desafíos pendientes en la escalabilidad y reproducibilidad de la metodología.

Chung-Kuan Cheng, Andrew B. Kahng, Sayak Kundu, Yucheng Wang, Zhiang Wang2026-03-12🤖 cs.LG

Mindstorms in Natural Language-Based Societies of Mind

Este trabajo presenta las Sociedades de Mente Basadas en Lenguaje Natural (NLSOMs), un marco inspirado en las teorías de Minsky y Schmidhuber donde múltiples agentes de redes neuronales colaboran mediante lenguaje natural para resolver tareas complejas de IA multimodal, al tiempo que explora las implicaciones sociales y económicas de escalar estos sistemas hacia sociedades de miles de millones de agentes.

Mingchen Zhuge, Haozhe Liu, Francesco Faccio, Dylan R. Ashley, Róbert Csordás, Anand Gopalakrishnan, Abdullah Hamdi, Hasan Abed Al Kader Hammoud, Vincent Herrmann, Kazuki Irie, Louis Kirsch, Bing Li, Guohao Li, Shuming Liu, Jinjie Mai, Piotr Pi\k{e}kos, Aditya Ramesh, Imanol Schlag, Weimin Shi, Aleksandar Stanic, Wenyi Wang, Yuhui Wang, Mengmeng Xu, Deng-Ping Fan, Bernard Ghanem, Jürgen Schmidhuber2026-03-12💬 cs.CL

Large Language Models for Travel Behavior Prediction

Este estudio demuestra que los modelos de lenguaje grandes (LLM) pueden predecir el comportamiento de viaje con una eficacia comparable a los modelos tradicionales, ya sea mediante estrategias de prompting sin entrenamiento o utilizando sus representaciones textuales para mejorar el aprendizaje supervisado en escenarios con pocos datos.

Baichuan Mo, Hanyong Xu, Ruoyun Ma, Jung-Hoon Cho, Dingyi Zhuang, Xiaotong Guo, Jinhua Zhao2026-03-12💬 cs.CL

Communication-Efficient Multimodal Federated Learning: Joint Modality and Client Selection

El artículo presenta MFedMC, un marco de aprendizaje federado multimodal eficiente en comunicación que aborda la heterogeneidad de los clientes y las limitaciones de ancho de banda mediante una arquitectura desacoplada y un algoritmo de selección conjunta de modalidades y clientes, logrando una reducción de la sobrecarga de comunicación superior a 20 veces sin sacrificar la precisión.

Liangqi Yuan, Dong-Jun Han, Su Wang, Devesh Upadhyay, Christopher G. Brinton2026-03-12🤖 cs.LG