Few-for-Many Personalized Federated Learning

El artículo presenta FedFew, un algoritmo de aprendizaje federado personalizado que reformula el problema como una optimización "pocos para muchos" utilizando solo KK modelos compartidos en el servidor para servir eficientemente a MM clientes con datos heterogéneos, logrando un rendimiento superior al estado del arte sin necesidad de particionamiento manual o ajuste exhaustivo de hiperparámetros.

Ping Guo, Tiantian Zhang, Xi Lin, Xiang Li, Zhi-Ri Tang, Qingfu Zhang2026-03-13🤖 cs.AI

Decentralized Orchestration Architecture for Fluid Computing: A Secure Distributed AI Use Case

Este artículo propone una arquitectura de orquestación descentralizada para la computación fluida que habilita la coordinación multi-dominio autónoma y mejora la seguridad en escenarios de Aprendizaje Federado Descentralizado mediante un mecanismo de detección de anomalías llamado FU-HST.

Diego Cajaraville-Aboy, Ana Fernández-Vilas, Rebeca P. Díaz-Redondo, Manuel Fernández-Veiga, Pablo Picallo-López2026-03-13🤖 cs.LG

Efficient Generative Modeling with Unitary Matrix Product States Using Riemannian Optimization

Este artículo presenta un enfoque de optimización riemanniana para entrenar estados de producto de matriz unitarios (MPS) en tareas de modelado generativo, logrando una adaptación rápida, actualizaciones estables y un alto rendimiento en conjuntos de datos como Bars-and-Stripes y EMNIST al resolver las ineficiencias de los métodos basados en gradientes estándar.

Haotong Duan, Zhongming Chen, Ngai Wong2026-03-13🤖 cs.LG

AGMARL-DKS: An Adaptive Graph-Enhanced Multi-Agent Reinforcement Learning for Dynamic Kubernetes Scheduling

El artículo presenta AGMARL-DKS, un planificador de Kubernetes impulsado por aprendizaje por refuerzo multiagente que utiliza redes neuronales gráficas y un ordenamiento lexicográfico sensible al estrés para superar las limitaciones de escalabilidad y adaptabilidad de los enfoques existentes, logrando mejoras significativas en tolerancia a fallos, utilización de recursos y costos.

Hamed Hamzeh2026-03-13🤖 cs.LG

Frequentist Consistency of Prior-Data Fitted Networks for Causal Inference

Este trabajo demuestra que los estimadores de redes ajustadas a datos previos (PFN) para el efecto causal medio pueden sufrir sesgos inducidos por el prior que impiden la consistencia frecuentista, y propone un método de corrección posterior de un paso basado en martingalas que restaura dicha consistencia y garantiza una cuantificación de incertidumbre bien calibrada tanto en muestras finitas como asintóticas.

Valentyn Melnychuk, Vahid Balazadeh, Stefan Feuerriegel, Rahul G. Krishnan2026-03-13🤖 cs.LG

Slow-Fast Inference: Training-Free Inference Acceleration via Within-Sentence Support Stability

El artículo presenta "Slow-Fast Inference", un marco de inferencia sin entrenamiento que acelera la decodificación autoregresiva en contextos largos al decoupar la generación en pasos rápidos que reutilizan una memoria esparsa y pasos lentos que actualizan dicha memoria en límites semánticos, logrando un aumento significativo en el rendimiento sin comprometer la calidad.

Xingyu Xie, Zhaochen Yu, Yue Liao, Tao Wang, Kim-Chuan Toh, Shuicheng Yan2026-03-13🤖 cs.LG

Chemical Reaction Networks Learn Better than Spiking Neural Networks

Este artículo demuestra matemáticamente y mediante experimentos numéricos que las redes de reacciones químicas sin capas ocultas pueden aprender tareas de clasificación más eficiente y con mayor precisión que las redes neuronales de spiking que requieren capas ocultas, ofreciendo una explicación teórica sobre la posible superioridad del aprendizaje en redes bioquímicas celulares frente a las neuronales.

Sophie Jaffard, Ivo F. Sbalzarini2026-03-13📊 stat

A Multi-Label Temporal Convolutional Framework for Transcription Factor Binding Characterization

Este artículo presenta un marco de aprendizaje profundo basado en redes convolucionales temporales que aborda la predicción de sitios de unión de factores de transcripción como un problema de clasificación multietiqueta, logrando capturar correlaciones y mecanismos cooperativos entre múltiples factores para revelar patrones de unión biológicamente significativos y nuevas relaciones.

Pietro Demurtas, Ferdinando Zanchetta, Giovanni Perini, Rita Fioresi2026-03-13🧬 q-bio

Resource-Efficient Iterative LLM-Based NAS with Feedback Memory

Este trabajo propone un pipeline de búsqueda de arquitecturas neuronales (NAS) eficiente en recursos que utiliza modelos de lenguaje grandes (LLM) en un bucle cerrado con memoria de retroalimentación histórica para iterativamente generar y refinar arquitecturas de redes convolucionales en una sola GPU de consumo, logrando mejoras significativas en precisión sin necesidad de fine-tuning ni infraestructura en la nube.

Xiaojie Gu, Dmitry Ignatov, Radu Timofte2026-03-13🤖 cs.LG

Cornserve: A Distributed Serving System for Any-to-Any Multimodal Models

Cornserve es un sistema de servicio distribuido de código abierto diseñado para modelos multimodales "de cualquier a cualquier" que, mediante la desagregación de componentes y un modelo de ejecución eficiente, logra aumentar el rendimiento y reducir la latencia en comparación con las soluciones existentes.

Jae-Won Chung, Jeff J. Ma, Jisang Ahn, Yizhuo Liang, Akshay Jajoo, Myungjin Lee, Mosharaf Chowdhury2026-03-13🤖 cs.LG

IsoCompute Playbook: Optimally Scaling Sampling Compute for LLM RL

Este artículo presenta el "IsoCompute Playbook", un marco que optimiza la asignación de recursos computacionales para el aprendizaje por refuerzo de modelos de lenguaje grandes, demostrando que aumentar el número de rodajes paralelos por problema mejora la eficiencia de manera predecible y adaptándose a la dificultad del problema.

Zhoujun Cheng, Yutao Xie, Yuxiao Qu, Amrith Setlur, Shibo Hao, Varad Pimpalkhute, Tongtong Liang, Feng Yao, Zhengzhong Liu, Eric Xing, Virginia Smith, Ruslan Salakhutdinov, Zhiting Hu, Taylor Killian, Aviral Kumar2026-03-13🤖 cs.LG