FlexRec: Adapting LLM-based Recommenders for Flexible Needs via Reinforcement Learning

El artículo presenta FlexRec, un marco de aprendizaje por refuerzo post-entrenamiento para sistemas de recomendación basados en LLM que supera los desafíos de asignación de crédito y retroalimentación escasa mediante recompensas a nivel de ítem fundamentadas en causalidad y escalado guiado por incertidumbre, logrando mejoras significativas en la adaptación a necesidades específicas y en escenarios de generalización.

Yijun Pan, Weikang Qiu, Qiyao Ma, Mingxuan Ju, Tong Zhao, Neil Shah, Rex Ying2026-03-13🤖 cs.LG

Causal Representation Learning with Optimal Compression under Complex Treatments

Este artículo propone un nuevo límite de generalización y un estimador teórico para pesos de balanceo óptimos en escenarios de múltiples tratamientos, introduciendo la estrategia de Agregación de Tratamientos y el modelo generativo Multi-Treatment CausalEGM para lograr una precisión superior y una escalabilidad constante que supera a los modelos tradicionales.

Wanting Liang, Haoang Chi, Zhiheng Zhang2026-03-13📊 stat

MobileKernelBench: Can LLMs Write Efficient Kernels for Mobile Devices?

El artículo presenta MobileKernelBench, un marco de evaluación que revela las limitaciones actuales de los LLMs para generar kernels eficientes en dispositivos móviles, y propone MoKA, un agente multiagente que supera estos desafíos logrando una tasa de compilación del 93,7% y mejoras de velocidad significativas.

Xingze Zou, Jing Wang, Yuhua Zheng, Xueyi Chen, Haolei Bai, Lingcheng Kong, Syed A. R. Abu-Bakar, Zhaode Wang, Chengfei Lv, Haoji Hu, Huan Wang2026-03-13🤖 cs.LG

Exhaustive Circuit Mapping of a Single-Cell Foundation Model Reveals Massive Redundancy, Heavy-Tailed Hub Architecture, and Layer-Dependent Differentiation Control

Este estudio presenta un mapeo exhaustivo del modelo fundacional de células individuales Geneformer que revela una arquitectura de red masivamente redundante y dominada por hubs no anotados, confirma una redundancia subaditiva en ablations combinatorias y establece causalmente que la posición de la capa determina la dirección de la diferenciación celular.

Ihor Kendiukhov2026-03-13🤖 cs.LG

Effective Resistance Rewiring: A Simple Topological Correction for Over-Squashing

El artículo presenta la Reconfiguración de Resistencia Efectiva (ERR), una estrategia de corrección topológica que utiliza la resistencia efectiva global para identificar y mitigar los cuellos de botella estructurales que causan el "sobre-aplastamiento" en las Redes Neuronales de Grafos, mejorando la propagación de información a larga distancia mientras gestiona el equilibrio entre la conectividad y el sobre-suavizado mediante técnicas de normalización.

Bertran Miquel-Oliver, Manel Gil-Sorribes, Victor Guallar, Alexis Molina2026-03-13🤖 cs.LG

Learning Transferable Sensor Models via Language-Informed Pretraining

El artículo presenta SLIP, un marco de preentrenamiento de código abierto que alinea representaciones de sensores con el lenguaje mediante un embebido de parches flexible y un modelo de lenguaje preentrenado, logrando un rendimiento superior en transferencia cero, descripción de señales y preguntas sobre sensores a través de configuraciones y resoluciones temporales diversas.

Yuliang Chen, Arvind Pillai, Yu Yvonne Wu, Tess Z. Griffin, Lisa Marsch, Michael V. Heinz, Nicholas C. Jacobson, Andrew Campbell2026-03-13🤖 cs.AI

Uncovering Locally Low-dimensional Structure in Networks by Locally Optimal Spectral Embedding

Este artículo presenta la Incrustación Espectral Adyacente Local (LASE), un método que descubre estructuras de baja dimensión local en redes mediante una descomposición espectral ponderada, superando las limitaciones de los enfoques globales al reducir el error de truncamiento y mejorar la reconstrucción y visualización de características locales.

Hannah Sansford, Nick Whiteley, Patrick Rubin-Delanchy2026-03-13📊 stat

Statistical and structural identifiability in representation learning

Este artículo formaliza la estabilidad de los modelos de aprendizaje de representaciones mediante las nociones de identificabilidad estadística y estructural, demostrando que el análisis de componentes independientes (ICA) aplicado a representaciones latentes permite lograr un desentrelazamiento efectivo y mejorar la generalización en tareas biológicas y sintéticas.

Walter Nelson, Marco Fumero, Theofanis Karaletsos, Francesco Locatello2026-03-13🤖 cs.LG

On-Average Stability of Multipass Preconditioned SGD and Effective Dimension

Este artículo establece un marco de estabilidad algorítmica promedio para el descenso de gradiente estocástico precondicionado multipaso, demostrando cómo la elección del precondicionador afecta la dimensión efectiva y el riesgo de generalización, y proporcionando límites superiores e inferiores coincidentes que vinculan la curvatura del riesgo poblacional con la geometría del ruido.

Simon Vary, Tyler Farghly, Ilja Kuzborskij, Patrick Rebeschini2026-03-13📊 stat

BTZSC: A Benchmark for Zero-Shot Text Classification Across Cross-Encoders, Embedding Models, Rerankers and LLMs

Este artículo presenta BTZSC, un benchmark integral de 22 conjuntos de datos que evalúa y compara sistemáticamente el rendimiento de cuatro familias de modelos (codificadores cruzados, modelos de incrustación, rerankers y LLMs) en clasificación de texto zero-shot, revelando que los rerankers modernos establecen un nuevo estado del arte mientras que los modelos de incrustación ofrecen el mejor equilibrio entre precisión y latencia.

Ilias Aarab2026-03-13💬 cs.CL

Few-for-Many Personalized Federated Learning

El artículo presenta FedFew, un algoritmo de aprendizaje federado personalizado que reformula el problema como una optimización "pocos para muchos" utilizando solo KK modelos compartidos en el servidor para servir eficientemente a MM clientes con datos heterogéneos, logrando un rendimiento superior al estado del arte sin necesidad de particionamiento manual o ajuste exhaustivo de hiperparámetros.

Ping Guo, Tiantian Zhang, Xi Lin, Xiang Li, Zhi-Ri Tang, Qingfu Zhang2026-03-13🤖 cs.AI

Decentralized Orchestration Architecture for Fluid Computing: A Secure Distributed AI Use Case

Este artículo propone una arquitectura de orquestación descentralizada para la computación fluida que habilita la coordinación multi-dominio autónoma y mejora la seguridad en escenarios de Aprendizaje Federado Descentralizado mediante un mecanismo de detección de anomalías llamado FU-HST.

Diego Cajaraville-Aboy, Ana Fernández-Vilas, Rebeca P. Díaz-Redondo, Manuel Fernández-Veiga, Pablo Picallo-López2026-03-13🤖 cs.LG