Learning Transferable Sensor Models via Language-Informed Pretraining

El artículo presenta SLIP, un marco de preentrenamiento de código abierto que alinea representaciones de sensores con el lenguaje mediante un embebido de parches flexible y un modelo de lenguaje preentrenado, logrando un rendimiento superior en transferencia cero, descripción de señales y preguntas sobre sensores a través de configuraciones y resoluciones temporales diversas.

Yuliang Chen, Arvind Pillai, Yu Yvonne Wu, Tess Z. Griffin, Lisa Marsch, Michael V. Heinz, Nicholas C. Jacobson, Andrew Campbell2026-03-13🤖 cs.AI

Uncovering Locally Low-dimensional Structure in Networks by Locally Optimal Spectral Embedding

Este artículo presenta la Incrustación Espectral Adyacente Local (LASE), un método que descubre estructuras de baja dimensión local en redes mediante una descomposición espectral ponderada, superando las limitaciones de los enfoques globales al reducir el error de truncamiento y mejorar la reconstrucción y visualización de características locales.

Hannah Sansford, Nick Whiteley, Patrick Rubin-Delanchy2026-03-13📊 stat

Statistical and structural identifiability in representation learning

Este artículo formaliza la estabilidad de los modelos de aprendizaje de representaciones mediante las nociones de identificabilidad estadística y estructural, demostrando que el análisis de componentes independientes (ICA) aplicado a representaciones latentes permite lograr un desentrelazamiento efectivo y mejorar la generalización en tareas biológicas y sintéticas.

Walter Nelson, Marco Fumero, Theofanis Karaletsos, Francesco Locatello2026-03-13🤖 cs.LG

On-Average Stability of Multipass Preconditioned SGD and Effective Dimension

Este artículo establece un marco de estabilidad algorítmica promedio para el descenso de gradiente estocástico precondicionado multipaso, demostrando cómo la elección del precondicionador afecta la dimensión efectiva y el riesgo de generalización, y proporcionando límites superiores e inferiores coincidentes que vinculan la curvatura del riesgo poblacional con la geometría del ruido.

Simon Vary, Tyler Farghly, Ilja Kuzborskij, Patrick Rebeschini2026-03-13📊 stat

BTZSC: A Benchmark for Zero-Shot Text Classification Across Cross-Encoders, Embedding Models, Rerankers and LLMs

Este artículo presenta BTZSC, un benchmark integral de 22 conjuntos de datos que evalúa y compara sistemáticamente el rendimiento de cuatro familias de modelos (codificadores cruzados, modelos de incrustación, rerankers y LLMs) en clasificación de texto zero-shot, revelando que los rerankers modernos establecen un nuevo estado del arte mientras que los modelos de incrustación ofrecen el mejor equilibrio entre precisión y latencia.

Ilias Aarab2026-03-13💬 cs.CL

Few-for-Many Personalized Federated Learning

El artículo presenta FedFew, un algoritmo de aprendizaje federado personalizado que reformula el problema como una optimización "pocos para muchos" utilizando solo KK modelos compartidos en el servidor para servir eficientemente a MM clientes con datos heterogéneos, logrando un rendimiento superior al estado del arte sin necesidad de particionamiento manual o ajuste exhaustivo de hiperparámetros.

Ping Guo, Tiantian Zhang, Xi Lin, Xiang Li, Zhi-Ri Tang, Qingfu Zhang2026-03-13🤖 cs.AI

Decentralized Orchestration Architecture for Fluid Computing: A Secure Distributed AI Use Case

Este artículo propone una arquitectura de orquestación descentralizada para la computación fluida que habilita la coordinación multi-dominio autónoma y mejora la seguridad en escenarios de Aprendizaje Federado Descentralizado mediante un mecanismo de detección de anomalías llamado FU-HST.

Diego Cajaraville-Aboy, Ana Fernández-Vilas, Rebeca P. Díaz-Redondo, Manuel Fernández-Veiga, Pablo Picallo-López2026-03-13🤖 cs.LG

Efficient Generative Modeling with Unitary Matrix Product States Using Riemannian Optimization

Este artículo presenta un enfoque de optimización riemanniana para entrenar estados de producto de matriz unitarios (MPS) en tareas de modelado generativo, logrando una adaptación rápida, actualizaciones estables y un alto rendimiento en conjuntos de datos como Bars-and-Stripes y EMNIST al resolver las ineficiencias de los métodos basados en gradientes estándar.

Haotong Duan, Zhongming Chen, Ngai Wong2026-03-13🤖 cs.LG

AGMARL-DKS: An Adaptive Graph-Enhanced Multi-Agent Reinforcement Learning for Dynamic Kubernetes Scheduling

El artículo presenta AGMARL-DKS, un planificador de Kubernetes impulsado por aprendizaje por refuerzo multiagente que utiliza redes neuronales gráficas y un ordenamiento lexicográfico sensible al estrés para superar las limitaciones de escalabilidad y adaptabilidad de los enfoques existentes, logrando mejoras significativas en tolerancia a fallos, utilización de recursos y costos.

Hamed Hamzeh2026-03-13🤖 cs.LG

Frequentist Consistency of Prior-Data Fitted Networks for Causal Inference

Este trabajo demuestra que los estimadores de redes ajustadas a datos previos (PFN) para el efecto causal medio pueden sufrir sesgos inducidos por el prior que impiden la consistencia frecuentista, y propone un método de corrección posterior de un paso basado en martingalas que restaura dicha consistencia y garantiza una cuantificación de incertidumbre bien calibrada tanto en muestras finitas como asintóticas.

Valentyn Melnychuk, Vahid Balazadeh, Stefan Feuerriegel, Rahul G. Krishnan2026-03-13🤖 cs.LG

Slow-Fast Inference: Training-Free Inference Acceleration via Within-Sentence Support Stability

El artículo presenta "Slow-Fast Inference", un marco de inferencia sin entrenamiento que acelera la decodificación autoregresiva en contextos largos al decoupar la generación en pasos rápidos que reutilizan una memoria esparsa y pasos lentos que actualizan dicha memoria en límites semánticos, logrando un aumento significativo en el rendimiento sin comprometer la calidad.

Xingyu Xie, Zhaochen Yu, Yue Liao, Tao Wang, Kim-Chuan Toh, Shuicheng Yan2026-03-13🤖 cs.LG

Chemical Reaction Networks Learn Better than Spiking Neural Networks

Este artículo demuestra matemáticamente y mediante experimentos numéricos que las redes de reacciones químicas sin capas ocultas pueden aprender tareas de clasificación más eficiente y con mayor precisión que las redes neuronales de spiking que requieren capas ocultas, ofreciendo una explicación teórica sobre la posible superioridad del aprendizaje en redes bioquímicas celulares frente a las neuronales.

Sophie Jaffard, Ivo F. Sbalzarini2026-03-13📊 stat

A Multi-Label Temporal Convolutional Framework for Transcription Factor Binding Characterization

Este artículo presenta un marco de aprendizaje profundo basado en redes convolucionales temporales que aborda la predicción de sitios de unión de factores de transcripción como un problema de clasificación multietiqueta, logrando capturar correlaciones y mecanismos cooperativos entre múltiples factores para revelar patrones de unión biológicamente significativos y nuevas relaciones.

Pietro Demurtas, Ferdinando Zanchetta, Giovanni Perini, Rita Fioresi2026-03-13🧬 q-bio

Resource-Efficient Iterative LLM-Based NAS with Feedback Memory

Este trabajo propone un pipeline de búsqueda de arquitecturas neuronales (NAS) eficiente en recursos que utiliza modelos de lenguaje grandes (LLM) en un bucle cerrado con memoria de retroalimentación histórica para iterativamente generar y refinar arquitecturas de redes convolucionales en una sola GPU de consumo, logrando mejoras significativas en precisión sin necesidad de fine-tuning ni infraestructura en la nube.

Xiaojie Gu, Dmitry Ignatov, Radu Timofte2026-03-13🤖 cs.LG