Evo: Autoregressive-Diffusion Large Language Models with Evolving Balance

El artículo presenta Evo, un modelo de lenguaje autoregresivo-difusivo que unifica ambos paradigmas en un flujo latente evolutivo para equilibrar dinámicamente la planificación y el refinamiento, logrando un rendimiento de vanguardia en diversas tareas manteniendo una alta velocidad de inferencia.

Junde Wu, Minhao Hu, Jiayuan Zhu, Yuyuan Liu, Tianyi Zhang, Kang Li, Jingkun Chen, Jiazhen Pan, Min Xu, Yueming Jin2026-03-10🤖 cs.LG

Distilling and Adapting: A Topology-Aware Framework for Zero-Shot Interaction Prediction in Multiplex Biological Networks

Este artículo presenta un marco novedoso para la predicción de interacciones en redes biológicas multiplex que, mediante el aprendizaje de representaciones conscientes del contexto, la destilación de conocimiento y el uso de modelos fundacionales, supera a los métodos actuales al lograr una generalización robusta en escenarios de cero disparos para entidades no vistas.

Alana Deng, Sugitha Janarthanan, Yan Sun, Zihao Jing, Pingzhao Hu2026-03-10🤖 cs.LG

Not all tokens are needed(NAT): token efficient reinforcement learning

El artículo presenta NAT, un marco unificado que optimiza el aprendizaje por refuerzo en modelos de lenguaje al actualizar la política utilizando solo un subconjunto de tokens mediante un estimador de gradiente no sesgado, logrando un rendimiento comparable al método completo con una reducción significativa en costos computacionales y uso de memoria.

Hejian Sang, Yuanda Xu, Zhengze Zhou, Ran He, Zhipeng Wang2026-03-10🤖 cs.LG

GraphSkill: Documentation-Guided Hierarchical Retrieval-Augmented Coding for Complex Graph Reasoning

El artículo presenta GraphSkill, un marco de codificación guiado por agentes que mejora el razonamiento sobre grafos complejos mediante una recuperación jerárquica de documentación técnica y un agente de autodepuración que utiliza casos de prueba generados automáticamente, todo ello respaldado por un nuevo dataset de evaluación.

Fali Wang, Chenglin Weng, Xianren Zhang, Siyuan Hong, Hui Liu, Suhang Wang2026-03-10🤖 cs.LG

HEARTS: Benchmarking LLM Reasoning on Health Time Series

El artículo presenta HEARTS, un nuevo benchmark unificado que evalúa las capacidades de razonamiento jerárquico de los modelos de lenguaje grandes (LLM) sobre series temporales de salud mediante 16 conjuntos de datos y 110 tareas, revelando que estos modelos actuales tienen un rendimiento limitado y dependen de heurísticas simples en comparación con los modelos especializados.

Sirui Li, Shuhan Xiao, Mihir Joshi, Ahmed Metwally, Daniel McDuff, Wei Wang, Yuzhe Yang2026-03-10🤖 cs.LG

Trust Aware Federated Learning for Secure Bone Healing Stage Interpretation in e-Health

Este artículo presenta un marco de aprendizaje federado consciente de la confianza que utiliza un mecanismo de puntuación adaptativa para filtrar contribuciones de participantes poco fiables en entornos de sensores médicos distribuidos, mejorando así la estabilidad del entrenamiento y la precisión en la interpretación de las etapas de curación ósea.

Paul Shepherd, Tasos Dagiuklas, Bugra Alkan, Joaquim Bastos, Jonathan Rodriguez2026-03-10🤖 cs.LG

Performance Comparison of IBN orchestration using LLM and SLMs

Este artículo presenta un marco novedoso para la orquestación de redes basadas en intenciones (IBN) en redes 5G y 6G que utiliza una arquitectura multiagente jerárquica con modelos de lenguaje pequeños (SLM) y grandes (LLM), demostrando que, aunque ambos ofrecen una precisión de traducción similar, los SLM mejoran la velocidad de finalización del ciclo de vida de la IBN en un 20%.

Wai Lwin Phone, Brahim El Boudani, Tasos Dagiuklas, Saptarshi Ghosh2026-03-10💻 cs

HURRI-GAN: A Novel Approach for Hurricane Bias-Correction Beyond Gauge Stations using Generative Adversarial Networks

El artículo presenta HURRI-GAN, un enfoque innovador basado en redes generativas adversarias que corrige los sesgos de los modelos físicos de simulación de huracanes más allá de las estaciones de medición, permitiendo predicciones precisas en tiempo real con menor costo computacional.

Noujoud Nadera, Hadi Majed, Stefanos Giaremis, Rola El Osta, Clint Dawson, Carola Kaiser, Hartmut Kaiser2026-03-10🤖 cs.LG

Geodesic Gradient Descent: A Generic and Learning-rate-free Optimizer on Objective Function-induced Manifolds

Este artículo presenta el descenso de gradiente geodésico (GGD), un optimizador genérico y libre de tasa de aprendizaje que aproxima la geometría local de la función objetivo mediante esferas n-dimensionales para mantener las trayectorias de actualización en la hipersuperficie, logrando reducciones significativas en el error de prueba en comparación con algoritmos clásicos como Adam.

Liwei Hu, Guangyao Li, Wenyong Wang, Xiaoming Zhang, Yu Xiang2026-03-10🤖 cs.LG

PaLMR: Towards Faithful Visual Reasoning via Multimodal Process Alignment

El marco PaLMR mejora la fiabilidad del razonamiento visual en modelos multimodales alineando tanto el resultado como el proceso de razonamiento mediante una capa de datos perceptiva y un esquema de recompensa jerárquico, logrando así reducir las alucinaciones y alcanzar resultados de vanguardia en benchmarks especializados.

Yantao Li, Qiang Hui, Chenyang Yan, Kanzhi Cheng, Fang Zhao, Chao Tan, Huanling Gao, Jianbing Zhang, Kai Wang, Xinyu Dai, Shiguo Lian2026-03-10💻 cs