HeartAgent: An Autonomous Agent System for Explainable Differential Diagnosis in Cardiology

El artículo presenta HeartAgent, un sistema autónomo especializado en cardiología que mejora significativamente la precisión y la calidad explicativa del diagnóstico diferencial al integrar herramientas personalizadas, múltiples subagentes y razonamiento transparente, superando tanto a métodos existentes como al rendimiento de expertos no asistidos.

Shuang Zhou, Kai Yu, Song Wang, Wenya Xie, Zaifu Zhan, Meng-Han Tsai, Yuen-Hei Chung, Shutong Hou, Huixue Zhou, Min Zeng, Bhavadharini Ramu, Lin Yee Chen, Feng Xie, Rui Zhang2026-03-12💬 cs.CL

mAceReason-Math: A Dataset of High-Quality Multilingual Math Problems Ready For RLVR

El artículo presenta mAceReason-Math, un conjunto de datos multilingüe de alta calidad con más de 10.000 problemas matemáticos desafiantes en 14 idiomas, diseñado específicamente para impulsar la investigación y el aprendizaje por refuerzo con recompensas verificables (RLVR) en modelos de lenguaje más allá del ámbito anglosajón.

Konstantin Dobler, Simon Lehnerer, Federico Scozzafava, Jonathan Janke, Mohamed Ali2026-03-12💬 cs.CL

Word Recovery in Large Language Models Enables Character-Level Tokenization Robustness

Este artículo demuestra mediante interpretabilidad mecánica que la robustez de los modelos de lenguaje ante la tokenización a nivel de caracteres se debe a un proceso de "recuperación de palabras", donde las representaciones internas reconstruyen las identidades de los tokens canónicos mediante mecanismos de atención específicos entre caracteres.

Zhipeng Yang, Shu Yang, Lijie Hu, Di Wang2026-03-12💬 cs.CL

Interpretable Chinese Metaphor Identification via LLM-Assisted MIPVU Rule Script Generation: A Comparative Protocol Study

Este estudio presenta un pipeline asistido por LLM que transforma cuatro protocolos de identificación de metáforas en scripts de reglas ejecutables y auditables para el chino, demostrando que la elección del protocolo es la fuente principal de variación en la identificación y que este enfoque logra un rendimiento competitivo con total transparencia e interpretabilidad.

Weihang Huang, Mengna Liu2026-03-12💬 cs.CL

LuxBorrow: From Pompier to Pompjee, Tracing Borrowing in Luxembourgish

El artículo presenta LuxBorrow, un análisis centrado en los préstamos lingüísticos que examina 27 años de noticias en luxemburgués para demostrar que, aunque el uso de múltiples idiomas es ubicuo, la mezcla se caracteriza por inserciones localizadas con una adaptación morfológica predominante, especialmente de fuentes francesas, lo que impulsa la propuesta de métricas de evaluación basadas en préstamos en lugar de índices generales de mezcla.

Nina Hosseini-Kivanani, Fred Philippy2026-03-12💬 cs.CL

Multilingual Reasoning Gym: Multilingual Scaling of Procedural Reasoning Environments

El artículo presenta el Multilingual Reasoning Gym, una extensión del Reasoning Gym que genera proceduralmente problemas de razonamiento verificables en 14 idiomas mediante plantillas traducidas y validadas por hablantes nativos, permitiendo la creación de datos paralelos a gran escala para el entrenamiento y evaluación de modelos de razonamiento multilingüe.

Konstantin Dobler, Simon Lehnerer, Federico Scozzafava, Jonathan Janke, Mohamed Ali2026-03-12💬 cs.CL

Towards Cold-Start Drafting and Continual Refining: A Value-Driven Memory Approach with Application to NPU Kernel Synthesis

El paper presenta EvoKernel, un marco de agentes autoevolutivos que utiliza un enfoque de memoria basado en valores para superar la escasez de datos en la síntesis de kernels para NPUs, logrando mejorar la precisión de los modelos de 11.0% a 83.0% y acelerar el rendimiento mediante un refinamiento continuo.

Yujie Zheng, Zhuo Li, Shengtao Zhang, Hanjing Wang, Junjie Sheng, Jiaqian Wang, Junchi Yan, Weinan Zhang, Ying Wen, Bo Tang, Muning Wen2026-03-12🤖 cs.LG

V0.5V_{0.5}: Generalist Value Model as a Prior for Sparse RL Rollouts

El artículo presenta V0.5V_{0.5}, un modelo de valor generalista que fusiona adaptativamente una estimación previa con promedios empíricos de rollouts dispersos mediante pruebas estadísticas en tiempo real, logrando una reducción significativa de la varianza y un rendimiento superior en tareas de razonamiento matemático en comparación con métodos como GRPO y DAPO.

Yi-Kai Zhang, Yueqing Sun, Hongyan Hao, Qi Gu, Xunliang Cai, De-Chuan Zhan, Han-Jia Ye2026-03-12🤖 cs.LG

An Extreme Multi-label Text Classification (XMTC) Library Dataset: What if we took "Use of Practical AI in Digital Libraries" seriously?

Este trabajo presenta un corpus bilingüe (inglés/alemán) de registros de catálogo anotados con la Integrated Authority File (GND) y una taxonomía procesable por máquinas, diseñado para habilitar la clasificación multietiqueta consciente de la ontología y evaluar sistemas de IA que asistan a los catalogadores en la indexación a escala.

Jennifer D'Souza, Sameer Sadruddin, Maximilian Kähler, Andrea Salfinger, Luca Zaccagna, Francesca Incitti, Lauro Snidaro, Osma Suominen2026-03-12💬 cs.CL

From Images to Words: Efficient Cross-Modal Knowledge Distillation to Language Models from Black-box Teachers

El artículo presenta ARMADA, un marco eficiente de destilación de conocimiento cruzado que transfiere información de grandes modelos de visión-idioma (incluyendo modelos de caja negra) a modelos de solo lenguaje mediante técnicas de alineación novedosas, logrando mejoras significativas en diversas tareas sin requerir pre-entrenamiento multimodal costoso ni modificar al modelo docente.

Ayan Sengupta, Shantanu Dixit, Md Shad Akhtar, Tanmoy Chakraborty2026-03-12💬 cs.CL

GLM-OCR Technical Report

GLM-OCR es un modelo multimodal compacto de 0.9B parámetros que combina un codificador visual y un decodificador de lenguaje con un mecanismo de predicción de múltiples tokens y un pipeline de dos etapas para lograr un alto rendimiento y eficiencia en tareas de comprensión de documentos, desde el análisis de diseño hasta la extracción de información clave.

Shuaiqi Duan, Yadong Xue, Weihan Wang, Zhe Su, Huan Liu, Sheng Yang, Guobing Gan, Guo Wang, Zihan Wang, Shengdong Yan, Dexin Jin, Yuxuan Zhang, Guohong Wen, Yanfeng Wang, Yutao Zhang, Xiaohan Zhang, Wenyi Hong, Yukuo Cen, Da Yin, Bin Chen, Wenmeng Yu, Xiaotao Gu, Jie Tang2026-03-12💬 cs.CL

LLM2Vec-Gen: Generative Embeddings from Large Language Models

El artículo presenta LLM2Vec-Gen, un enfoque auto-supervisado novedoso que genera representaciones de texto aprendiendo a codificar la respuesta potencial de un modelo de lenguaje grande en lugar de la entrada, logrando un rendimiento superior en tareas de incrustación sin etiquetas y mejorando la seguridad y el razonamiento.

Parishad BehnamGhader, Vaibhav Adlakha, Fabian David Schmidt, Nicolas Chapados, Marius Mosbach, Siva Reddy2026-03-12💬 cs.CL