Modelling the Diachronic Emergence of Phoneme Frequency Distributions

Este artículo presenta un modelo estocástico que demuestra cómo ciertas regularidades estadísticas en las distribuciones de frecuencia de los fonemas, como la relación negativa entre el tamaño del inventario y la entropía relativa, pueden surgir naturalmente de los procesos históricos de cambio fonológico al incorporar efectos de carga funcional y una tendencia estabilizadora hacia un tamaño de inventario preferido.

Fermín Moscoso del Prado Martín, Suchir Salhan2026-03-11💬 cs.CL

You Didn't Have to Say It like That: Subliminal Learning from Faithful Paraphrases

El estudio demuestra que los modelos de lenguaje pueden adquirir subliminalmente preferencias de un modelo generador a través de parafraseos fieles, incluso cuando el contenido semántico es irrelevante o contradice explícitamente dicha preferencia, lo que revela una vulnerabilidad crítica en los pipelines de entrenamiento con datos sintéticos que no puede detectarse mediante inspección de contenido.

Isaia Gisler (ETH Zürich), Zhonghao He (University of Cambridge), Tianyi Qiu (Peking University)2026-03-11🤖 cs.LG

Enhancing Debunking Effectiveness through LLM-based Personality Adaptation

Este estudio propone un método novedoso que utiliza modelos de lenguaje grandes (LLM) para adaptar mensajes de desinformación a los rasgos de personalidad de los usuarios, demostrando que estas versiones personalizadas son más persuasivas que las genéricas y ofreciendo una evaluación automatizada que plantea importantes interrogantes éticos sobre su uso.

Pietro Dell'Oglio, Alessandro Bondielli, Francesco Marcelloni, Lucia C. Passaro2026-03-11🤖 cs.AI

Build, Borrow, or Just Fine-Tune? A Political Scientist's Guide to Choosing NLP Models

Este artículo ofrece una guía práctica para los científicos políticos sobre cuándo es necesario utilizar modelos de lenguaje específicos del dominio frente a alternativas de ajuste fino más accesibles, demostrando mediante un estudio de caso en la clasificación de eventos de conflicto que las diferencias de rendimiento entre ambos enfoques son mínimas para categorías frecuentes y solo significativas en eventos raros.

Shreyas Meher2026-03-11💬 cs.CL

Automatic Cardiac Risk Management Classification using large-context Electronic Patients Health Records

Este estudio presenta un marco de clasificación automatizado para la gestión de riesgos cardíacos en pacientes geriátricos que, al utilizar registros de salud electrónicos no estructurados, demuestra que una arquitectura Transformer personalizada supera a los métodos tradicionales y a los modelos de lenguaje generativos, ofreciendo una alternativa robusta a la codificación manual.

Jacopo Vitale, David Della Morte, Luca Bacco, Mario Merone, Mark de Groot, Saskia Haitjema, Leandro Pecchia, Bram van Es2026-03-11🤖 cs.AI

Fusing Semantic, Lexical, and Domain Perspectives for Recipe Similarity Estimation

Esta investigación propone un método avanzado para estimar la similitud entre recetas combinando perspectivas semánticas, léxicas y nutricionales, validado por expertos mediante una interfaz web que demuestra un alto grado de acuerdo y ofrece aplicaciones en la industria alimentaria, dietas personalizadas y generación automatizada de recetas.

Denica Kjorvezir, Danilo Najkov, Eva Valencič, Erika Jesenko, Barbara Koroišic Seljak, Tome Eftimov, Riste Stojanov2026-03-11💬 cs.CL

ActiveUltraFeedback: Efficient Preference Data Generation using Active Learning

El artículo presenta ActiveUltraFeedback, un pipeline de aprendizaje activo que utiliza estimaciones de incertidumbre y métodos novedosos como DRTS y DeltaUCB para generar datos de preferencia de alta calidad de manera eficiente, logrando un rendimiento superior en el ajuste de modelos de lenguaje con hasta seis veces menos datos anotados que los enfoques estáticos tradicionales.

Davit Melikidze, Marian Schneider, Jessica Lam, Martin Wertich, Ido Hakimi, Barna Pásztor, Andreas Krause2026-03-11🤖 cs.AI

Mousse: Rectifying the Geometry of Muon with Curvature-Aware Preconditioning

El artículo presenta Mousse, un nuevo optimizador que mejora el rendimiento de Muon al integrar la estimación estructural de Shampoo para adaptar las actualizaciones espectrales a la curvatura anisotrópica de las redes neuronales, logrando una reducción del 12% en los pasos de entrenamiento con un costo computacional insignificante.

Yechen Zhang, Shuhao Xing, Junhao Huang, Kai Lv, Yunhua Zhou, Xipeng Qiu, Qipeng Guo, Kai Chen2026-03-11🤖 cs.AI

Evaluation of LLMs in retrieving food and nutritional context for RAG systems

Este artículo evalúa la eficacia de cuatro modelos de lenguaje grandes (LLM) en sistemas RAG para recuperar datos nutricionales mediante la traducción de consultas naturales a filtros de metadatos, concluyendo que aunque logran un alto rendimiento en consultas expresables, enfrentan dificultades significativas cuando las restricciones de la consulta exceden el alcance representacional de los metadatos.

Maks Požarnik Vavken, Matevž Ogrinc, Tome Eftimov, Barbara Koroušic Seljak2026-03-11💬 cs.CL

MUGEN: Evaluating and Improving Multi-audio Understanding of Large Audio-Language Models

El paper introduce MUGEN, un benchmark integral que revela las limitaciones actuales de los modelos de audio-idioma en la comprensión de múltiples audios simultáneos y demuestra que estrategias de inferencia sin entrenamiento, como la autoconsistencia permutacional y el razonamiento en cadena, mejoran significativamente su rendimiento.

Chih-Kai Yang, Yun-Shao Tsai, Yu-Kai Guo, Ping-Le Tsai, Yen-Ting Piao, Hung-Wei Chen, Ting-Lin Hsiao, Yun-Man Hsu, Ke-Han Lu, Hung-yi Lee2026-03-11🤖 cs.AI

EXPLORE-Bench: Egocentric Scene Prediction with Long-Horizon Reasoning

El artículo presenta EXPLORE-Bench, un nuevo benchmark basado en videos en primera persona diseñado para evaluar la capacidad de los modelos de lenguaje multimodal para predecir escenas egocéntricas tras secuencias de acciones de largo alcance, revelando una brecha significativa frente al rendimiento humano y explorando estrategias de razonamiento paso a paso para mejorar esta tarea.

Chengjun Yu, Xuhan Zhu, Chaoqun Du, Pengfei Yu, Wei Zhai, Yang Cao, Zheng-Jun Zha2026-03-11🤖 cs.AI

EPIC-EuroParl-UdS: Information-Theoretic Perspectives on Translation and Interpreting

Este artículo presenta la versión actualizada y combinada de los corpus EPIC-UdS y EuroParl-UdS, que integran discursos originales del Parlamento Europeo junto con sus traducciones e interpretaciones, corrigiendo errores y añadiendo nuevas capas de anotación para facilitar investigaciones sobre variación lingüística, traducción e interpretación desde una perspectiva teórica de la información.

Maria Kunilovskaya, Christina Pollkläsener2026-03-11💬 cs.CL