Faster, Cheaper, More Accurate: Specialised Knowledge Tracing Models Outperform LLMs

Este estudio demuestra que los modelos especializados de trazado de conocimiento superan a los grandes modelos de lenguaje en precisión, velocidad y costo al predecir respuestas estudiantiles, lo que subraya la importancia de utilizar soluciones específicas del dominio en lugar de modelos de lenguaje universales para tareas educativas.

Prarthana Bhattacharyya, Joshua Mitton, Ralph Abboud + 1 more2026-03-04💬 cs.CL

The Distribution of Phoneme Frequencies across the World's Languages: Macroscopic and Microscopic Information-Theoretic Models

Este artículo presenta un marco unificado de teoría de la información que explica la distribución de frecuencias de los fonemas a nivel macroscópico mediante estadísticas de orden de una distribución de Dirichlet y a nivel microscópico mediante un modelo de máxima entropía que integra restricciones articulatorias, fonotácticas y léxicas.

Fermín Moscoso del Prado Martín, Suchir Salhan2026-03-04💬 cs.CL

Nodes Are Early, Edges Are Late: Probing Diagram Representations in Large Vision-Language Models

Mediante el uso de un conjunto de datos sintético de grafos dirigidos, este estudio revela que, aunque la información de los nodos y la estructura global se codifica linealmente en el codificador visual de los modelos de lenguaje-vision grandes (LVLM), la información de las aristas solo emerge tardíamente en los tokens de texto, lo que explica las dificultades de estos modelos para comprender las relaciones direccionales.

Haruto Yoshida, Keito Kudo, Yoichi Aoki + 4 more2026-03-04💬 cs.CL

Contextualized Privacy Defense for LLM Agents

El artículo presenta Contextualized Defense Instructing (CDI), un nuevo paradigma de defensa de privacidad para agentes LLM que utiliza un modelo instructor optimizado mediante aprendizaje por refuerzo para generar orientaciones específicas y proactivas en cada paso, logrando un equilibrio superior entre la preservación de la privacidad y la utilidad en comparación con las defensas estáticas existentes.

Yule Wen, Yanzhe Zhang, Jianxun Lian + 3 more2026-03-04💬 cs.CL

TrustMH-Bench: A Comprehensive Benchmark for Evaluating the Trustworthiness of Large Language Models in Mental Health

El artículo presenta TrustMH-Bench, un marco integral que evalúa la confiabilidad de los modelos de lenguaje grandes en el ámbito de la salud mental a través de ocho pilares fundamentales, revelando deficiencias significativas incluso en los modelos más avanzados y subrayando la necesidad urgente de mejorar su seguridad y fiabilidad.

Zixin Xiong, Ziteng Wang, Haotian Fan + 2 more2026-03-04💬 cs.CL

Evaluating Performance Drift from Model Switching in Multi-Turn LLM Systems

Este trabajo introduce un benchmark de matriz de cambio que demuestra que la conmutación de modelos en sistemas LLM de múltiples turnos genera una deriva de rendimiento significativa y estadísticamente relevante, revelando patrones sistemáticos de compatibilidad y la necesidad de monitorear la robustez de estas transiciones como un nuevo eje de fiabilidad operativa.

Raad Khraishi, Iman Zafar, Katie Myles + 1 more2026-03-04💬 cs.CL

Type-Aware Retrieval-Augmented Generation with Dependency Closure for Solver-Executable Industrial Optimization Modeling

Este artículo presenta un método de generación aumentada por recuperación (RAG) consciente de tipos y basado en la clausura de dependencias que construye una base de conocimientos estructurada para traducir requisitos en lenguaje natural a modelos de optimización industrial ejecutables, superando las limitaciones de las técnicas RAG convencionales en la generación de código compilable y libre de errores estructurales.

Y. Zhong, R. Huang, M. Wang + 4 more2026-03-04💬 cs.CL

MoD-DPO: Towards Mitigating Cross-modal Hallucinations in Omni LLMs using Modality Decoupled Preference Optimization

Este trabajo presenta MoD-DPO, un marco de optimización de preferencias que mitiga las alucinaciones cruzadas en modelos de lenguaje multimodal mediante la regularización de la desconexión de modalidades y la penalización de los sesgos textuales, logrando así una mayor precisión perceptiva y resistencia a las alucinaciones.

Ashutosh Chaubey, Jiacheng Pang, Mohammad Soleymani2026-03-04💬 cs.CL