Measuring Complexity at the Requirements Stage: Spectral Metrics as Development Effort Predictors

Este estudio demuestra que las métricas espectrales derivadas de redes estructurales extraídas de requisitos mediante procesamiento de lenguaje natural predicen el esfuerzo de integración con una correlación superior a 0,95, superando a las métricas estructurales tradicionales y cerrando una brecha metodológica crítica en la ingeniería de requisitos.

Maximilian Vierlboeck, Antonio Pugliese, Roshanak Nilchian, Paul Grogan, Rashika Sugganahalli Natesh Babu2026-03-10💬 cs.CL

Listen to the Layers: Mitigating Hallucinations with Inter-Layer Disagreement

El artículo presenta CoCoA, un algoritmo de decodificación sin entrenamiento que mitiga las alucinaciones en los modelos de lenguaje grandes al penalizar las salidas que muestran inestabilidad representacional e inconsistencia interna entre sus capas intermedias, mejorando así la precisión factual sin necesidad de reentrenamiento.

Koduvayur Subbalakshmi, Sabbir Hossain Ujjal, Venkata Krishna Teja Mangichetty, Nastaran Jamalipour Soofi2026-03-10💬 cs.CL

Discovering Semantic Latent Structures in Psychological Scales: A Response-Free Pathway to Efficient Simplification

Este artículo presenta un marco de modelado de temas que utiliza la estructura semántica de los ítems mediante embeddings contextuales y agrupamiento para simplificar escalas psicológicas sin necesidad de datos de respuesta, logrando una reducción del 60,5% en la longitud de las escalas mientras se mantiene la validez psicométrica y la coherencia estructural.

Bo Wang, Yuxuan Zhang, Yueqin Hu, Hanchao Hou, Kaiping Peng, Shiguang Ni2026-03-10🤖 cs.LG

Towards interpretable models for language proficiency assessment: Predicting the CEFR level of Estonian learner texts

Este estudio presenta modelos de aprendizaje automático interpretables que, mediante la selección cuidadosa de características lingüísticas y de errores, logran predecir con alta precisión (hasta 0.9) los niveles de competencia del MCER en textos de aprendices de estonio, ofreciendo además insights sobre la evolución de la complejidad del lenguaje a lo largo del tiempo.

Kais Allkivi2026-03-10💬 cs.CL

A Geometric Taxonomy of Hallucinations in LLMs

Este artículo propone una taxonomía geométrica de las alucinaciones en los modelos de lenguaje grande, clasificándolas en tres tipos según sus firmas en el espacio de incrustaciones, e introduce dos índices de detección (SGI y DGI) que demuestran alta eficacia en la identificación de falta de fidelidad y confabulación, al tiempo que revelan limitaciones metodológicas en la detección de errores factuales debido a sesgos estilísticos.

Javier Marín2026-03-10💬 cs.CL

Why Code, Why Now: Learnability, Computability, and the Real Limits of Machine Learning

Este artículo propone una jerarquía de cinco niveles de aprendibilidad basada en la estructura de la información para explicar por qué la generación de código escala de manera predecible gracias a su retroalimentación densa y verificable, mientras que el aprendizaje por refuerzo enfrenta límites fundamentales que no se resuelven simplemente aumentando el tamaño de los modelos.

Zhimin Zhao2026-03-10🤖 cs.LG

Explainable Token-level Noise Filtering for LLM Fine-tuning Datasets

El artículo presenta XTF, un marco de filtrado de ruido a nivel de token que mejora el ajuste fino de modelos de lenguaje grandes al descomponer las contribuciones de los datos en atributos explicables (importancia del razonamiento, novedad del conocimiento y relevancia de la tarea) y enmascarar selectivamente los gradientes de los tokens ruidosos, logrando mejoras significativas en tareas de matemáticas, código y medicina.

Yuchen Yang, Wenze Lin, Enhao Huang, Zhixuan Chu, Hongbin Zhou, Lan Tao, Yiming Li, Zhan Qin, Kui Ren2026-03-10💬 cs.CL

Understand Then Memory: A Cognitive Gist-Driven RAG Framework with Global Semantic Diffusion

CogitoRAG es un marco de Recuperación Aumentada por Generación (RAG) inspirado en la memoria episódica humana que mejora la integración de conocimientos y el razonamiento mediante la extracción de la esencia semántica, la construcción de un grafo de conocimiento multidimensional y un mecanismo de difusión semántica global, superando así a los métodos existentes en benchmarks de preguntas y respuestas complejas.

Pengcheng Zhou, Haochen Li, Zhiqiang Nie, JiaLe Chen, Qing Gong, Weizhen Zhang, Chun Yu2026-03-10💬 cs.CL

Emotion Collider: Dual Hyperbolic Mirror Manifolds for Sentiment Recovery via Anti Emotion Reflection

El artículo presenta EC-Net, un marco de hipergrafos hiperbólicos que utiliza incrustaciones en la bola de Poincaré y aprendizaje contrastivo para mejorar la recuperación de sentimientos y la comprensión multimodal de emociones, logrando mayor precisión y robustez ante ruido o datos faltantes.

Rong Fu, Ziming Wang, Shuo Yin, Haiyun Wei, Kun Liu, Xianda Li, Zeli Su, Simon Fong2026-03-10🤖 cs.LG

ModalImmune: Immunity Driven Unlearning via Self Destructive Training

El artículo presenta ModalImmune, un marco de entrenamiento que fortalece la inmunidad de los sistemas multimodales ante la pérdida o corrupción de canales de entrada mediante el colapso controlado de información modal durante el entrenamiento, logrando así representaciones conjuntas más robustas sin comprometer la estabilidad de la convergencia ni la capacidad de reconstrucción.

Rong Fu, Jia Yee Tan, Zijian Zhang, Ziming Wang, Zhaolu Kang, Muge Qi, Shuning Zhang, Simon Fong2026-03-10🤖 cs.LG

Condition-Gated Reasoning for Context-Dependent Biomedical Question Answering

Este artículo presenta CondMedQA, el primer benchmark para preguntas biomedicas condicionales, y propone el marco de Razonamiento con Puertas de Condición (CGR), que mejora la precisión en la respuesta a preguntas médicas al adaptar el conocimiento a factores específicos del paciente mediante grafos de conocimiento conscientes de las condiciones.

Jash Rajesh Parekh, Wonbin Kweon, Joey Chan, Rezarta Islamaj, Robert Leaman, Pengcheng Jiang, Chih-Hsuan Wei, Zhizheng Wang, Zhiyong Lu, Jiawei Han2026-03-10💬 cs.CL

MrBERT: Modern Multilingual Encoders via Vocabulary, Domain, and Dimensional Adaptation

El artículo presenta MrBERT, una familia de codificadores multilingües modernos optimizados mediante adaptación de vocabulario, dominio y dimensión que logran resultados de vanguardia en tareas específicas de catalán y español, así como en dominios especializados como el biomédico y legal, al tiempo que incorporan aprendizaje de representaciones matryoshka para reducir costos de inferencia y almacenamiento.

Daniel Tamayo, Iñaki Lacunza, Paula Rivera-Hidalgo, Severino Da Dalt, Javier Aula-Blasco, Aitor Gonzalez-Agirre, Marta Villegas2026-03-10🤖 cs.LG

KVSlimmer: Theoretical Insights and Practical Optimizations for Asymmetric KV Merging

El artículo presenta KVSlimmer, un algoritmo eficiente y sin gradientes que, fundamentado en un marco teórico sobre la distribución espectral de los pesos, optimiza la fusión asimétrica de la caché KV para mejorar el rendimiento de los modelos de lenguaje grandes mientras reduce significativamente los costos de memoria y la latencia.

Lianjun Liu, Hongli An, Weiqi Yan, Xin Du, Shengchuan Zhang, Huazhong Liu, Yunshan Zhong2026-03-10💬 cs.CL

Conformal Prediction for Risk-Controlled Medical Entity Extraction Across Clinical Domains

Este artículo presenta un marco de predicción conforme que garantiza una cobertura segura para la extracción de entidades médicas mediante modelos de lenguaje grande, demostrando que la calibración de la confianza varía según el dominio clínico y requiriendo umbrales específicos para lograr una fiabilidad del 90% en etiquetas de la FDA y reportes de radiología.

Manil Shrestha, Edward Kim2026-03-10💬 cs.CL