One Model, Many Skills: Parameter-Efficient Fine-Tuning for Multitask Code Analysis

Este artículo presenta la primera evaluación exhaustiva del ajuste fino eficiente en parámetros (PEFT) para el análisis de código multitarea, demostrando que un único módulo PEFT compartido puede igualar o superar al ajuste completo con una reducción drástica de costos computacionales y de almacenamiento, aunque su éxito depende críticamente de factores como la estabilidad de las tareas, la arquitectura del modelo y la calidad de los datos.

Amal Akli, Maxime Cordy, Mike Papadakis, Yves Le Traon2026-03-12💻 cs

AraModernBERT: Transtokenized Initialization and Long-Context Encoder Modeling for Arabic

Este trabajo presenta AraModernBERT, una adaptación del modelo ModernBERT al árabe que demuestra que la inicialización transtokenizada y el modelado nativo de contextos largos (hasta 8,192 tokens) son esenciales para lograr un rendimiento superior en tareas de comprensión del lenguaje natural y discriminativas.

Omar Elshehy, Omer Nacar, Abdelbasset Djamai, Muhammed Ragab, Khloud Al Jallad, Mona Abdelazim2026-03-12💬 cs.CL

Quantifying Hallucinations in Language Language Models on Medical Textbooks

Este estudio cuantifica la prevalencia de alucinaciones en modelos de lenguaje grande al responder preguntas médicas basadas en libros de texto, revelando que LLaMA-70B-Instruct alucina en casi el 20% de las respuestas a pesar de su alta plausibilidad, y que una menor tasa de alucinaciones tiende a correlacionarse con una mayor utilidad según la evaluación de clínicos.

Brandon C. Colelough, Davis Bartels, Dina Demner-Fushman2026-03-12💬 cs.CL

Evolving Demonstration Optimization for Chain-of-Thought Feature Transformation

Este artículo presenta un marco que optimiza la transformación de características impulsada por modelos de lenguaje grande mediante la evolución de demostraciones en bucle cerrado y la selección de contextos diversos, superando así las limitaciones de eficiencia y diversidad de los métodos existentes para mejorar el rendimiento en tareas predictivas tabulares.

Xinyuan Wang, Kunpeng Liu, Arun Vignesh Malarkkan, Yanjie Fu2026-03-12💬 cs.CL

Causally Grounded Mechanistic Interpretability for LLMs with Faithful Natural-Language Explanations

Este artículo presenta un pipeline que vincula el análisis de circuitos causales en modelos de lenguaje con explicaciones en lenguaje natural, demostrando mediante una evaluación en la tarea de identificación de objetos indirectos que las explicaciones generadas por LLM superan a las plantillas y revelan que, aunque son suficientes, la baja comprehensividad indica la existencia de mecanismos de respaldo distribuidos.

Ajay Pravin Mahale2026-03-12💬 cs.CL

The System Hallucination Scale (SHS): A Minimal yet Effective Human-Centered Instrument for Evaluating Hallucination-Related Behavior in Large Language Models

El artículo presenta la Escala de Alucinación del Sistema (SHS), una herramienta ligera y centrada en el usuario inspirada en métricas psicométricas establecidas, diseñada para evaluar de forma rápida y válida la fiabilidad factual y la coherencia de los grandes modelos de lenguaje desde la perspectiva del usuario, tal como se demuestra mediante una evaluación empírica con 210 participantes.

Heimo Müller, Dominik Steiger, Markus Plass, Andreas Holzinger2026-03-12💬 cs.CL

PoultryLeX-Net: Domain-Adaptive Dual-Stream Transformer Architecture for Large-Scale Poultry Stakeholder Modeling

El estudio presenta PoultryLeX-Net, una arquitectura de transformador dual con adaptación de dominio y enriquecimiento léxico que supera a los modelos existentes al lograr una precisión del 97,35% en el análisis de sentimientos y la identificación de temas en discursos sobre la industria avícola en redes sociales.

Stephen Afrifa, Biswash Khatiwada, Kapalik Khanal, Sanjay Shah, Lingjuan Wang-Li, Ramesh Bahadur Bist2026-03-12💬 cs.CL

TAMUSA-Chat: A Domain-Adapted Large Language Model Conversational System for Research and Responsible Deployment

Este artículo presenta TAMUSA-Chat, un marco de investigación para desarrollar sistemas conversacionales de modelos de lenguaje grandes adaptados a contextos institucionales mediante técnicas de ajuste fino y generación aumentada por recuperación, priorizando la transparencia, el cumplimiento normativo y las prácticas de IA responsable.

Izzat Alsmadi, Anas Alsobeh2026-03-12💬 cs.CL

CEI: A Benchmark for Evaluating Pragmatic Reasoning in Language Models

Este artículo presenta CEI, un nuevo conjunto de datos de 300 escenarios validados por humanos diseñado para evaluar la capacidad de los modelos de lenguaje para realizar inferencias pragmáticas complejas en diversos contextos sociales y relaciones de poder.

Jon Chun, Hannah Sussman, Adrian Mangine, Murathan Kocaman, Kirill Sidorko, Abhigya Koirala, Andre McCloud, Gwen Eisenbeis, Wisdom Akanwe, Moustapha Gassama, Eliezer Gonzalez Chirinos, Anne-Duncan Enright, Peter Dunson, Tiffanie Ng, Anna von Rosenstiel, Godwin Idowu2026-03-12💬 cs.CL

Evaluating Adjective-Noun Compositionality in LLMs: Functional vs Representational Perspectives

El estudio revela que, aunque los grandes modelos de lenguaje desarrollan representaciones internas compuestas de adjetivos y sustantivos, existe una divergencia notable entre estas representaciones y su capacidad para traducirlas consistentemente en éxito funcional en tareas, lo que subraya la necesidad de evaluaciones contrastivas para comprender mejor sus capacidades.

Ruchira Dhar, Qiwei Peng, Anders Søgaard2026-03-12💬 cs.CL

Context Over Compute Human-in-the-Loop Outperforms Iterative Chain-of-Thought Prompting in Interview Answer Quality

Este estudio demuestra que, en la evaluación y mejora de respuestas para entrevistas conductuales, el enfoque de "humano en el bucle" supera a la optimización iterativa mediante cadenas de pensamiento automatizadas al lograr mejoras significativas en autenticidad y confianza con menos iteraciones, revelando que la limitación principal reside en la disponibilidad de contexto y no en los recursos computacionales.

Kewen Zhu, Zixi Liu, Yanjing Li2026-03-12💬 cs.CL

Empathy Is Not What Changed: Clinical Assessment of Psychological Safety Across GPT Model Generations

Este estudio clínico demuestra que la percepción de pérdida de empatía en las nuevas generaciones de modelos de OpenAI no se debe a un cambio en la empatía real, que permanece estadísticamente invariable, sino a una mayor detección de crisis y una postura de seguridad más estricta que altera la dinámica conversacional, especialmente en situaciones de riesgo.

Michael Keeman, Anastasia Keeman2026-03-12💬 cs.CL

A Retrieval-Augmented Language Assistant for Unmanned Aircraft Safety Assessment and Regulatory Compliance

Este artículo presenta y valida un asistente basado en recuperación de información que utiliza exclusivamente fuentes regulatorias autorizadas para apoyar la evaluación de seguridad, la certificación y el cumplimiento normativo de los sistemas de aeronaves no tripuladas, garantizando la trazabilidad y la responsabilidad humana mediante la generación de respuestas fundamentadas en citas y evitando inferencias no verificadas.

Gabriele Immordino, Andrea Vaiuso, Marcello Righi2026-03-12💬 cs.CL

Leveraging Wikidata for Geographically Informed Sociocultural Bias Dataset Creation: Application to Latin America

Este trabajo presenta la creación de LatamQA, un conjunto de datos de más de 26.000 preguntas y respuestas en español y portugués derivadas de Wikipedia y Wikidata, para evaluar y revelar sesgos socioculturales y geográficos en los modelos de lenguaje grande hacia las diversas culturas de América Latina.

Yannis Karmim (ALMAnaCH), Renato Pino (UCHILE), Hernan Contreras (UCHILE), Hernan Lira (CENIA), Sebastian Cifuentes (CENIA), Simon Escoffier (PUC), Luis Martí (UP4, ALPAGE), Djamé Seddah (UP4, ALPAGE), Valentin Barrière (UCHILE, CENIA)2026-03-12💬 cs.CL