A Causal Graph Approach to Oppositional Narrative Analysis

Este trabajo propone un marco basado en grafos que representa las narrativas como grafos de interacción entre entidades e incorpora estimación causal para detectar, analizar y clasificar narrativas opositoras, superando a los métodos existentes al evitar sesgos y modelar las interacciones estructuradas en lugar de patrones lineales.

Diego Revilla, Martin Fernandez-de-Retana, Lingfeng Chen, Aritz Bilbao-Jayo, Miguel Fernandez-de-Retana2026-03-09🤖 cs.AI

Do Compact SSL Backbones Matter for Audio Deepfake Detection? A Controlled Study with RAPTOR

El estudio RAPTOR demuestra que la trayectoria de pre-entrenamiento multilingüe de modelos compactos como HuBERT es más determinante para la detección robusta de deepfakes de audio que la escala del modelo, logrando un rendimiento comparable a sistemas comerciales mediante un detector unificado y una nueva evaluación de incertidumbre.

Ajinkya Kulkarni, Sandipana Dowerah, Atharva Kulkarni, Tanel Alumäe, Mathew Magimai Doss2026-03-09🤖 cs.AI

CRIMSON: A Clinically-Grounded LLM-Based Metric for Generative Radiology Report Evaluation

El artículo presenta CRIMSON, un marco de evaluación basado en modelos de lenguaje grande y fundamentado clínicamente para informes de radiología de tórax que incorpora el contexto completo del paciente y una taxonomía de errores ponderada por gravedad, demostrando una fuerte alineación con el juicio de radiólogos expertos en múltiples benchmarks.

Mohammed Baharoon, Thibault Heintz, Siavash Raissi, Mahmoud Alabbad, Mona Alhammad, Hassan AlOmaish, Sung Eun Kim, Oishi Banerjee, Pranav Rajpurkar2026-03-09🤖 cs.AI

MAPO: Mixed Advantage Policy Optimization for Long-Horizon Multi-Turn Dialogue

El artículo presenta MAPO, un algoritmo de optimización de políticas sin crítico que utiliza retroalimentación densa de un modelo juez y un estimador de ventaja mixto para mejorar la estabilidad y el rendimiento en diálogos multi-turno subjetivos de largo alcance, superando a los métodos basados únicamente en recompensas finales en diversas pruebas de inteligencia emocional.

Naifan Zhang, Ruihan Sun, Jinwei Su, Hengjie Yang, Zhengyuan Pan, Zhaohan Chen, Xiaofan Zhang2026-03-09🤖 cs.AI

Wisdom of the AI Crowd (AI-CROWD) for Ground Truth Approximation in Content Analysis: A Research Protocol & Validation Using Eleven Large Language Models

Este artículo presenta el protocolo AI-CROWD, que aproxima la verdad fundamental en el análisis de contenido a gran escala mediante la agregación de las salidas de un conjunto de once modelos de lenguaje grandes para generar clasificaciones basadas en consenso y diagnosticar ambigüedades, superando así las limitaciones de costo y tiempo de la codificación humana tradicional.

Luis de-Marcos, Manuel Goyanes, Adrián Domínguez-Díaz2026-03-09💬 cs.CL

LIT-RAGBench: Benchmarking Generator Capabilities of Large Language Models in Retrieval-Augmented Generation

El artículo presenta LIT-RAGBench, un nuevo benchmark en japonés e inglés diseñado para evaluar de forma integral cinco capacidades críticas de los generadores en sistemas de Generación Aumentada por Recuperación (RAG): integración, razonamiento, lógica, tablas y abstención, revelando que ningún modelo actual supera el 90% de precisión global.

Koki Itai, Shunichi Hasegawa, Yuta Yamamoto, Gouki Minegishi, Masaki Otsuki2026-03-09💬 cs.CL

FlashPrefill: Instantaneous Pattern Discovery and Thresholding for Ultra-Fast Long-Context Prefilling

El artículo presenta FlashPrefill, un marco que logra un prellenado ultrarrápido para modelos de lenguaje de gran contexto mediante la identificación instantánea de patrones de atención dispersa y un umbral dinámico, logrando una aceleración de hasta 27,78 veces en secuencias de 256K sin degradar el rendimiento en contextos más cortos.

Qihang Fan, Huaibo Huang, Zhiying Wu, Juqiu Wang, Bingning Wang, Ran He2026-03-09🤖 cs.AI

SPOT: Span-level Pause-of-Thought for Efficient and Interpretable Latent Reasoning in Large Language Models

El artículo presenta SPOT, un marco que mejora la eficiencia y la interpretabilidad del razonamiento latente en modelos de lenguaje grandes mediante la alineación semántica a nivel de segmentos y la decodificación con cabeza congelada, logrando una mayor precisión y una reducción significativa en el número de tokens generados.

Yunlong Chu, Minglai Shao, Yuhang Liu, Bing Hao, Yumeng Lin, Jialu Wang, Ruijie Wang2026-03-09💬 cs.CL

Mind the Gap: Pitfalls of LLM Alignment with Asian Public Opinion

Este estudio revela que, aunque los modelos de lenguaje grandes actuales se alinean generalmente con la opinión pública en temas sociales amplios, fallan sistemáticamente en representar con precisión las perspectivas religiosas, especialmente las de grupos minoritarios en Asia, perpetuando estereotipos negativos que no se resuelven completamente con intervenciones ligeras.

Hari Shankar, Vedanta S P, Sriharini Margapuri, Debjani Mazumder, Ponnurangam Kumaraguru, Abhijnan Chakraborty2026-03-09💬 cs.CL

The EpisTwin: A Knowledge Graph-Grounded Neuro-Symbolic Architecture for Personal AI

El artículo presenta EpisTwin, una arquitectura neuro-simbólica que supera las limitaciones de la fragmentación de datos en la IA personal al fundamentar el razonamiento generativo en un Grafo de Conocimiento Personal verificado, utilizando modelos de lenguaje multimodal para estructurar la información y un coordinador agente para realizar inferencias complejas y refinar visualmente los contextos.

Giovanni Servedio, Potito Aghilar, Alessio Mattiace, Gianni Carmosino, Francesco Musicco, Gabriele Conte, Vito Walter Anelli, Tommaso Di Noia, Francesco Maria Donini2026-03-09🤖 cs.AI

Continual Adaptation for Pacific Indigenous Speech Recognition

Este estudio empírico demuestra que, aunque técnicas como LoRA permiten la adaptación inicial de modelos de reconocimiento de voz a lenguas indígenas del Pacífico, estas estrategias enfrentan un grave olvido catastrófico y una deriva representacional durante el aprendizaje continuo, lo que subraya la necesidad urgente de desarrollar métodos de adaptación más robustos para estas lenguas de recursos limitados.

Yang Xiao, Aso Mahmudi, Nick Thieberger, Eliathamby Ambikairajah, Eun-Jung Holden, Ting Dang2026-03-09💬 cs.CL

The Art That Poses Back: Assessing AI Pastiches after Contemporary Artworks

Este estudio evalúa la capacidad de ChatGPT para generar pastiches de obras de arte contemporáneas, revelando mediante la participación de doce artistas que, aunque existen similitudes visuales, las creaciones de la IA carecen de dimensión, contexto e intención emocional, lo que demuestra la necesidad de utilizar métricas complementarias más allá de la simple transferencia de estilo.

Anca Dinu, Andreiana Mihail, Andra-Maria Florescu, Claudiu Creanga2026-03-09💬 cs.CL

Evaluation of Deontic Conditional Reasoning in Large Language Models: The Case of Wason's Selection Task

Este estudio introduce un nuevo conjunto de datos de la Tarea de Selección de Wason para demostrar que los modelos de lenguaje grandes, al igual que los humanos, razonan mejor con reglas deonticas y cometen errores similares a los sesgos de emparejamiento observados en la cognición humana.

Hirohiko Abe, Kentaro Ozeki, Risako Ando, Takanobu Morishita, Koji Mineshima, Mitsuhiro Okada2026-03-09💬 cs.CL

From Prompting to Preference Optimization: A Comparative Study of LLM-based Automated Essay Scoring

Este estudio presenta una comparación unificada de diversas estrategias basadas en modelos de lenguaje grande para la calificación automática de ensayos en inglés como segunda lengua, revelando que la combinación de ajuste fino supervisado y generación aumentada por recuperación (RAG) logra el mejor rendimiento con un 93% de puntuación F1.

Minh Hoang Nguyen, Vu Hoang Pham, Xuan Thanh Huynh, Phuc Hong Mai, Vinh The Nguyen, Quang Nhut Huynh, Huy Tien Nguyen, Tung Le2026-03-09💬 cs.CL

PONTE: Personalized Orchestration for Natural Language Trustworthy Explanations

El paper presenta PONTE, un marco de inteligencia artificial explicable que utiliza un ciclo de validación y adaptación con retroalimentación humana para generar explicaciones naturales personalizadas, fiables y adaptadas a las necesidades cognitivas y de estilo de cada usuario, superando las limitaciones de los enfoques estandarizados y la alucinación de los modelos de lenguaje.

Vittoria Vineis, Matteo Silvestri, Lorenzo Antonelli, Filippo Betello, Gabriele Tolomei2026-03-09🤖 cs.AI