Transforming Agency. On the mode of existence of Large Language Models

El artículo concluye que los Modelos de Lenguaje Grande (LLM) carecen de agencia autónoma al no cumplir con las condiciones de individualidad, normatividad y asimetría interaccional, por lo que deben caracterizarse como interlocutores o autómatas lingüísticos que, a través de una "encarnación" textual y computacional, transforman la agencia humana generando formas híbridas de agencia intencional en lugar de meras herramientas extendidas.

Xabier E. Barandiaran, Lola S. Almendros2026-03-09🤖 cs.AI

Towards Resource Efficient and Interpretable Bias Mitigation in Large Language Models

Este artículo presenta un marco eficiente y interpretable para mitigar sesgos en modelos de lenguaje grandes mediante la integración de señales de modelos expertos pequeños y especializados durante la decodificación, logrando reducir prejuicios de género, raza y religión sin comprometer el rendimiento del modelo.

Schrasing Tong, Eliott Zemour, Jessica Lu, Rawisara Lohanimit, Lalana Kagal2026-03-09💬 cs.CL

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Esta encuesta ofrece una visión estructurada de cómo los modelos de lenguaje grandes y multimodales están transformando el ciclo de vida científico, abarcando desde la búsqueda de literatura y la generación de ideas hasta la creación de contenido y la evaluación ética, sirviendo como guía tanto para nuevos investigadores como para el desarrollo futuro de sistemas de "IA para la Ciencia".

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

RM-R1: Reward Modeling as Reasoning

El artículo presenta RM-R1, una nueva clase de modelos de recompensa generativos que integran el razonamiento mediante un mecanismo de "cadenas de criterios" (CoR) y un entrenamiento en dos etapas, logrando un rendimiento superior y mayor interpretabilidad en comparación con modelos más grandes y propietarios.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI

AdAEM: An Adaptively and Automated Extensible Measurement of LLMs' Value Difference

El artículo presenta AdAEM, un algoritmo de evaluación autoextensible que genera y adapta dinámicamente preguntas de prueba para medir con mayor precisión y diferenciación las diferencias de valores entre los grandes modelos de lenguaje, superando las limitaciones de las métricas estáticas actuales.

Jing Yao, Shitong Duan, Xiaoyuan Yi, Dongkuan Xu, Peng Zhang, Tun Lu, Ning Gu, Zhicheng Dou, Xing Xie2026-03-09🤖 cs.AI

Sysformer: Safeguarding Frozen Large Language Models with Adaptive System Prompts

El paper presenta Sysformer, un enfoque novedoso que utiliza un modelo transformador para adaptar dinámicamente los prompts del sistema en LLMs congelados, logrando mejorar significativamente su robustez ante ataques de jailbreaking y su cumplimiento de estándares de seguridad sin necesidad de costoso ajuste de parámetros.

Kartik Sharma, Yiqiao Jin, Vineeth Rakesh, Yingtong Dou, Menghai Pan, Mahashweta Das, Srijan Kumar2026-03-09🤖 cs.AI

CMRAG: Co-modality-based visual document retrieval and question answering

El artículo presenta CMRAG, un marco de recuperación y generación aumentada que supera las limitaciones de los métodos unimodales al integrar simultáneamente texto e imágenes mediante un modelo de codificación unificado y una estrategia de recuperación co-modality, logrando un rendimiento superior en benchmarks de preguntas y respuestas sobre documentos visuales.

Wang Chen, Wenhan Yu, Guanqiang Qi, Weikang Li, Yang Li, Lei Sha, Deguo Xia, Jizhou Huang2026-03-09💬 cs.CL