Knowing without Acting: The Disentangled Geometry of Safety Mechanisms in Large Language Models

Este artículo propone la Hipótesis de Seguridad Desentrelazada (DSH), que revela una separación geométrica entre la detección de peligros y la ejecución de denegaciones en los modelos de lenguaje, permitiendo tanto la creación de un benchmark para validar esta disociación como el desarrollo del ataque de borrado de rechazo (REA) que logra tasas de éxito sin precedentes al eliminar quirúrgicamente el mecanismo de denegación.

Jinman Wu, Yi Xie, Shen Lin, Shiqian Zhao, Xiaofeng Chen2026-03-09🤖 cs.AI

PVminerLLM: Structured Extraction of Patient Voice from Patient-Generated Text using Large Language Models

El artículo presenta PVminer, un benchmark, y PVminerLLM, un modelo de lenguaje grande ajustado para la extracción estructurada de la voz del paciente a partir de texto generado por pacientes, logrando un rendimiento superior a los métodos basados en prompts y demostrando que es posible analizar señales sociales y experienciales a escala sin necesidad de modelos extremadamente grandes.

Samah Fodeh, Linhai Ma, Ganesh Puthiaraju, Srivani Talakokkul, Afshan Khan, Ashley Hagaman, Sarah Lowe, Aimee Roundtree2026-03-09🤖 cs.AI

Balancing Domestic and Global Perspectives: Evaluating Dual-Calibration and LLM-Generated Nudges for Diverse News Recommendation

Este estudio evalúa un marco de empujes personalizados que combina un algoritmo de calibración dual de temas y localización con nudges generados por modelos de lenguaje grande, demostrando mediante un experimento de cinco semanas que las intervenciones algorítmicas aumentan efectivamente la diversidad de consumo de noticias domésticas y mundiales, mientras que la relevancia personalizada supera a la personalización genérica.

Ruixuan Sun, Matthew Zent, Minzhu Zhao, Thanmayee Boyapati, Xinyi Li, Joseph A. Konstan2026-03-09🤖 cs.AI

Proof-of-Guardrail in AI Agents and What (Not) to Trust from It

El artículo propone "Proof-of-Guardrail", un sistema que utiliza entornos de ejecución confiable (TEE) para generar pruebas criptográficas verificables de que las respuestas de los agentes de IA han pasado por medidas de seguridad específicas, garantizando así la integridad de su ejecución sin revelar la privacidad del agente, aunque advierte sobre los riesgos de engaño si los desarrolladores malintencionados logran eludir estas protecciones.

Xisen Jin, Michael Duan, Qin Lin, Aaron Chan, Zhenglun Chen, Junyi Du, Xiang Ren2026-03-09🤖 cs.AI

StreamWise: Serving Multi-Modal Generation in Real-Time at Scale

El sistema StreamWise aborda los desafíos de costo y complejidad en la generación de contenido multimodal en tiempo real mediante un diseño de servicio adaptativo y modular que gestiona dinámicamente la calidad, la paralelización de modelos y la asignación de recursos en hardware heterogéneo, logrando una latencia de inicio inferior a un segundo con un costo inferior a 45 dólares.

Haoran Qiu, Gohar Irfan Chaudhry, Chaojie Zhang, Íñigo Goiri, Esha Choukse, Rodrigo Fonseca, Ricardo Bianchini2026-03-09🤖 cs.AI

Margin and Consistency Supervision for Calibrated and Robust Vision Models

El artículo presenta MaCS, un marco de regularización simple y agnóstico a la arquitectura que mejora la calibración y la robustez de los modelos de visión mediante la combinación de una penalización de margen en el espacio de logits y un regularizador de consistencia, logrando mejores garantías teóricas y rendimiento empírico sin requerir datos adicionales ni cambios arquitectónicos.

Salim Khazem2026-03-09🤖 cs.AI

Lexara: A User-Centered Toolkit for Evaluating Large Language Models for Conversational Visual Analytics

El artículo presenta Lexara, un kit de herramientas centrado en el usuario que aborda los desafíos de evaluar modelos de lenguaje grandes para el análisis visual conversacional mediante casos de prueba del mundo real, métricas interpretables para la calidad visual y lingüística, y una interfaz interactiva que no requiere conocimientos de programación.

Srishti Palani, Vidya Setlur2026-03-09🤖 cs.AI

Evaluating LLM Alignment With Human Trust Models

Este trabajo presenta un análisis de caja blanca que demuestra que la representación interna de la confianza en el modelo de lenguaje GPT-J-6B se alinea más estrechamente con el modelo socio-cognitivo de Castelfranchi que con otros modelos humanos, lo que sugiere que las IA codifican constructos sociales de manera analizable para mejorar la colaboración humano-IA.

Anushka Debnath, Stephen Cranefield, Bastin Tony Roy Savarimuthu, Emiliano Lorini2026-03-09🤖 cs.AI

Remote Sensing Image Classification Using Deep Ensemble Learning

Este trabajo propone un modelo de fusión basado en aprendizaje profundo por conjuntos que combina las fortalezas de las CNN y los Vision Transformers para la clasificación de imágenes de teledetección, superando los cuellos de botella de rendimiento mediante la integración de cuatro modelos independientes y logrando una alta precisión en múltiples conjuntos de datos.

Niful Islam, Md. Rayhan Ahmed, Nur Mohammad Fahad, Salekul Islam, A. K. M. Muzahidul Islam, Saddam Mukta, Swakkhar Shatabda2026-03-09🤖 cs.AI

Computational Pathology in the Era of Emerging Foundation and Agentic AI -- International Expert Perspectives on Clinical Integration and Translational Readiness

Esta revisión presenta perspectivas de expertos internacionales sobre la integración responsable de los modelos fundacionales y agentes de IA en la patología computacional, evaluando su madurez técnica, viabilidad operativa y barreras regulatorias para su adopción clínica real.

Qian Da, Yijiang Chen, Min Ju, Zheyi Ji, Albert Zhou, Wenwen Wang, Matthew A Abikenari, Philip Chikontwe, Guillaume Larghero, Bowen Chen, Peter Neiglinger, Dingrong Zhong, Shuhao Wang, Wei Xu, Drew Williamson, German Corredor, Sen Yang, Le Lu, Xiao Han, Kun-Hsing Yu, Jun-zhou Huang, Laura Barisoni, Geert Litjens, Anant Madabhushi, Lifeng Zhu, Chaofu Wang, Junhan Zhao, Weiguo Hu2026-03-09🤖 cs.AI

Reconstruct! Don't Encode: Self-Supervised Representation Reconstruction Loss for High-Intelligibility and Low-Latency Streaming Neural Audio Codec

El artículo presenta JHCodec, un códec de audio neuronal que utiliza una pérdida de reconstrucción de representaciones auto-supervisadas (SSRR) para lograr una inteligibilidad superior y una latencia mínima en streaming, acelerando el entrenamiento y permitiendo una arquitectura de cero anticipación sin sacrificar la calidad.

Junhyeok Lee, Xiluo He, Jihwan Lee, Helin Wang, Shrikanth Narayanan, Thomas Thebaud, Laureano Moro-Velazquez, Jesús Villalba, Najim Dehak2026-03-09🤖 cs.AI

Reference-guided Policy Optimization for Molecular Optimization via LLM Reasoning

El artículo presenta RePO, un nuevo enfoque de optimización que combina aprendizaje por refuerzo con recompensas verificables y guía supervisada basada en referencias para superar las limitaciones de los modelos de lenguaje actuales en la optimización de moléculas, logrando un mejor equilibrio entre la exploración de nuevas estructuras y la explotación de referencias existentes sin necesidad de datos de trayectoria.

Xuan Li, Zhanke Zhou, Zongze Li, Jiangchao Yao, Yu Rong, Lu Zhang, Bo Han2026-03-09🤖 cs.AI

LUMINA: LLM-Guided GPU Architecture Exploration via Bottleneck Analysis

El paper presenta LUMINA, un marco de exploración de arquitecturas de GPU impulsado por modelos de lenguaje grande (LLM) que utiliza análisis de cuellos de botella para identificar diseños superiores a la A100 de manera eficiente, logrando una eficiencia de exploración 17,5 veces mayor y resultados de diseño un 32,9% mejores que los enfoques basados en aprendizaje automático.

Tao Zhang, Rui Ma, Shuotao Xu, Peng Cheng, Yongqiang Xiong2026-03-09🤖 cs.AI

The World Won't Stay Still: Programmable Evolution for Agent Benchmarks

El artículo presenta ProEvolve, un marco basado en grafos que permite la evolución programable y controlada de entornos de agentes para evaluar mejor su adaptabilidad a dinámicas del mundo real, superando las limitaciones de las evaluaciones estáticas actuales.

Guangrui Li, Yaochen Xie, Yi Liu, Ziwei Dong, Xingyuan Pan, Tianqi Zheng, Jason Choi, Michael J. Morais, Binit Jha, Shaunak Mishra, Bingrou Zhou, Chen Luo, Monica Xiao Cheng, Dawn Song2026-03-09🤖 cs.AI

CORE-Seg: Reasoning-Driven Segmentation for Complex Lesions via Reinforcement Learning

El artículo presenta CORE-Seg, un marco de aprendizaje por refuerzo que integra razonamiento cognitivo y segmentación mediante un adaptador de prompts guiado semánticamente, logrando resultados de vanguardia en la segmentación de lesiones complejas al superar las limitaciones de los modelos existentes en interpretabilidad lógica y precisión visual.

Yuxin Xie, Yuming Chen, Yishan Yang, Yi Zhou, Tao Zhou, Zhen Zhao, Jiacheng Liu, Huazhu Fu2026-03-09🤖 cs.AI