Rewarding Doubt: A Reinforcement Learning Approach to Calibrated Confidence Expression of Large Language Models

Este artículo propone un enfoque novedoso de aprendizaje por refuerzo que ajusta finamente los modelos de lenguaje grandes para generar estimaciones de confianza calibradas junto con sus respuestas, optimizando una recompensa basada en la regla de puntuación logarítmica para alinear la confianza expresada con la precisión real y generalizar a tareas no vistas.

David Bani-Harouni, Chantal Pellegrini, Paul Stangel + 4 more2026-03-03💬 cs.CL

Vision-R1: Incentivizing Reasoning Capability in Multimodal Large Language Models

El artículo presenta Vision-R1, un modelo de lenguaje multimodal que mejora las capacidades de razonamiento mediante el aprendizaje por refuerzo, utilizando un conjunto de datos de cadena de pensamiento generado automáticamente y una estrategia de supresión progresiva del pensamiento para alcanzar un rendimiento competitivo en benchmarks matemáticos multimodales.

Wenxuan Huang, Bohan Jia, Zijie Zhai + 7 more2026-03-03💬 cs.CL

A Foundational Individual Mobility Prediction Model based on Open-Source Large Language Models

Este artículo presenta MoBLLM, un modelo fundacional de predicción de movilidad individual basado en modelos de lenguaje grandes de código abierto y técnicas de ajuste eficiente de parámetros, que supera a los modelos existentes en precisión, robustez y transferibilidad entre diferentes contextos espaciales y temporales sin requerir costosos recursos computacionales.

Zhenlin Qin, Leizhen Wang, Yancheng Ling + 2 more2026-03-03💬 cs.CL

Chain-of-Lure: A Universal Jailbreak Attack Framework using Unconstrained Synthetic Narratives

Este artículo presenta "Chain-of-Lure", un marco de ataque universal que utiliza narrativas sintéticas no restringidas y optimización por un modelo LLM auxiliar para eludir las restricciones de seguridad de otros modelos de lenguaje mediante la transferencia de misiones y preguntas engañosas progresivas, demostrando su alta eficacia en entornos de caja negra y proponiendo estrategias de defensa.

Wenhan Chang, Tianqing Zhu, Yu Zhao + 3 more2026-03-03💬 cs.CL

NFT: Bridging Supervised Learning and Reinforcement Learning in Math Reasoning

Este trabajo presenta la Ajuste Fino Consciente de lo Negativo (NFT), un enfoque de aprendizaje supervisado que permite a los modelos de lenguaje mejorar autónomamente en razonamiento matemático mediante el aprovechamiento de sus propios errores, logrando un rendimiento comparable o superior a los métodos de aprendizaje por refuerzo y demostrando teóricamente la equivalencia entre ambos paradigmas en entornos de entrenamiento estrictamente en política.

Huayu Chen, Kaiwen Zheng, Qinsheng Zhang + 8 more2026-03-03💬 cs.CL