Rewarding Doubt: A Reinforcement Learning Approach to Calibrated Confidence Expression of Large Language Models

Este artigo propõe uma abordagem inovadora de Aprendizado por Reforço que ajusta finamente Grandes Modelos de Linguagem para expressar estimativas de confiança calibradas junto às suas respostas, integrando a calibração ao processo generativo e demonstrando melhorias significativas na precisão e generalização sem necessidade de ajuste adicional.

David Bani-Harouni, Chantal Pellegrini, Paul Stangel + 4 more2026-03-03💬 cs.CL

I Predict Therefore I Am: Is Next Token Prediction Enough to Learn Human-Interpretable Concepts from Data?

Este artigo apresenta um modelo teórico que demonstra que a previsão do próximo token em LLMs permite aprender conceitos latentes discretos interpretáveis por humanos, provando que suas representações correspondem aproximadamente aos logaritmos das probabilidades posteriores desses conceitos e oferecendo uma base teórica unificada para entender a hipótese de representações lineares e avaliar autoencoders esparsos.

Yuhang Liu, Dong Gong, Yichao Cai + 6 more2026-03-03💬 cs.CL

A Foundational Individual Mobility Prediction Model based on Open-Source Large Language Models

Este artigo apresenta o MoBLLM, um modelo fundamental de previsão de mobilidade individual baseado em modelos de linguagem grandes (LLM) de código aberto e técnicas de ajuste fino eficientes em parâmetros, que supera os métodos tradicionais em precisão, robustez e transferabilidade entre diferentes contextos espaciais e temporais, oferecendo uma solução custo-eficiente para serviços de transporte personalizados.

Zhenlin Qin, Leizhen Wang, Yancheng Ling + 2 more2026-03-03💬 cs.CL

When Large Language Models are More PersuasiveThan Incentivized Humans, and Why

O estudo demonstra que a superioridade persuasiva de Grandes Modelos de Linguagem (LLMs) em relação a humanos incentivados é contextual, dependendo da veracidade da mensagem e do modelo específico, com os LLMs mostrando maior convicção linguística e influenciando a precisão das respostas de forma variável conforme o cenário de interação.

Philipp Schoenegger, Francesco Salvi, Jiacheng Liu + 37 more2026-03-03💬 cs.CL

Chain-of-Lure: A Universal Jailbreak Attack Framework using Unconstrained Synthetic Narratives

Este artigo apresenta o "Chain-of-Lure", um novo framework de ataque universal de jailbreak que utiliza narrativas sintéticas não restritas e otimização por meio de um modelo LLM auxiliar para contornar as defesas de segurança de modelos de linguagem, demonstrando altas taxas de sucesso e propondo estratégias de defesa para mitigar tais riscos.

Wenhan Chang, Tianqing Zhu, Yu Zhao + 3 more2026-03-03💬 cs.CL

NFT: Bridging Supervised Learning and Reinforcement Learning in Math Reasoning

O artigo propõe o Negative-aware Fine-Tuning (NFT), uma abordagem de aprendizado supervisionado que permite que grandes modelos de linguagem melhorem autonomamente em raciocínio matemático ao aproveitar feedback negativo de suas próprias falhas, alcançando desempenho comparável ou superior a métodos de aprendizado por reforço e estabelecendo uma equivalência teórica entre as duas técnicas.

Huayu Chen, Kaiwen Zheng, Qinsheng Zhang + 8 more2026-03-03💬 cs.CL

Learning to Reason without External Rewards

O artigo apresenta o Intuitor, um método de Aprendizado por Reforço a partir de Feedback Interno (RLIF) que utiliza a autoconfiança do modelo como único sinal de recompensa, permitindo que grandes modelos de linguagem aprendam raciocínio complexo de forma totalmente não supervisionada, alcançando desempenho comparável a métodos com recompensas externas e melhor generalização em tarefas como geração de código.

Xuandong Zhao, Zhewei Kang, Aosong Feng + 2 more2026-03-03💬 cs.CL

RPM: Reasoning-Level Personalization for Black-Box Large Language Models

Este trabalho apresenta o RPM, um novo framework que supera as limitações da personalização em nível de resposta ao introduzir a personalização em nível de raciocínio, permitindo que modelos de linguagem de caixa-preta descubram automaticamente estruturas de raciocínio específicas do usuário a partir de dados comportamentais brutos para guiar inferências personalizadas e interpretáveis.

Jieyong Kim, Tongyoung Kim, Soojin Yoon + 2 more2026-03-03💬 cs.CL