When Large Language Models are More PersuasiveThan Incentivized Humans, and Why

O estudo demonstra que a superioridade persuasiva de Grandes Modelos de Linguagem (LLMs) em relação a humanos incentivados é contextual, dependendo da veracidade da mensagem e do modelo específico, com os LLMs mostrando maior convicção linguística e influenciando a precisão das respostas de forma variável conforme o cenário de interação.

Philipp Schoenegger, Francesco Salvi, Jiacheng Liu + 37 more2026-03-03💬 cs.CL

Chain-of-Lure: A Universal Jailbreak Attack Framework using Unconstrained Synthetic Narratives

Este artigo apresenta o "Chain-of-Lure", um novo framework de ataque universal de jailbreak que utiliza narrativas sintéticas não restritas e otimização por meio de um modelo LLM auxiliar para contornar as defesas de segurança de modelos de linguagem, demonstrando altas taxas de sucesso e propondo estratégias de defesa para mitigar tais riscos.

Wenhan Chang, Tianqing Zhu, Yu Zhao + 3 more2026-03-03💬 cs.CL

NFT: Bridging Supervised Learning and Reinforcement Learning in Math Reasoning

O artigo propõe o Negative-aware Fine-Tuning (NFT), uma abordagem de aprendizado supervisionado que permite que grandes modelos de linguagem melhorem autonomamente em raciocínio matemático ao aproveitar feedback negativo de suas próprias falhas, alcançando desempenho comparável ou superior a métodos de aprendizado por reforço e estabelecendo uma equivalência teórica entre as duas técnicas.

Huayu Chen, Kaiwen Zheng, Qinsheng Zhang + 8 more2026-03-03💬 cs.CL

Learning to Reason without External Rewards

O artigo apresenta o Intuitor, um método de Aprendizado por Reforço a partir de Feedback Interno (RLIF) que utiliza a autoconfiança do modelo como único sinal de recompensa, permitindo que grandes modelos de linguagem aprendam raciocínio complexo de forma totalmente não supervisionada, alcançando desempenho comparável a métodos com recompensas externas e melhor generalização em tarefas como geração de código.

Xuandong Zhao, Zhewei Kang, Aosong Feng + 2 more2026-03-03💬 cs.CL

RPM: Reasoning-Level Personalization for Black-Box Large Language Models

Este trabalho apresenta o RPM, um novo framework que supera as limitações da personalização em nível de resposta ao introduzir a personalização em nível de raciocínio, permitindo que modelos de linguagem de caixa-preta descubram automaticamente estruturas de raciocínio específicas do usuário a partir de dados comportamentais brutos para guiar inferências personalizadas e interpretáveis.

Jieyong Kim, Tongyoung Kim, Soojin Yoon + 2 more2026-03-03💬 cs.CL

CityLens: Evaluating Large Vision-Language Models for Urban Socioeconomic Sensing

Este trabalho apresenta o CityLens, um benchmark abrangente que avalia a capacidade de Modelos Grandes de Visão e Linguagem (LVLMs) em prever indicadores socioeconômicos urbanos a partir de imagens de satélite e de rua em 17 cidades globais, revelando tanto o potencial quanto as limitações atuais desses modelos para o planejamento urbano sustentável.

Tianhui Liu, Hetian Pang, Xin Zhang + 5 more2026-03-03💬 cs.CL

Equitable Electronic Health Record Prediction with FAME: Fairness-Aware Multimodal Embedding

Este trabalho apresenta o FAME, um framework de aprendizado multimodal que pondera as diferentes modalidades de Registros Eletrônicos de Saúde (EHR) com base em sua contribuição para a justiça, utilizando uma função de perda combinada e o Índice de Disparidade na Distribuição de Erros (EDDI) para otimizar simultaneamente o desempenho preditivo e a equidade entre subgrupos de pacientes.

Nikkie Hooman, Zhongjie Wu, Eric C. Larson + 1 more2026-03-03💬 cs.CL