Confidence Before Answering: A Paradigm Shift for Efficient LLM Uncertainty Estimation

O artigo propõe o paradigma "CoCA", uma estrutura de aprendizado por reforço que otimiza conjuntamente a calibração da confiança e a precisão das respostas em modelos de linguagem, permitindo que o modelo estime sua probabilidade de acerto antes de gerar a resposta, superando assim as limitações dos métodos tradicionais que avaliam a incerteza apenas após a resposta.

Changcheng Li, Jiancan Wu, Hengheng Zhang, Zhengsu Chen, Guo An, Junxiang Qiu, Xiang Wang, Qi Tian2026-03-09💬 cs.CL

InfoGatherer: Principled Information Seeking via Evidence Retrieval and Strategic Questioning

O artigo apresenta o InfoGatherer, um framework que melhora a tomada de decisão em domínios de alto risco, como medicina e direito, ao combinar recuperação de documentos e perguntas estratégicas ao usuário, utilizando a teoria de Dempster-Shafer para gerenciar incertezas de forma principial e evitar respostas prematuras ou excessivamente confiantes.

Maksym Taranukhin, Shuyue Stella Li, Evangelos Milios, Geoff Pleiss, Yulia Tsvetkov, Vered Shwartz2026-03-09💬 cs.CL

Learning Next Action Predictors from Human-Computer Interaction

Este artigo apresenta o LongNAP, um modelo de IA que prevê a próxima ação do usuário analisando seu histórico completo de interações multimodais, utilizando uma abordagem inovadora de aprendizado por contexto e reforço treinada em um novo conjunto de dados massivo de uso de smartphones.

Omar Shaikh, Valentin Teutschbein, Kanishk Gandhi, Yikun Chi, Nick Haber, Thomas Robinson, Nilam Ram, Byron Reeves, Sherry Yang, Michael S. Bernstein, Diyi Yang2026-03-09💬 cs.CL

Addressing the Ecological Fallacy in Larger LMs with Human Context

Este trabalho demonstra que abordar a falácia ecológica ao modelar o contexto linguístico do autor, seja através de pré-treinamento HuLM ou de ajuste fino (HuFT) com QLoRA em um modelo Llama de 8B, resulta em melhor desempenho em diversas tarefas downstream em comparação com métodos padrão.

Nikita Soni, Dhruv Vijay Kunjadiya, Pratham Piyush Shah, Dikshya Mohanty, H. Andrew Schwartz, Niranjan Balasubramanian2026-03-09🤖 cs.AI

Implicit Style Conditioning: A Structured Style-Rewrite Framework for Low-Resource Character Modeling

O artigo propõe um framework de reescrita de estilo estruturado que, ao combinar a desentrelaçação explícita de características estilísticas com uma estratégia de condicionamento implícito via raciocínio encadeado, permite que modelos de linguagem pequenos (SLMs) gerem personagens com alta fidelidade estilística e semântica, superando modelos maiores em cenários de poucos dados.

Chanhui Zhu2026-03-09🤖 cs.LG

Who We Are, Where We Are: Mental Health at the Intersection of Person, Situation, and Large Language Models

Este artigo desenvolve modelos interpretáveis que integram traços psicológicos individuais e contextos situacionais inferidos a partir de dados de mídia social para prever o bem-estar, demonstrando que abordagens baseadas em teoria psicológica oferecem desempenho competitivo e maior transparência em comparação com embeddings de modelos de linguagem.

Nikita Soni, August Håkan Nilsson, Syeda Mahwish, Vasudha Varadarajan, H. Andrew Schwartz, Ryan L. Boyd2026-03-09🤖 cs.AI

Track-SQL: Enhancing Generative Language Models with Dual-Extractive Modules for Schema and Context Tracking in Multi-turn Text-to-SQL

O artigo apresenta o Track-SQL, um novo framework que aprimora modelos de linguagem generativos para Text-to-SQL em múltiplas conversas através de módulos extrativos duais para rastreamento de esquema e contexto, alcançando desempenho state-of-the-art nos conjuntos de dados SparC e CoSQL.

Bingfeng Chen, Shaobin Shi, Yongqi Luo, Boyan Xu, Ruichu Cai, Zhifeng Hao2026-03-09💬 cs.CL

MASFactory: A Graph-centric Framework for Orchestrating LLM-Based Multi-Agent Systems with Vibe Graphing

O artigo apresenta o MASFactory, um framework centrado em grafos para orquestrar sistemas multiagentes baseados em LLM, que introduz a "Vibe Graphing" para converter intenções em linguagem natural em fluxos de trabalho executáveis, além de oferecer componentes reutilizáveis, integração de contexto e visualização, validados em sete benchmarks públicos.

Yang Liu, Jinxuan Cai, Yishen Li, Qi Meng, Zedi Liu, Xin Li, Chen Qian, Chuan Shi, Cheng Yang2026-03-09🤖 cs.AI

Evaluating Austrian A-Level German Essays with Large Language Models for Automated Essay Scoring

Este estudo avalia a eficácia de modelos de linguagem de grande porte (LLMs) na correção automática de redações alemãs de nível A da Áustria com base em rubricas, concluindo que, embora os modelos consigam aplicar os critérios, sua baixa concordância com avaliadores humanos (32,8% nas notas finais) os torna inadequados para uso em ambientes reais de avaliação.

Jonas Kubesch, Lena Huber, Clemens Havas2026-03-09🤖 cs.AI