Test-Time Adaptation via Many-Shot Prompting: Benefits, Limits, and Pitfalls

Este estudo empírico analisa os benefícios, limites e armadilhas da adaptação em tempo de teste via prompting de muitos exemplos, revelando que essa estratégia é eficaz para tarefas estruturadas com alto ganho de informação, mas frequentemente mostra benefícios limitados ou sensibilidade excessiva à estratégia de seleção em tarefas de geração aberta, especialmente em modelos de código aberto.

Shubhangi Upasani, Chen Wu, Jay Rainton, Bo Li, Changran Hu, Qizheng Zhang, Urmish Thakker2026-03-09🤖 cs.LG

ReflexiCoder: Teaching Large Language Models to Self-Reflect on Generated Code and Self-Correct It via Reinforcement Learning

O artigo apresenta o ReflexiCoder, um novo framework de aprendizado por reforço que internaliza a capacidade de autorreflexão e autocorreção em modelos de linguagem, permitindo que eles gerem, depurem e corrijam código de forma autônoma e eficiente sem depender de oráculos externos ou feedback de execução durante a inferência.

Juyong Jiang, Jiasi Shen, Sunghun Kim, Kang Min Yoo, Jeonghoon Kim, Sungju Kim2026-03-09🤖 cs.LG

Stochastic Event Prediction via Temporal Motif Transitions

O artigo apresenta o STEP, um novo framework que reformula a previsão de links temporais como um problema de previsão sequencial em tempo contínuo, modelando a dinâmica de eventos por meio de transições de motivos temporais governadas por processos de Poisson, o que resulta em ganhos significativos de precisão e eficiência computacional em comparação com os métodos mais avançados.

\.Ibrahim Bahadır Altun, Ahmet Erdem Sarıyüce2026-03-09🤖 cs.LG

Mitigating Bias in Concept Bottleneck Models for Fair and Interpretable Image Classification

Este artigo propõe três técnicas de mitigação de viés — filtragem top-k de conceitos, remoção de conceitos enviesados e desviés adversarial — para aprimorar a justiça em Modelos de Garrafa de Conceito (CBMs), superando trabalhos anteriores no equilíbrio entre desempenho e equidade na classificação de imagens.

Schrasing Tong, Antoine Salaun, Vincent Yuan, Annabel Adeyeri, Lalana Kagal2026-03-09🤖 cs.LG

Reference-guided Policy Optimization for Molecular Optimization via LLM Reasoning

O artigo apresenta o RePO, um novo método de otimização que combina aprendizado por reforço para explorar novas moléculas com orientação supervisionada baseada em referências para estabilizar o treinamento, superando abordagens tradicionais de ajuste fino e aprendizado por reforço em tarefas de otimização molecular guiada por LLMs.

Xuan Li, Zhanke Zhou, Zongze Li, Jiangchao Yao, Yu Rong, Lu Zhang, Bo Han2026-03-09🤖 cs.AI

Stock Market Prediction Using Node Transformer Architecture Integrated with BERT Sentiment Analysis

Este artigo apresenta um modelo integrado que combina uma arquitetura de transformador de nós com análise de sentimento baseada em BERT para prever preços de ações, demonstrando superioridade sobre métodos tradicionais como ARIMA e LSTM ao capturar dependências cruzadas e dinâmicas de mercado, alcançando uma precisão de 0,80% de erro médio absoluto percentual em previsões de um dia.

Mohammad Al Ridhawi, Mahtab Haj Ali, Hussein Al Osman2026-03-09🤖 cs.AI

Addressing the Ecological Fallacy in Larger LMs with Human Context

Este trabalho demonstra que abordar a falácia ecológica ao modelar o contexto linguístico do autor, seja através de pré-treinamento HuLM ou de ajuste fino (HuFT) com QLoRA em um modelo Llama de 8B, resulta em melhor desempenho em diversas tarefas downstream em comparação com métodos padrão.

Nikita Soni, Dhruv Vijay Kunjadiya, Pratham Piyush Shah, Dikshya Mohanty, H. Andrew Schwartz, Niranjan Balasubramanian2026-03-09🤖 cs.AI

A Persistent-State Dataflow Accelerator for Memory-Bound Linear Attention Decode on FPGA

Este artigo apresenta um acelerador em FPGA que elimina o gargalo de memória no processo de decodificação do mecanismo de atenção linear Gated DeltaNet, mantendo o estado recorrente em memória on-chip e alcançando uma velocidade 4,5 vezes superior e uma eficiência energética 60 vezes maior em comparação com GPUs de última geração.

Neelesh Gupta, Peter Wang, Rajgopal Kannan, Viktor K. Prasanna2026-03-09🤖 cs.LG

Implicit Style Conditioning: A Structured Style-Rewrite Framework for Low-Resource Character Modeling

O artigo propõe um framework de reescrita de estilo estruturado que, ao combinar a desentrelaçação explícita de características estilísticas com uma estratégia de condicionamento implícito via raciocínio encadeado, permite que modelos de linguagem pequenos (SLMs) gerem personagens com alta fidelidade estilística e semântica, superando modelos maiores em cenários de poucos dados.

Chanhui Zhu2026-03-09🤖 cs.LG

Who We Are, Where We Are: Mental Health at the Intersection of Person, Situation, and Large Language Models

Este artigo desenvolve modelos interpretáveis que integram traços psicológicos individuais e contextos situacionais inferidos a partir de dados de mídia social para prever o bem-estar, demonstrando que abordagens baseadas em teoria psicológica oferecem desempenho competitivo e maior transparência em comparação com embeddings de modelos de linguagem.

Nikita Soni, August Håkan Nilsson, Syeda Mahwish, Vasudha Varadarajan, H. Andrew Schwartz, Ryan L. Boyd2026-03-09🤖 cs.AI

Omni-Masked Gradient Descent: Memory-Efficient Optimization via Mask Traversal with Improved Convergence

O artigo propõe o Omni-Masked Gradient Descent (OMGD), um método de otimização leve e compatível com os principais otimizadores que utiliza travessia de máscaras para treinamento eficiente em memória e oferece uma complexidade de iteração estritamente melhorada de O~(ϵ3)\tilde{\mathcal{O}}(\epsilon^{-3}) em cenários não convexos, superando as abordagens existentes tanto em garantias teóricas quanto em desempenho empírico.

Hui Yang, Tao Ren, Jinyang Jiang, Wan Tian, Yijie Peng2026-03-09🤖 cs.LG

TADPO: Reinforcement Learning Goes Off-road

O artigo apresenta o TADPO, uma nova formulação de gradiente de política que combina trajetórias off-policy e on-policy para permitir a navegação em alta velocidade em terrenos off-road complexos, marcando a primeira implementação bem-sucedida de políticas baseadas em aprendizado por reforço em um veículo off-road em escala real com transferência zero-shot de simulação para a realidade.

Zhouchonghao Wu, Raymond Song, Vedant Mundheda, Luis E. Navarro-Serment, Christof Schoenborn, Jeff Schneider2026-03-09🤖 cs.AI