Not All News Is Equal: Topic- and Event-Conditional Sentiment from Finetuned LLMs for Aluminum Price Forecasting

Este estudo demonstra que a integração de scores de sentimento derivados de notícias em inglês e chinês, extraídos por modelos de linguagem (LLMs) ajustados como o Qwen3, com dados tabulares tradicionais, melhora significativamente a previsão de preços do alumínio e o desempenho econômico em mercados voláteis, superando modelos base apenas em dados numéricos.

Alvaro Paredes Amorin, Andre Python, Christoph Weisser2026-03-11🤖 cs.AI

Overcoming Valid Action Suppression in Unmasked Policy Gradient Algorithms

Este artigo identifica e prova teoricamente que o treinamento de políticas não mascaradas em ambientes com ações inválidas leva à supressão sistemática de ações válidas em estados não visitados devido ao compartilhamento de parâmetros, demonstrando que a classificação de viabilidade oferece uma solução eficaz que elimina essa falha sem a necessidade de máscaras de oráculo.

Renos Zabounidis, Roy Siegelmann, Mohamad Qadri, Woojun Kim, Simon Stepputtis, Katia P. Sycara2026-03-11🤖 cs.LG

Probabilistic Hysteresis Factor Prediction for Electric Vehicle Batteries with Graphite Anodes Containing Silicon

Este trabalho apresenta uma abordagem baseada em dados para a previsão probabilística do fator de histerese em baterias de veículos elétricos com ânodos de silício-grafite, utilizando um framework de harmonização de dados e modelos de aprendizado profundo para melhorar a estimativa do estado de carga (SoC) com quantificação de incerteza e eficiência computacional.

Runyao Yu, Viviana Kleine, Philipp Gromotka, Thomas Rudolf, Adrian Eisenmann, Gautham Ram Chandra Mouli, Peter Palensky, Jochen L. Cremer2026-03-11🤖 cs.LG

Decoupling Reasoning and Confidence: Resurrecting Calibration in Reinforcement Learning from Verifiable Rewards

O artigo propõe o framework DCPO, que decouple os objetivos de raciocínio e calibração para resolver o conflito de gradientes inerente ao Aprendizado por Reforço com Recompensas Verificáveis (RLVR), permitindo que modelos de linguagem grandes mantenham alta precisão enquanto eliminam a superconfiança em respostas incorretas.

Zhengzhao Ma, Xueru Wen, Boxi Cao, Yaojie Lu, Hongyu Lin, Jinglin Yang, Min He, Xianpei Han, Le Sun2026-03-11🤖 cs.LG

Causally Sufficient and Necessary Feature Expansion for Class-Incremental Learning

Este artigo propõe um método de regularização baseado na Probabilidade de Necessidade e Suficiência (PNS) para Aprendizagem Incremental de Classes, que utiliza geradores contrafactuais para mitigar colisões de características causadas por correlações espúrias intra e inter-tarefas, garantindo assim a completude causal e a separabilidade das representações.

Zhen Zhang, Jielei Chu, Tianrui Li2026-03-11🤖 cs.AI

Latent-DARM: Bridging Discrete Diffusion And Autoregressive Models For Reasoning

O artigo apresenta o Latent-DARM, um framework de comunicação em espaço latente que integra modelos de difusão discreta (para planejamento) e modelos autorregressivos (para execução), superando as limitações de interfaces baseadas em texto e alcançando alto desempenho em tarefas de raciocínio com uma fração mínima do orçamento de tokens.

Lina Berrayana, Ahmed Heakl, Abdullah Sohail, Thomas Hofmann, Salman Khan, Wei Chen2026-03-11🤖 cs.AI

The Radio-Frequency Transformer for Signal Separation

Este artigo apresenta um separador de sinais totalmente baseado em dados, que utiliza um tokenizador discreto modificado e um transformer treinado com perda de entropia cruzada para isolar sinais de interesse de interferências não gaussianas, alcançando desempenho superior e generalização zero-shot em misturas de radiofrequência e com potencial aplicação em outras áreas de sensoriamento científico.

Egor Lifar, Semyon Savkin, Rachana Madhukara, Tejas Jayashankar, Yury Polyanskiy, Gregory W. Wornell2026-03-11🤖 cs.LG

MM-Zero: Self-Evolving Multi-Model Vision Language Models From Zero Data

O artigo apresenta o MM-Zero, um framework baseado em aprendizado por reforço que permite a auto-evolução de modelos de linguagem e visão (VLMs) a partir de zero dados, utilizando três papéis especializados (Propositor, Codificador e Solucionador) para gerar conceitos visuais, renderizá-los via código e realizar raciocínio multimodal sem necessidade de dados seminais.

Zongxia Li, Hongyang Du, Chengsong Huang, Xiyang Wu, Lantao Yu, Yicheng He, Jing Xie, Xiaomin Wu, Zhichao Liu, Jiarui Zhang, Fuxiao Liu2026-03-11🤖 cs.LG

Strategically Robust Multi-Agent Reinforcement Learning with Linear Function Approximation

Este artigo propõe o algoritmo \texttt{RQRE-OVI}, que utiliza aproximação linear de funções para calcular o Equilíbrio Quantal de Resposta Sensível ao Risco (RQRE) em jogos de Marko, oferecendo uma solução única, estável e robusta que supera as limitações de ineficiência computacional e fragilidade do Equilíbrio de Nash em espaços de estado grandes ou contínuos.

Jake Gonzales, Max Horwitz, Eric Mazumdar, Lillian J. Ratliff2026-03-11🤖 cs.LG

Beyond Test-Time Training: Learning to Reason via Hardware-Efficient Optimal Control

Este artigo apresenta a camada Test-Time Control (TTC), uma solução de hardware eficiente baseada em controle ótimo e LQR que é integrada a grandes modelos de linguagem para permitir o planejamento e raciocínio durante a inferência, superando significativamente o desempenho em tarefas matemáticas complexas sem a necessidade de treinamento adicional.

Peihao Wang, Shan Yang, Xijun Wang, Tesi Xiao, Xin Liu, Changlong Yu, Yu Lou, Pan Li, Zhangyang Wang, Ming Lin, René Vidal2026-03-11🤖 cs.LG