Overcoming Valid Action Suppression in Unmasked Policy Gradient Algorithms

Este artigo identifica e prova teoricamente que o treinamento de políticas não mascaradas em ambientes com ações inválidas leva à supressão sistemática de ações válidas em estados não visitados devido ao compartilhamento de parâmetros, demonstrando que a classificação de viabilidade oferece uma solução eficaz que elimina essa falha sem a necessidade de máscaras de oráculo.

Renos Zabounidis, Roy Siegelmann, Mohamad Qadri, Woojun Kim, Simon Stepputtis, Katia P. SycaraWed, 11 Ma🤖 cs.LG

Probabilistic Hysteresis Factor Prediction for Electric Vehicle Batteries with Graphite Anodes Containing Silicon

Este trabalho apresenta uma abordagem baseada em dados para a previsão probabilística do fator de histerese em baterias de veículos elétricos com ânodos de silício-grafite, utilizando um framework de harmonização de dados e modelos de aprendizado profundo para melhorar a estimativa do estado de carga (SoC) com quantificação de incerteza e eficiência computacional.

Runyao Yu, Viviana Kleine, Philipp Gromotka, Thomas Rudolf, Adrian Eisenmann, Gautham Ram Chandra Mouli, Peter Palensky, Jochen L. CremerWed, 11 Ma🤖 cs.LG

Decoupling Reasoning and Confidence: Resurrecting Calibration in Reinforcement Learning from Verifiable Rewards

O artigo propõe o framework DCPO, que decouple os objetivos de raciocínio e calibração para resolver o conflito de gradientes inerente ao Aprendizado por Reforço com Recompensas Verificáveis (RLVR), permitindo que modelos de linguagem grandes mantenham alta precisão enquanto eliminam a superconfiança em respostas incorretas.

Zhengzhao Ma, Xueru Wen, Boxi Cao, Yaojie Lu, Hongyu Lin, Jinglin Yang, Min He, Xianpei Han, Le SunWed, 11 Ma🤖 cs.LG

Causally Sufficient and Necessary Feature Expansion for Class-Incremental Learning

Este artigo propõe um método de regularização baseado na Probabilidade de Necessidade e Suficiência (PNS) para Aprendizagem Incremental de Classes, que utiliza geradores contrafactuais para mitigar colisões de características causadas por correlações espúrias intra e inter-tarefas, garantindo assim a completude causal e a separabilidade das representações.

Zhen Zhang, Jielei Chu, Tianrui LiWed, 11 Ma🤖 cs.AI

Latent-DARM: Bridging Discrete Diffusion And Autoregressive Models For Reasoning

O artigo apresenta o Latent-DARM, um framework de comunicação em espaço latente que integra modelos de difusão discreta (para planejamento) e modelos autorregressivos (para execução), superando as limitações de interfaces baseadas em texto e alcançando alto desempenho em tarefas de raciocínio com uma fração mínima do orçamento de tokens.

Lina Berrayana, Ahmed Heakl, Abdullah Sohail, Thomas Hofmann, Salman Khan, Wei ChenWed, 11 Ma🤖 cs.AI

The Radio-Frequency Transformer for Signal Separation

Este artigo apresenta um separador de sinais totalmente baseado em dados, que utiliza um tokenizador discreto modificado e um transformer treinado com perda de entropia cruzada para isolar sinais de interesse de interferências não gaussianas, alcançando desempenho superior e generalização zero-shot em misturas de radiofrequência e com potencial aplicação em outras áreas de sensoriamento científico.

Egor Lifar, Semyon Savkin, Rachana Madhukara, Tejas Jayashankar, Yury Polyanskiy, Gregory W. WornellWed, 11 Ma🤖 cs.LG

MM-Zero: Self-Evolving Multi-Model Vision Language Models From Zero Data

O artigo apresenta o MM-Zero, um framework baseado em aprendizado por reforço que permite a auto-evolução de modelos de linguagem e visão (VLMs) a partir de zero dados, utilizando três papéis especializados (Propositor, Codificador e Solucionador) para gerar conceitos visuais, renderizá-los via código e realizar raciocínio multimodal sem necessidade de dados seminais.

Zongxia Li, Hongyang Du, Chengsong Huang, Xiyang Wu, Lantao Yu, Yicheng He, Jing Xie, Xiaomin Wu, Zhichao Liu, Jiarui Zhang, Fuxiao LiuWed, 11 Ma🤖 cs.LG

Strategically Robust Multi-Agent Reinforcement Learning with Linear Function Approximation

Este artigo propõe o algoritmo \texttt{RQRE-OVI}, que utiliza aproximação linear de funções para calcular o Equilíbrio Quantal de Resposta Sensível ao Risco (RQRE) em jogos de Marko, oferecendo uma solução única, estável e robusta que supera as limitações de ineficiência computacional e fragilidade do Equilíbrio de Nash em espaços de estado grandes ou contínuos.

Jake Gonzales, Max Horwitz, Eric Mazumdar, Lillian J. RatliffWed, 11 Ma🤖 cs.LG

Beyond Test-Time Training: Learning to Reason via Hardware-Efficient Optimal Control

Este artigo apresenta a camada Test-Time Control (TTC), uma solução de hardware eficiente baseada em controle ótimo e LQR que é integrada a grandes modelos de linguagem para permitir o planejamento e raciocínio durante a inferência, superando significativamente o desempenho em tarefas matemáticas complexas sem a necessidade de treinamento adicional.

Peihao Wang, Shan Yang, Xijun Wang, Tesi Xiao, Xin Liu, Changlong Yu, Yu Lou, Pan Li, Zhangyang Wang, Ming Lin, René VidalWed, 11 Ma🤖 cs.LG

A Generative Sampler for distributions with possible discrete parameter based on Reversibility

Este artigo propõe um framework unificado de amostragem generativa, baseado na reversibilidade temporal e na minimização da discrepância máxima de média (MMD) entre trajetórias de Markov, que permite amostrar distribuições complexas em espaços contínuos, discretos ou híbridos sem depender de gradientes de pontuação ou relaxações contínuas, utilizando apenas avaliações de energia.

Lei Li, Zhen Wang, Lishuo ZhangWed, 11 Ma🤖 cs.LG