Planner Aware Path Learning in Diffusion Language Models Training

Este artigo apresenta o Planner Aware Path Learning (PAPL), um novo esquema de treinamento que deriva uma nova evidência inferior planejada (P-ELBO) para alinhar o treinamento e a inferência em modelos de difusão de linguagem, corrigindo a incompatibilidade causada por estratégias de planejamento e resultando em melhorias significativas na geração de texto, código e sequências de proteínas.

Fred Zhangzhi Peng, Zachary Bezemek, Jarrid Rector-Brooks, Shuibai Zhang, Anru R. Zhang, Michael Bronstein, Alexander Tong, Avishek Joey Bose2026-03-09🤖 cs.LG

Diffusion Alignment as Variational Expectation-Maximization

O artigo apresenta o DAV, um novo framework que formula o alinhamento de modelos de difusão como um processo variacional de Expectation-Maximization, alternando entre busca no momento de teste para gerar amostras diversas e alinhadas a recompensas e a refinamento do modelo, superando assim problemas como a superotimização de recompensas e o colapso de modos em tarefas contínuas e discretas.

Jaewoo Lee, Minsu Kim, Sanghyeok Choi, Inhyuck Song, Sujin Yun, Hyeongyu Kang, Woocheol Shin, Taeyoung Yun, Kiyoung Om, Jinkyoo Park2026-03-09🤖 cs.LG

Online Minimization of Polarization and Disagreement via Low-Rank Matrix Bandits

Este artigo propõe um algoritmo de duas etapas baseado em bandits de matriz de baixo posto para minimizar a polarização e o desacordo no modelo de dinâmica de opiniões de Friedkin-Johnsen em um cenário online com informações incompletas, alcançando um limite de arrependimento cumulativo que supera abordagens lineares existentes.

Federico Cinus, Yuko Kuroki, Atsushi Miyauchi, Francesco Bonchi2026-03-09🤖 cs.LG

Self-Speculative Masked Diffusions

O artigo apresenta as "Self-Speculative Masked Diffusions", um novo modelo de difusão mascarada para dados discretos que utiliza amostragem especulativa integrada ao modelo para gerar previsões não fatorizadas em uma única passagem, reduzindo em cerca de duas vezes o número de avaliações de rede neural necessárias para a geração de amostras de alta qualidade em comparação com os modelos padrão.

Andrew Campbell, Valentin De Bortoli, Jiaxin Shi, Arnaud Doucet2026-03-09🤖 cs.LG

Decoding Partial Differential Equations: Cross-Modal Adaptation of Decoder-only Models to PDEs

Este artigo demonstra que, embora os modelos de linguagem apenas decodificadores (decoder-only) performem pior que os baseados em codificadores (encoder-only) na adaptação para equações diferenciais parciais, o uso de duas novas técnicas que simulam bidirecionalidade, chamadas "Parallel Flipping" e "Sequence Doubling", permite que os modelos decoder-only alcancem desempenho comparável, fechando a lacuna de performance.

Paloma García-de-Herreros, Philipp Slusallek, Dietrich Klakow, Vagrant Gautam2026-03-09🤖 cs.LG

Mixed Monotonicity Reachability Analysis of Neural ODE: A Trade-Off Between Tightness and Efficiency

Este artigo propõe um novo método de análise de alcançabilidade baseado em intervalos para Redes Neurais de Equações Diferenciais Ordinárias (Neural ODEs), que utiliza técnicas de monotonicidade mista para oferecer aproximações superiores computacionalmente eficientes e adequadas a aplicações de alta dimensão e tempo real, priorizando a eficiência em detrimento da precisão máxima.

Abdelrahman Sayed Sayed, Pierre-Jean Meyer, Mohamed Ghazel2026-03-09🤖 cs.LG

Real-Time Learning of Predictive Dynamic Obstacle Models for Robotic Motion Planning

Este artigo apresenta um framework online que utiliza a decomposição de modo dinâmico de Hankel (Hankel-DMD) com projeção de Cadzow e thresholding de valor singular para aprender em tempo real modelos preditivos não lineares de obstáculos dinâmicos, permitindo a remoção de ruído e a previsão de trajetórias para planejamento de movimento robótico seguro.

Stella Kombo, Masih Haseli, Skylar X. Wei, Joel W. Burdick2026-03-09🤖 cs.LG

FireScope: Wildfire Risk Prediction with a Chain-of-Thought Oracle

O artigo apresenta o FireScope, um novo framework baseado em modelos de linguagem visual que utiliza raciocínio passo a passo para prever mapas de risco de incêndio com alta generalização entre continentes, apoiado pelo conjunto de dados e benchmark FireScope-Bench.

Mario Markov (INSAIT, Sofia University "St. Kliment Ohridski"), Stefan Maria Ailuro (INSAIT, Sofia University "St. Kliment Ohridski"), Luc Van Gool (INSAIT, Sofia University "St. Kliment Ohridski"), Konrad Schindler (ETH Zurich), Danda Pani Paudel (INSAIT, Sofia University "St. Kliment Ohridski")2026-03-09🤖 cs.LG

Whatever Remains Must Be True: Filtering Drives Reasoning in LLMs, Shaping Diversity

Este trabalho propõe um método que utiliza a família de divergências α\alpha para aproximar uma distribuição-alvo filtrada, permitindo controlar o compromisso entre precisão e diversidade em modelos de linguagem e alcançando desempenho superior em provas de teoremas ao superar as limitações de perda de diversidade típicas do Aprendizado por Reforço.

Germán Kruszewski, Pierre Erbacher, Jos Rozen, Marc Dymetman2026-03-09🤖 cs.AI