Temporal Misalignment Attacks against Multimodal Perception in Autonomous Driving

O artigo apresenta o DejaVu, um ataque que explora desalinhamentos temporais sutis na rede veicular para manipular a fusão multimodal de sensores em veículos autônomos, degradando drasticamente tarefas de percepção como detecção e rastreamento de objetos e provocando falhas críticas como colisões e frenagens fantasma.

Md Hasan Shahriar, Md Mohaimin Al Barat, Harshavardhan Sundar, Ning Zhang, Naren Ramakrishnan, Y. Thomas Hou, Wenjing Lou2026-03-09🤖 cs.LG

Diverse and Adaptive Behavior Curriculum for Autonomous Driving: A Student-Teacher Framework with Multi-Agent RL

Este trabalho apresenta um novo framework de aprendizado por reforço multiagente com arquitetura aluno-professor que gera automaticamente um currículo adaptativo de comportamentos de tráfego, permitindo que veículos autônomos aprendam a lidar de forma equilibrada e segura com cenários que variam do rotineiro ao crítico, superando as limitações dos métodos baseados em regras.

Ahmed Abouelazm, Johannes Ratz, Philip Schörner, J. Marius Zöllner2026-03-09🤖 cs.LG

Multivariate Fields of Experts for Convergent Image Reconstruction

O artigo apresenta os "campos de especialistas multivariados", um novo framework para aprendizado de priors de imagem que generaliza métodos existentes através de funções potenciais multivariadas, oferecendo reconstrução superior em diversos problemas inversos com maior velocidade, menor complexidade e garantias teóricas de convergência em comparação a modelos univariados e de aprendizado profundo.

Stanislas Ducotterd, Michael Unser2026-03-09🤖 cs.LG

Characterizing Evolution in Expectation-Maximization Estimates for Overspecified Mixed Linear Regression

Este artigo estabelece uma compreensão teórica do comportamento do algoritmo Expectation-Maximization em regressão linear mista com dois componentes superespecificados, demonstrando que a taxa de convergência e a precisão estatística dependem criticamente do equilíbrio das ponderações iniciais, variando de convergência linear e precisão O((d/n)1/2)O((d/n)^{1/2}) para cenários desbalanceados até convergência sublinear e precisão O((d/n)1/4)O((d/n)^{1/4}) para cenários balanceados.

Zhankun Luo, Abolfazl Hashemi2026-03-09🤖 cs.LG

Kernel VICReg for Self-Supervised Learning in Reproducing Kernel Hilbert Space

O artigo propõe o Kernel VICReg, um novo framework de aprendizado auto-supervisionado que leva o objetivo VICReg para um Espaço de Hilbert de Reprodutor de Kernel (RKHS) para capturar dependências não lineares e melhorar a representação de dados sem rótulos, demonstrando ganhos consistentes sobre métodos euclidianos em diversos conjuntos de dados.

M. Hadi Sepanj, Benyamin Ghojogh, Saed Moradi, Paul Fieguth2026-03-09🤖 cs.LG

One Model for All Tasks: Leveraging Efficient World Models in Multi-Task Planning

O artigo apresenta o ScaleZero, um modelo único para planejamento multi-tarefa que combina uma arquitetura Mixture-of-Experts e uma estratégia de Escalonamento Dinâmico de Parâmetros (DPS) online para mitigar conflitos de gradiente e otimizar a alocação de capacidade, alcançando desempenho comparável a agentes especializados com menor interação com o ambiente.

Yuan Pu, Yazhe Niu, Jia Tang, Junyu Xiong, Shuai Hu, Hongsheng Li2026-03-09🤖 cs.LG

VEGA: Electric Vehicle Navigation Agent via Physics-Informed Neural Operator and Proximal Policy Optimization

O artigo apresenta o VEGA, um sistema de navegação para veículos elétricos que combina um operador neural informado por física para estimar parâmetros do veículo e um agente de aprendizado por reforço (PPO) para planejar rotas e paradas de recarga de forma eficiente, demonstrando resultados superiores em tempo de viagem e velocidade de inferência em comparação com métodos tradicionais.

Hansol Lim, Minhyeok Im, Jonathan Boyack, Jee Won Lee, Jongseong Brad Choi2026-03-09🤖 cs.LG

Spectral/Spatial Tensor Atomic Cluster Expansion with Universal Embeddings in Cartesian Space

O artigo apresenta a Expansão Atômica de Cluster Tensorial (TACE), um modelo de aprendizado de máquina unificado que utiliza tensores cartesianos irreduzíveis para representar de forma eficiente e universal tanto propriedades invariantes quanto equivariantes em sistemas moleculares e materiais, superando as limitações de complexidade dos métodos baseados em tensores esféricos.

Zemin Xu, Wenbo Xie, P. Hu2026-03-09🔬 cond-mat.mtrl-sci

C^2Prompt: Class-aware Client Knowledge Interaction for Federated Continual Learning

O artigo apresenta o C²Prompt, um novo método para aprendizado contínuo federado que mitiga o esquecimento temporal e espacial ao aprimorar a coerência do conhecimento entre classes por meio de um mecanismo de compensação de distribuição local e um esquema de agregação de prompts consciente das classes, alcançando desempenho superior em diversos benchmarks.

Kunlun Xu, Yibo Feng, Jiangmeng Li, Yongsheng Qi, Jiahuan Zhou2026-03-09🤖 cs.LG

Auto-Regressive U-Net for Full-Field Prediction of Shrinkage-Induced Damage in Concrete

Este artigo apresenta uma abordagem de aprendizado profundo baseada em uma arquitetura de U-Net auto-regressiva combinada com uma rede neural convolucional para prever com eficiência computacional a evolução do dano induzido por retração em concreto e suas propriedades mecânicas, visando otimizar o projeto de misturas para maior durabilidade.

Liya Gaynutdinova, Petr Havlásek, Ondřej Rokoš, Fleur Hendriks, Martin Doškář2026-03-09🤖 cs.LG

Planner Aware Path Learning in Diffusion Language Models Training

Este artigo apresenta o Planner Aware Path Learning (PAPL), um novo esquema de treinamento que deriva uma nova evidência inferior planejada (P-ELBO) para alinhar o treinamento e a inferência em modelos de difusão de linguagem, corrigindo a incompatibilidade causada por estratégias de planejamento e resultando em melhorias significativas na geração de texto, código e sequências de proteínas.

Fred Zhangzhi Peng, Zachary Bezemek, Jarrid Rector-Brooks, Shuibai Zhang, Anru R. Zhang, Michael Bronstein, Alexander Tong, Avishek Joey Bose2026-03-09🤖 cs.LG

Diffusion Alignment as Variational Expectation-Maximization

O artigo apresenta o DAV, um novo framework que formula o alinhamento de modelos de difusão como um processo variacional de Expectation-Maximization, alternando entre busca no momento de teste para gerar amostras diversas e alinhadas a recompensas e a refinamento do modelo, superando assim problemas como a superotimização de recompensas e o colapso de modos em tarefas contínuas e discretas.

Jaewoo Lee, Minsu Kim, Sanghyeok Choi, Inhyuck Song, Sujin Yun, Hyeongyu Kang, Woocheol Shin, Taeyoung Yun, Kiyoung Om, Jinkyoo Park2026-03-09🤖 cs.LG

Online Minimization of Polarization and Disagreement via Low-Rank Matrix Bandits

Este artigo propõe um algoritmo de duas etapas baseado em bandits de matriz de baixo posto para minimizar a polarização e o desacordo no modelo de dinâmica de opiniões de Friedkin-Johnsen em um cenário online com informações incompletas, alcançando um limite de arrependimento cumulativo que supera abordagens lineares existentes.

Federico Cinus, Yuko Kuroki, Atsushi Miyauchi, Francesco Bonchi2026-03-09🤖 cs.LG

Self-Speculative Masked Diffusions

O artigo apresenta as "Self-Speculative Masked Diffusions", um novo modelo de difusão mascarada para dados discretos que utiliza amostragem especulativa integrada ao modelo para gerar previsões não fatorizadas em uma única passagem, reduzindo em cerca de duas vezes o número de avaliações de rede neural necessárias para a geração de amostras de alta qualidade em comparação com os modelos padrão.

Andrew Campbell, Valentin De Bortoli, Jiaxin Shi, Arnaud Doucet2026-03-09🤖 cs.LG

Decoding Partial Differential Equations: Cross-Modal Adaptation of Decoder-only Models to PDEs

Este artigo demonstra que, embora os modelos de linguagem apenas decodificadores (decoder-only) performem pior que os baseados em codificadores (encoder-only) na adaptação para equações diferenciais parciais, o uso de duas novas técnicas que simulam bidirecionalidade, chamadas "Parallel Flipping" e "Sequence Doubling", permite que os modelos decoder-only alcancem desempenho comparável, fechando a lacuna de performance.

Paloma García-de-Herreros, Philipp Slusallek, Dietrich Klakow, Vagrant Gautam2026-03-09🤖 cs.LG