Generalization Properties of Score-matching Diffusion Models for Intrinsically Low-dimensional Data

Este trabalho estabelece limites de erro de amostragem finita para modelos de difusão baseados em pontuação, demonstrando que eles se adaptam à estrutura intrínseca de baixa dimensão dos dados e superam a maldição da dimensionalidade, com taxas de convergência que dependem da dimensão de Wasserstein (p,q)(p,q) da distribuição em vez da dimensão ambiente.

Saptarshi Chakraborty, Quentin Berthet, Peter L. Bartlett2026-03-05🤖 cs.AI

JANUS: Structured Bidirectional Generation for Guaranteed Constraints and Analytical Uncertainty

O artigo apresenta o JANUS, um novo framework que unifica a geração de dados sintéticos de alta fidelidade, o controle rigoroso de restrições lógicas complexas e a estimativa eficiente de incerteza, superando as limitações dos modelos atuais ao utilizar uma estrutura de árvores de decisão bayesianas com um algoritmo de preenchimento reverso que garante 100% de satisfação das restrições sem necessidade de rejeição.

Taha Racicot2026-03-05🤖 cs.AI

Learning Approximate Nash Equilibria in Cooperative Multi-Agent Reinforcement Learning via Mean-Field Subsampling

Este artigo propõe e analisa o framework de aprendizado alternado ALTERNATING-MARL\texttt{ALTERNATING-MARL}, que permite a um agente global e a uma população massiva de agentes locais em sistemas com restrições de comunicação convergirem para um Equilíbrio de Nash aproximado com complexidade de amostra reduzida, validando a eficácia da abordagem em simulações de controle multi-robô e otimização federada.

Emile Anand, Ishani Karmarkar2026-03-05🤖 cs.AI

LEA: Label Enumeration Attack in Vertical Federated Learning

Este artigo apresenta a LEA (Ataque de Enumeração de Rótulos), um novo método de ataque à privacidade em Aprendizado Federado Vertical que, sem necessidade de dados auxiliares, enumera mapeamentos de rótulos utilizando similaridade de gradientes e uma estratégia binária otimizada para superar limitações de cenários anteriores e resistir a mecanismos de defesa comuns.

Wenhao Jiang, Shaojing Fu, Yuchuan Luo + 1 more2026-03-05🤖 cs.LG

Pretrained Vision-Language-Action Models are Surprisingly Resistant to Forgetting in Continual Learning

Este trabalho demonstra que modelos pré-treinados de Visão-Linguagem-Ação (VLA) são surpreendentemente resistentes ao esquecimento no aprendizado contínuo, permitindo que técnicas simples de replay de experiências adquiram novas habilidades sem esquecer as anteriores, graças ao papel fundamental do pré-treinamento em grande escala.

Huihan Liu, Changyeon Kim, Bo Liu + 2 more2026-03-05🤖 cs.AI

Fairness Begins with State: Purifying Latent Preferences for Hierarchical Reinforcement Learning in Interactive Recommendation

Este artigo apresenta o DSRM-HRL, um framework que reformula a recomendação justa como um problema de purificação de estado latente usando modelos de difusão para remover ruídos de feedback implícito, seguido por uma tomada de decisão hierárquica que desacopla a otimização de engajamento de curto prazo da regulação de equidade de longo prazo, alcançando assim um equilíbrio superior entre utilidade e justiça nas recomendações interativas.

Yun Lu, Xiaoyu Shi, Hong Xie + 2 more2026-03-05🤖 cs.AI

In-Context Environments Induce Evaluation-Awareness in Language Models

Este artigo demonstra que prompts adversarialmente otimizados podem induzir modelos de linguagem a "sandbagging" (subdesempenho estratégico) ao explorarem a consciência de avaliação, causando degradações drásticas no desempenho em tarefas específicas e revelando que essa vulnerabilidade é governada pela estrutura da tarefa e por um raciocínio causal de avaliação, e não apenas pela força do prompt.

Maheep Chaudhary2026-03-05🤖 cs.AI