MM-Zero: Self-Evolving Multi-Model Vision Language Models From Zero Data

O artigo apresenta o MM-Zero, um framework baseado em aprendizado por reforço que permite a auto-evolução de modelos de linguagem e visão (VLMs) a partir de zero dados, utilizando três papéis especializados (Propositor, Codificador e Solucionador) para gerar conceitos visuais, renderizá-los via código e realizar raciocínio multimodal sem necessidade de dados seminais.

Zongxia Li, Hongyang Du, Chengsong Huang, Xiyang Wu, Lantao Yu, Yicheng He, Jing Xie, Xiaomin Wu, Zhichao Liu, Jiarui Zhang, Fuxiao Liu2026-03-11🤖 cs.LG

Strategically Robust Multi-Agent Reinforcement Learning with Linear Function Approximation

Este artigo propõe o algoritmo \texttt{RQRE-OVI}, que utiliza aproximação linear de funções para calcular o Equilíbrio Quantal de Resposta Sensível ao Risco (RQRE) em jogos de Marko, oferecendo uma solução única, estável e robusta que supera as limitações de ineficiência computacional e fragilidade do Equilíbrio de Nash em espaços de estado grandes ou contínuos.

Jake Gonzales, Max Horwitz, Eric Mazumdar, Lillian J. Ratliff2026-03-11🤖 cs.LG

Beyond Test-Time Training: Learning to Reason via Hardware-Efficient Optimal Control

Este artigo apresenta a camada Test-Time Control (TTC), uma solução de hardware eficiente baseada em controle ótimo e LQR que é integrada a grandes modelos de linguagem para permitir o planejamento e raciocínio durante a inferência, superando significativamente o desempenho em tarefas matemáticas complexas sem a necessidade de treinamento adicional.

Peihao Wang, Shan Yang, Xijun Wang, Tesi Xiao, Xin Liu, Changlong Yu, Yu Lou, Pan Li, Zhangyang Wang, Ming Lin, René Vidal2026-03-11🤖 cs.LG

A Generative Sampler for distributions with possible discrete parameter based on Reversibility

Este artigo propõe um framework unificado de amostragem generativa, baseado na reversibilidade temporal e na minimização da discrepância máxima de média (MMD) entre trajetórias de Markov, que permite amostrar distribuições complexas em espaços contínuos, discretos ou híbridos sem depender de gradientes de pontuação ou relaxações contínuas, utilizando apenas avaliações de energia.

Lei Li, Zhen Wang, Lishuo Zhang2026-03-11🤖 cs.LG

Transductive Generalization via Optimal Transport and Its Application to Graph Node Classification

Este trabalho estabelece novos limites de generalização transdutiva baseados em transporte ótimo e distâncias de Wasserstein para classificação de nós em grafos, demonstrando que são computacionalmente eficientes, correlacionam-se fortemente com o desempenho empírico e revelam como o processo de agregação de GNNs cria um compromisso entre concentração intraclasse e separação interclasse que explica a relação não monotônica entre profundidade e erro de generalização.

MoonJeong Park, Seungbeom Lee, Kyungmin Kim, Jaeseung Heo, Seunghyuk Cho, Shouheng Li, Sangdon Park, Dongwoo Kim2026-03-11🤖 cs.LG

DendroNN: Dendrocentric Neural Networks for Energy-Efficient Classification of Event-Based Data

O artigo apresenta o DendroNN, uma rede neural centrada em dendritos que utiliza um mecanismo de detecção de sequências de pulsos e uma fase de reconfiguração sem gradientes para classificar dados baseados em eventos com alta eficiência energética, superando hardware neuromórfico atual em até quatro vezes na mesma tarefa de classificação de áudio.

Jann Krausse, Zhe Su, Kyrus Mama, Maryada, Klaus Knobloch, Giacomo Indiveri, Jürgen Becker2026-03-11🤖 cs.AI

On Regret Bounds of Thompson Sampling for Bayesian Optimization

Este artigo preenche lacunas na análise do Thompson Sampling com Processos Gaussianos (GP-TS) ao estabelecer limites de arrependimento inferiores e superiores, incluindo limites de segundo momento, arrependimento "leniente" esperado e uma melhoria no limite cumulativo em relação ao horizonte temporal TT, superando as limitações anteriores que se restringiam principalmente a limites de arrependimento esperados.

Shion Takeno, Shogo Iwazaki2026-03-11🤖 cs.LG

Reward-Zero: Language Embedding Driven Implicit Reward Mechanisms for Reinforcement Learning

O artigo apresenta o Reward-Zero, um mecanismo de recompensa implícita que utiliza embeddings de linguagem para transformar descrições de tarefas em sinais de progresso densos e semanticamente alinhados, acelerando o treinamento e melhorando a generalização em aprendizado por reforço sem a necessidade de engenharia de recompensas específica para cada tarefa.

Heng Zhang, Haddy Alchaer, Arash Ajoudani, Yu She2026-03-11🤖 cs.LG

Interactive 3D visualization of surface roughness predictions in additive manufacturing: A data-driven framework

Este artigo apresenta um framework baseado em dados que combina um regressor de perceptron multicamadas e uma rede generativa adversarial condicional para prever a rugosidade superficial na manufatura aditiva por extrusão de material, integrando essas previsões a uma interface web interativa que visualiza a rugosidade em modelos 3D para auxiliar no planejamento de processos e orientação de peças.

Engin Deniz Erkan, Elif Surer, Ulas Yaman2026-03-11🤖 cs.LG

Democratising Clinical AI through Dataset Condensation for Classical Clinical Models

Este artigo propõe um framework de otimização de ordem zero com privacidade diferencial que estende a condensação de dados para modelos clínicos não diferenciáveis, permitindo a criação de conjuntos de dados sintéticos compactos que preservam a utilidade preditiva e garantem a segurança das informações dos pacientes para compartilhamento democrático.

Anshul Thakur, Soheila Molaei, Pafue Christy Nganjimi, Joshua Fieggen, Andrew A. S. Soltan, Danielle Belgrave, Lei Clifton, David A. Clifton2026-03-11🤖 cs.AI

From Representation to Clusters: A Contrastive Learning Approach for Attributed Hypergraph Clustering

O artigo propõe o CAHC, um método de aprendizado contrastivo de ponta a ponta para agrupamento de hipergrafos atribuídos que integra simultaneamente a aprendizagem de representações e a atribuição de clusters, superando as abordagens tradicionais ao fornecer supervisão direta de agrupamento e alcançar desempenho superior em oito conjuntos de dados.

Li Ni, Shuaikang Zeng, Lin Mu, Longlong Lin2026-03-11🤖 cs.LG

Flow Field Reconstruction via Voronoi-Enhanced Physics-Informed Neural Networks with End-to-End Sensor Placement Optimization

Este estudo propõe a VSOPINN, uma rede neural baseada em física aprimorada com otimização de sensores via diagramas de Voronoi, que permite a reconstrução precisa e robusta de campos de fluxo a partir de medições esparsas e a otimização integrada do posicionamento dos sensores.

Renjie Xiao, Bingteng Sun, Yiling Chen, Lin Lu, Qiang Du, Junqiang Zhu2026-03-11🤖 cs.LG

SPAARS: Safer RL Policy Alignment through Abstract Exploration and Refined Exploitation of Action Space

O artigo apresenta o SPAARS, um framework de aprendizado por reforço offline-to-online que utiliza uma exploração curricular segura no espaço latente para superar as limitações de desempenho dos métodos baseados em CVAE, transferindo o controle para o espaço de ações bruto e alcançando maior eficiência de amostragem e retornos superiores em tarefas de robótica.

Swaminathan S K, Aritra Hazra2026-03-11🤖 cs.AI

Reviving ConvNeXt for Efficient Convolutional Diffusion Models

O artigo apresenta o FCDM, um modelo de difusão totalmente convolucional baseado no ConvNeXt que, ao utilizar apenas 50% dos FLOPs do DiT-XL/2, alcança desempenho competitivo com significativamente menos etapas de treinamento e maior eficiência, demonstrando que arquiteturas convolucionais modernas são uma alternativa viável e eficiente para a geração de imagens.

Taesung Kwon, Lorenzo Bianchi, Lennart Wittke, Felix Watine, Fabio Carrara, Jong Chul Ye, Romann Weber, Vinicius Azevedo2026-03-11🤖 cs.AI