Data-driven robust Markov decision processes on Borel spaces: performance guarantees via an axiomatic approach

Este artigo apresenta uma abordagem axiomática para processos de decisão de Markov robustos em espaços de Borel com distribuições de perturbação desconhecidas, demonstrando que, ao definir conjuntos de ambiguidade baseados em funções de distância, é possível garantir limites de desempenho fora da amostra com alta probabilidade e taxas de convergência que os processos empíricos tradicionais não conseguem oferecer.

Sivaramakrishnan RamaniWed, 11 Ma🤖 cs.LG

Statistical Inference via Generative Models: Flow Matching and Causal Inference

Este livro propõe uma reinterpretação estatística da IA generativa, utilizando o Flow Matching como exemplo central para transformar modelos generativos em ferramentas de inferência estatística rigorosa que permitem imputação de dados, análise contrafactual e inferência causal em problemas de alta dimensionalidade, mantendo a validade inferencial através de técnicas como ortogonalização e cross-fitting.

Shinto EguchiWed, 11 Ma🤖 cs.LG

Verifying Good Regulator Conditions for Hypergraph Observers: Natural Gradient Learning from Causal Invariance via Established Theorems

Este artigo verifica que observadores persistentes em substratos de hipergrafos satisfazem o Teorema do Bom Regulador de Conant-Ashby, demonstrando que a descida de gradiente natural é a regra de aprendizado admissível e derivando um parâmetro de regime específico para o framework de Vanchurin, embora essa previsão seja fortemente dependente do modelo escolhido.

Max ZhuravlevWed, 11 Ma🤖 cs.LG

A Generative Sampler for distributions with possible discrete parameter based on Reversibility

Este artigo propõe um framework unificado de amostragem generativa, baseado na reversibilidade temporal e na minimização da discrepância máxima de média (MMD) entre trajetórias de Markov, que permite amostrar distribuições complexas em espaços contínuos, discretos ou híbridos sem depender de gradientes de pontuação ou relaxações contínuas, utilizando apenas avaliações de energia.

Lei Li, Zhen Wang, Lishuo ZhangWed, 11 Ma🤖 cs.LG

Transductive Generalization via Optimal Transport and Its Application to Graph Node Classification

Este trabalho estabelece novos limites de generalização transdutiva baseados em transporte ótimo e distâncias de Wasserstein para classificação de nós em grafos, demonstrando que são computacionalmente eficientes, correlacionam-se fortemente com o desempenho empírico e revelam como o processo de agregação de GNNs cria um compromisso entre concentração intraclasse e separação interclasse que explica a relação não monotônica entre profundidade e erro de generalização.

MoonJeong Park, Seungbeom Lee, Kyungmin Kim, Jaeseung Heo, Seunghyuk Cho, Shouheng Li, Sangdon Park, Dongwoo KimWed, 11 Ma🤖 cs.LG

On Regret Bounds of Thompson Sampling for Bayesian Optimization

Este artigo preenche lacunas na análise do Thompson Sampling com Processos Gaussianos (GP-TS) ao estabelecer limites de arrependimento inferiores e superiores, incluindo limites de segundo momento, arrependimento "leniente" esperado e uma melhoria no limite cumulativo em relação ao horizonte temporal TT, superando as limitações anteriores que se restringiam principalmente a limites de arrependimento esperados.

Shion Takeno, Shogo IwazakiWed, 11 Ma🤖 cs.LG

Robust Regularized Policy Iteration under Transition Uncertainty

O artigo apresenta a Robust Regularized Policy Iteration (RRPI), um novo método de aprendizado por reforço offline que formula a otimização da política como um problema robusto sob incerteza de transição, substituindo um objetivo bilevel intratável por um surrogate regularizado por KL para garantir convergência e desempenho superior em benchmarks como o D4RL.

Hongqiang Lin, Zhenghui Fu, Weihao Tang, Pengfei Wang, Yiding Sun, Qixian Huang, Dongxu ZhangWed, 11 Ma🤖 cs.AI

Variational Routing: A Scalable Bayesian Framework for Calibrated Mixture-of-Experts Transformers

Este trabalho apresenta o VMoER, uma abordagem bayesiana estruturada que confere quantificação de incerteza calibrada e escalável aos modelos de mistura de especialistas (MoE) ao aplicar inferência variacional apenas na etapa de roteamento, melhorando significativamente a estabilidade, a calibração e a detecção de dados fora da distribuição com um custo computacional marginal.

Albus Yizhuo Li, Matthew WickerWed, 11 Ma🤖 cs.AI

What Do We Care About in Bandits with Noncompliance? BRACE: Bandits with Recommendations, Abstention, and Certified Effects

O artigo apresenta o BRACE, um algoritmo sem parâmetros para bandits com não conformidade que resolve o dilema de escolha de objetivos entre o bem-estar das recomendações e o aprendizado de tratamentos, garantindo validação simultânea de políticas e intervalos estruturais honestos mesmo sob identificação fraca ou falha de homogeneidade.

Nicolás Della PennaWed, 11 Ma🤖 cs.LG

MM-algorithms for traditional and convex NMF with Tweedie and Negative Binomial cost functions and empirical evaluation

Este artigo apresenta um quadro unificado para a fatoração de matrizes não negativas (NMF) tradicional e convexa, utilizando funções de custo baseadas nas distribuições Tweedie e Binomial Negativa, derivando regras de atualização multiplicativa via algoritmos MM e validando empiricamente a superioridade desses modelos em dados com sobredispersão.

Elisabeth Sommer James, Asger Hobolth, Marta PelizzolaWed, 11 Ma🤖 cs.LG

Murmurations: a case study in AI-assisted mathematics

Este artigo relata a descoberta experimental de um novo fenômeno aritmético chamado "murmurações", que, embora identificado por meio de ferramentas de inteligência artificial, constitui um conceito genuíno na teoria dos números que codifica informações sobre traços de Frobenius e se conecta a temas centrais como a conjectura de Birch e Swinnerton-Dyer e a teoria de matrizes aleatórias.

Yang-Hui He, Kyu-Hwan Lee, Thomas Oliver, Alexey PozdnyakovWed, 11 Ma📊 stat

Upper Generalization Bounds for Neural Oscillators

Este artigo estabelece limites superiores de generalização para osciladores neurais baseados em equações diferenciais de segunda ordem, demonstrando teoricamente que seus erros de estimação crescem polinomialmente com o tamanho da rede e o tempo, evitando a maldição da complexidade paramétrica, e validando que a regularização das constantes de Lipschitz melhora o desempenho em sistemas não lineares sob excitação sísmica estocástica.

Zifeng Huang, Konstantin M. Zuev, Yong Xia, Michael BeerWed, 11 Ma🤖 cs.LG

A Unified Hierarchical Multi-Task Multi-Fidelity Framework for Data-Efficient Surrogate Modeling in Manufacturing

Este artigo apresenta um novo framework hierárquico de aprendizado multi-tarefa e multi-fidelidade baseado em processos gaussianos que unifica a exploração de similaridades entre tarefas e a heterogeneidade dos dados para criar modelos substitutos mais precisos e eficientes em termos de dados para sistemas de manufatura.

Manan Mehta, Zhiqiao Dong, Yuhang Yang, Chenhui ShaoWed, 11 Ma🤖 cs.LG

On the Width Scaling of Neural Optimizers Under Matrix Operator Norms I: Row/Column Normalization and Hyperparameter Transfer

Este artigo propõe uma nova família de normas de operador normalizadas por média que permitem o controle independente da largura das constantes de Lipschitz e suavidade, resultando no otimizador MOGA, que garante transferência estável de taxas de aprendizado entre diferentes larguras de modelo e supera o Muon em regimes de baixa perda e grandes tokens.

Ruihan Xu, Jiajin Li, Yiping LuWed, 11 Ma🤖 cs.LG