A Quantitative Characterization of Forgetting in Post-Training

Este artigo estabelece uma caracterização quantitativa do esquecimento no pós-treinamento contínuo de modelos generativos, demonstrando teoricamente como a direção da divergência de KL (forward vs. reverse), a sobreposição geométrica das distribuições e o uso de replay determinam se ocorre colapso de massa ou deriva de componentes, fornecendo condições explícitas para mitigar esses efeitos em métodos recentes.

Krishnakumar Balasubramanian, Shiva Prasad KasiviswanathanFri, 13 Ma📊 stat

Logarithmic Regret for Online KL-Regularized Reinforcement Learning

Este artigo propõe um algoritmo de bandito contextual online baseado em otimismo para RL regularizado por KL, demonstrando que a paisagem de otimização benigna induzida pela regularização permite alcançar limites de arrependimento logarítmico tanto em contextos de bandito quanto em aprendizado por reforço completo, superando as limitações de trabalhos teóricos anteriores.

Heyang Zhao, Chenlu Ye, Wei Xiong + 2 more2026-03-12📊 stat

Geopolitics, Geoeconomics, and Sovereign Risk: Different Shocks, Different Channels

Este artigo demonstra que choques geopolíticos e geoeconômicos afetam o risco soberano por canais distintos, formando um padrão de "tesoura" onde os efeitos diretos e os do ciclo financeiro global se movem em direções opostas, implicando que a liquidez pode mitigar apenas a componente mediada pelo ciclo financeiro e não o prêmio de risco geopolítico persistente.

Alvaro Ortiz, Tomasa Rodrigo, Pablo Saborido2026-03-12📊 stat

A Bandit-Based Approach to Educational Recommender Systems: Contextual Thompson Sampling for Learner Skill Gain Optimization

Este artigo apresenta uma abordagem baseada em bandit contextual, utilizando amostragem de Thompson, para otimizar a sequência personalizada de exercícios em sistemas de recomendação educacional, demonstrando que tal método maximiza o ganho de habilidades dos alunos em plataformas de tutoria online em larga escala.

Lukas De Kerpel, Arthur Thuy, Dries F. Benoit2026-03-12📊 stat

Convergence and complexity of block majorization-minimization for constrained block-Riemannian optimization

Este artigo estabelece a convergência assintótica e a complexidade de O~(ϵ2)\widetilde{O}(\epsilon^{-2}) para uma família de algoritmos de majorização-minimização em blocos (BMM) aplicados a otimização não convexa com restrições em variedades Riemannianas, demonstrando sua eficácia superior em comparação com métodos euclidianos padrão.

Yuchen Li, Laura Balzano, Deanna Needell + 1 more2026-03-10📊 stat

Zeroth-Order primal-dual Alternating Projection Gradient Algorithms for Nonconvex Minimax Problems with Coupled linear Constraints

Este artigo propõe dois algoritmos de primeira ordem sem derivadas (zeroth-order), o ZO-PDAPG e o ZO-RMPDPG, que garantem complexidade iterativa para encontrar pontos estacionários em problemas minimax não convexos com restrições lineares acopladas, estabelecendo novos padrões de desempenho, especialmente no cenário estocástico sem restrições acopladas.

Huiling Zhang, Zi Xu, Yuhong Dai2026-03-06🔢 math

Towards a Fairer Non-negative Matrix Factorization

Este artigo propõe uma abordagem de fatoração de matriz não negativa (NMF) com uma formulação min-max para mitigar viés em tarefas de aprendizado de máquina, apresentando algoritmos de otimização e evidenciando, por meio de experimentos, que o aumento da equidade pode ocorrer às custas de um maior erro para alguns indivíduos, ressaltando a necessidade de adaptar a escolha do método ao contexto específico da aplicação.

Lara Kassab, Erin George, Deanna Needell + 3 more2026-03-06💻 cs

Generalization Bounds for Markov Algorithms through Entropy Flow Computations

Este trabalho estende o método de fluxo de entropia para derivar limites de generalização para uma ampla classe de algoritmos de aprendizado governados por processos de Markov, estabelecendo uma conexão unificada entre o erro de generalização e as propriedades ergódicas desses processos por meio de novas fórmulas exatas e aproximações de tempo contínuo.

Benjamin Dupuis, Maxime Haddouche, George Deligiannidis + 1 more2026-03-06💻 cs