Improved Scaling Laws via Weak-to-Strong Generalization in Random Feature Ridge Regression

Cet article démontre que l'apprentissage d'un modèle fort à partir des labels imparfaits d'un modèle faible via la régression ridge à caractéristiques aléatoires permet d'améliorer substantiellement les lois d'échelle de l'erreur de test, permettant au modèle fort d'atteindre des taux optimaux même lorsque le modèle faible ne voit pas son erreur diminuer avec la taille de l'échantillon.

Diyuan Wu, Lehan Chen, Theodor Misiakiewicz, Marco Mondelli2026-03-09🤖 cs.LG

Agnostic learning in (almost) optimal time via Gaussian surface area

Ce papier améliore l'analyse de Klivans et al. en démontrant que le degré polynomial nécessaire pour l'apprentissage agnostique de classes de concepts à surface de Gauss bornée est de d=O~(Γ2/ε2)d = \tilde O (\Gamma^2 / \varepsilon^2), établissant ainsi des bornes quasi-optimales pour l'apprentissage des fonctions de seuil polynomial dans le modèle des requêtes statistiques.

Lucas Pesenti, Lucas Slot, Manuel Wiedmer2026-03-09🤖 cs.LG

Synthetic Monitoring Environments for Reinforcement Learning

Ce papier présente les Environnements de Surveillance Synthétiques (SME), une suite infinie de tâches de contrôle continu aux politiques optimales connues, conçue pour permettre une analyse scientifique rigoureuse et transparente des algorithmes d'apprentissage par renforcement en isolant l'impact de facteurs environnementaux spécifiques sur leurs performances.

Leonard Pleiss, Carolin Schmidt, Maximilian Schiffer2026-03-09🤖 cs.LG

Certified and accurate computation of function space norms of deep neural networks

Cet article présente un cadre de calcul certifié et précis des normes d'espaces fonctionnelles (telles que LpL^p et Sobolev) pour les réseaux de neurones profonds, en combinant l'arithmétique par intervalles, le raffinement adaptatif et l'agrégation par quadrature afin de fournir des bornes déterministes garanties sur les résidus des PINN.

Johannes Gründler, Moritz Maibaum, Philipp Petersen2026-03-09🤖 cs.LG

Zeroth-Order primal-dual Alternating Projection Gradient Algorithms for Nonconvex Minimax Problems with Coupled linear Constraints

Cet article propose deux algorithmes de gradient alterné primal-dual d'ordre zéro, ZO-PDAPG et ZO-RMPDPG, pour résoudre des problèmes minimax non convexes avec contraintes linéaires couplées en fournissant les premières garanties de complexité itérative dans les contextes déterministe et stochastique, tout en établissant un nouvel état de l'art pour les cas sans contraintes couplées.

Huiling Zhang, Zi Xu, Yuhong Dai2026-03-06🔢 math

Double Momentum and Error Feedback for Clipping with Fast Rates and Differential Privacy

Cet article propose et analyse Clip21-SGD2M, une nouvelle méthode pour l'apprentissage fédéré qui combine le recadrage, l'impulsion de type heavy-ball et la rétroaction d'erreur pour garantir simultanément des taux de convergence optimaux et une forte confidentialité différentielle, même en présence de données hétérogènes.

Rustem Islamov, Samuel Horvath, Aurelien Lucchi + 2 more2026-03-06🔢 math