Projected subgradient methods for paraconvex optimization: Application to robust low-rank matrix recovery

Diese Arbeit untersucht die grundlegenden Eigenschaften paraconvexer Funktionen, analysiert die Konvergenz von projizierten Subgradientenverfahren mit verschiedenen Schrittweiten für deren globale Minimierung unter Hölder-Fehlerbedingungen und validiert die theoretischen Ergebnisse durch erfolgreiche Anwendungen auf robuste Probleme der niedrigrangigen Matrixwiederherstellung.

Morteza Rahimi, Susan Ghaderi, Yves Moreau + 1 more2026-03-06🔢 math

Double Momentum and Error Feedback for Clipping with Fast Rates and Differential Privacy

Die Autoren stellen Clip21-SGD2M vor, einen neuen Algorithmus für das Federated Learning, der durch eine innovative Kombination aus Clipping, Heavy-Ball-Momentum und Error Feedback sowohl optimale Konvergenzraten bei beliebiger Datenheterogenität als auch starke lokale Differentialprivatsphäre-Garantien ohne restriktive Annahmen erreicht.

Rustem Islamov, Samuel Horvath, Aurelien Lucchi + 2 more2026-03-06🔢 math

Kernel Based Maximum Entropy Inverse Reinforcement Learning for Mean-Field Games

Diese Arbeit stellt ein Maximum-Entropie-Inverse-Reinforcement-Learning-Verfahren für unendliche Horizont-Mittelwertspiele vor, das mittels reproduzierender Kern-Hilberträume nichtlineare Belohnungsfunktionen aus Expertendemonstrationen ableitet und sowohl für stationäre als auch nicht-stationäre Szenarien theoretisch fundierte Optimierungsalgorithmen bereitstellt.

Berkay Anahtarci, Can Deha Kariksiz, Naci Saldi2026-03-06🔢 math

Inertial accelerated primal-dual algorithms for non-smooth convex optimization problems with linear equality constraints

Diese Arbeit stellt einen inertial beschleunigten Primal-Dual-Algorithmus vor, der auf einem zeitlich skalierten Differentialgleichungssystem zweiter Ordnung basiert, um nicht-glatt konvexe Optimierungsprobleme mit linearen Gleichungsnebenbedingungen zu lösen und dabei schnelle Konvergenzraten für den Primal-Dual-Lücke, die Zulässigkeitsverletzung und das Zielresiduum nachzuweisen.

Huan Zhang, Xiangkai Sun, Shengjie Li + 1 more2026-03-06🔢 math

A Proximal Stochastic Gradient Method with Adaptive Step Size and Variance Reduction for Convex Composite Optimization

Dieser Artikel stellt einen proximalen stochastischen Gradientenalgorithmus mit adaptiver Schrittweite und Varianzreduktion für die konvexe zusammengesetzte Optimierung vor, der unter Lipschitz-Bedingungen starke Konvergenz sowie eine Konvergenzrate von O(1/k) O(\sqrt{1/k}) nachweist und in numerischen Experimenten zur Logistischen und Lasso-Regression validiert wird.

Changjie Fang, Hao Yang, Shenglan Chen2026-03-06🔢 math

Bounds for the Permutation Flowshop Scheduling Problem: New Framework and Theoretical Insights

Diese Arbeit stellt ein neues Rahmenwerk zur Berechnung von Schranken für das Permutations-Fließshop-Scheduling-Problem vor, das auf einer Matrixformulierung basiert und durch die effiziente Lösung von Min-Max-Ausdrücken über Pfadmengen signifikante Verbesserungen bei den unteren und oberen Schranken für Standard-Testinstanzen sowie neue asymptotische Erkenntnisse liefert.

J. A. Alejandro-Soto, Carlos Segura, Joel Antonio Trejo-Sanchez2026-03-06🔢 math

Communication-Efficient Decentralized Optimization via Double-Communication Symmetric ADMM

Dieses Papier stellt einen neuartigen dezentralen symmetrischen ADMM-Algorithmus vor, der durch den Einsatz mehrerer Kommunikationsrunden pro Iteration die Gesamtzahl der Iterationen und damit die gesamten Kommunikationskosten bei der Optimierung über Netzwerke ohne zentrale Koordination signifikant reduziert und dabei eine lineare Konvergenz garantiert.

Jinrui Huang, Xueqin Wang, Dong Liu + 2 more2026-03-06🔢 math

Deep FlexQP: Accelerated Nonlinear Programming via Deep Unfolding

Die Autoren stellen Deep FlexQP vor, einen durch Deep Unfolding beschleunigten, immer zulässigen QP-Löser mit 1\ell_1-Elastizität, der nicht nur konvexe Optimierungsprobleme effizient löst, sondern auch bei Infeasibilität robuste Lösungen bietet und in der sequentiellen quadratischen Programmierung (SQP) sowie bei Sicherheitsfiltern signifikante Geschwindigkeits- und Erfolgssteigerungen gegenüber bestehenden Methoden erzielt.

Alex Oshin, Rahul Vodeb Ghosh, Augustinos D. Saravanos + 1 more2026-03-06🔢 math

How Does the ReLU Activation Affect the Implicit Bias of Gradient Descent on High-dimensional Neural Network Regression?

Diese Arbeit zeigt, dass bei hochdimensionalen Zufallsdaten der Gradientenabstieg für flache ReLU-Netzwerke mit hoher Wahrscheinlichkeit eine implizite Verzerrung zugunsten der Minimum-L2-Norm-Lösung aufweist, wobei die Abweichung von der exakten Lösung in der Größenordnung von Θ(n/d)\Theta(\sqrt{n/d}) liegt.

Kuo-Wei Lai, Guanghui Wang, Molei Tao + 1 more2026-03-06🔢 math