A Proximal Stochastic Gradient Method with Adaptive Step Size and Variance Reduction for Convex Composite Optimization

Dit artikel introduceert een proximaal stochastisch gradiëntalgoritme met variatie-reductie en een adaptieve stapgrootte voor convex-composite optimalisatie, waarvan de sterke convergentie, de convergentie van de gradiëntfout en een convergentiesnelheid van O(1/k) O(\sqrt{1/k}) worden bewezen en gevalideerd via numerieke experimenten.

Changjie Fang, Hao Yang, Shenglan Chen2026-03-06🔢 math

Bounds for the Permutation Flowshop Scheduling Problem: New Framework and Theoretical Insights

Dit artikel introduceert een nieuw theoretisch raamwerk voor het afleiden van boven- en ondergrenzen voor het permutatie-flowshop-planningsprobleem, dat via een polynoomtijd-oplosbare min-max-formulering aanzienlijk betere resultaten oplevert op standaardbenchmarks en nieuwe inzichten biedt in asymptotische eigenschappen en een conjectuur van Taillard.

J. A. Alejandro-Soto, Carlos Segura, Joel Antonio Trejo-Sanchez2026-03-06🔢 math

Multistage Stochastic Programming for Rare Event Risk Mitigation in Power Systems Management

Dit artikel presenteert een methode voor zeldzame gebeurtenis-bewuste besturing van energiesystemen via multistage stochastische programmering, waarbij een Fleming-Viot-deeltjesbenadering wordt gebruikt om scenario's te genereren die gericht zijn op zeldzame windstijlen om zo een kosteneffectieve en robuuste regeling van conventionele krachtcentrales te waarborgen.

Daniel Mastropietro, Vyacheslav Kungurtsev2026-03-06🔢 math

Set-Membership Localization via Range Measurements

Dit artikel presenteert een directe, op meetkunde gebaseerde set-membership-methode voor het lokaliseren van een punt in Rn\mathbb{R}^n op basis van afstandsmetingen met onbekende maar begrenste fouten, waarbij het niet-convexe verzameling van mogelijke locaties wordt benaderd door efficiënte convex-optimalisatietechnieken om gegarandeerde uitwendige omhullende vormen (zoals een doos of ellipsoïde) te berekenen.

Giuseppe C. Calafiore2026-03-06🔢 math

How Does the ReLU Activation Affect the Implicit Bias of Gradient Descent on High-dimensional Neural Network Regression?

Deze studie toont aan dat bij hoogdimensionale willekeurige data de impliciete bias van gradient descent voor een ondiep ReLU-model met hoge waarschijnlijkheid de minimum-l2-norm oplossing benadert met een foutmarge van de orde Θ(n/d)\Theta(\sqrt{n/d}), dankzij een nieuwe primal-dual analyse die aantoont dat het ReLU-activatiepatroon snel stabiliseert.

Kuo-Wei Lai, Guanghui Wang, Molei Tao + 1 more2026-03-06🔢 math