Inertial accelerated primal-dual algorithms for non-smooth convex optimization problems with linear equality constraints

Questo articolo propone un algoritmo primale-duale accelerato inerziale, derivato dalla discretizzazione di un sistema differenziale del secondo ordine con scalatura temporale, per risolvere problemi di ottimizzazione convessa non liscia con vincoli di uguaglianza lineari, dimostrandone la rapida convergenza e l'efficacia attraverso esperimenti numerici.

Huan Zhang, Xiangkai Sun, Shengjie Li + 1 more2026-03-06🔢 math

A Proximal Stochastic Gradient Method with Adaptive Step Size and Variance Reduction for Convex Composite Optimization

Questo articolo propone un algoritmo di gradiente stocastico prossimale con riduzione della varianza e passo adattivo per l'ottimizzazione convessa composita, dimostrandone la convergenza forte, il tasso di convergenza O(1/k) O(\sqrt{1/k}) e l'efficacia attraverso esperimenti numerici su regressione logistica e Lasso.

Changjie Fang, Hao Yang, Shenglan Chen2026-03-06🔢 math

Bounds for the Permutation Flowshop Scheduling Problem: New Framework and Theoretical Insights

Questo lavoro presenta un nuovo quadro teorico basato su una formulazione matriciale per derivare limiti superiori e inferiori risolvibili in tempo polinomiale per il problema di scheduling flowshop permutazionale, dimostrando miglioramenti significativi sui benchmark Taillard e VRF e fornendo nuovi risultati asintotici che avanzano la comprensione dei limiti di qualità esistenti.

J. A. Alejandro-Soto, Carlos Segura, Joel Antonio Trejo-Sanchez2026-03-06🔢 math

Deep FlexQP: Accelerated Nonlinear Programming via Deep Unfolding

Il paper propone Deep FlexQP, un risolutore di programmazione quadratica convessa basato su un'architettura di deep unfolding che garantisce la fattibilità e accelera significativamente la risoluzione di problemi di ottimizzazione non lineare, superando gli stati dell'arte in termini di velocità e successo in applicazioni come l'ottimizzazione di traiettorie e i filtri di sicurezza predittivi.

Alex Oshin, Rahul Vodeb Ghosh, Augustinos D. Saravanos + 1 more2026-03-06🔢 math

An Accelerated Primal Dual Algorithm with Backtracking for Decentralized Constrained Optimization

Il paper propone D-APDB, un metodo distribuito accelerato primal-duale con backtracking che risolve problemi di ottimizzazione vincolata decentralizzata adattandosi automaticamente alle costanti di regolarità sconosciute e garantendo un tasso di convergenza ottimale di O(1/K)\mathcal{O}(1/K) senza richiedere conoscenze preliminari delle costanti di Lipschitz.

Qiushui Xu, Necdet Serhat Aybat, Mert Gürbüzbalaban2026-03-06🔢 math

Multistage Stochastic Programming for Rare Event Risk Mitigation in Power Systems Management

Questo lavoro presenta un metodo di ottimizzazione multistadio basato su scenari, che utilizza l'approccio delle particelle Fleming-Viot per generare scenari di eventi rari di bassa produzione eolica e solare, consentendo un controllo robusto e costo-efficace delle centrali convenzionali per mitigare i rischi di carenza di energia nei sistemi elettrici ad alta penetrazione di rinnovabili.

Daniel Mastropietro, Vyacheslav Kungurtsev2026-03-06🔢 math

Policy Optimization of Mixed H2/H-infinity Control: Benign Nonconvexity and Global Optimality

Questo articolo dimostra che l'ottimizzazione della politica per il controllo misto H2/H-infinito presenta una struttura non convessa benigna in cui ogni punto stazionario è globalmente ottimo, grazie a un nuovo framework di "Extended Convex Lifting" che caratterizza l'insieme ammissibile e fornisce formule esplicithe del gradiente per facilitare metodi scalabili.

Chih-Fan Pai, Yuto Watanabe, Yujie Tang + 1 more2026-03-06🔢 math

Set-Membership Localization via Range Measurements

Questo articolo propone un metodo di localizzazione basato sull'appartenenza a un insieme che, assumendo errori di misura limitati ma sconosciuti, caratterizza la posizione incognita tramite un insieme di localizzazione non convesso e ne calcola efficienti approssimazioni esterne (scatole o ellissoidi) e interne mediante programmazione convessa, offrendo un approccio geometrico diretto alternativo alle rilassamenti SDP.

Giuseppe C. Calafiore2026-03-06🔢 math

How Does the ReLU Activation Affect the Implicit Bias of Gradient Descent on High-dimensional Neural Network Regression?

Questo lavoro dimostra che, per dati casuali ad alta dimensionalità, il bias implicito della discesa del gradiente su una rete neurale ReLU approssima con alta probabilità la soluzione a norma L2 minima, con un errore dell'ordine di Θ(n/d)\Theta(\sqrt{n/d}), grazie a una nuova analisi primale-duale che traccia l'evoluzione delle previsioni e la rapida stabilizzazione dei pattern di attivazione.

Kuo-Wei Lai, Guanghui Wang, Molei Tao + 1 more2026-03-06🔢 math