Negative Curvature Methods with High-Probability Complexity Guarantees for Stochastic Nonconvex Optimization
Este artigo propõe um método de otimização estocástica não convexa que combina passos de gradiente e de curvatura negativa com mecanismos adaptativos e de parada antecipada, garantindo com alta probabilidade a convergência para pontos estacionários de segunda ordem com taxas de complexidade que correspondem aos resultados determinísticos, ajustadas apenas pelo ruído dos oráculos.