Riemannian gradient descent for Hartree-Fock theory
Il paper presenta un framework di ottimizzazione Riemanniana per la teoria di Hartree-Fock formulato nello spazio di Sobolev , che interpreta i vincoli di ortonormalità su varietà infinite-dimensionali e dimostra una convergenza robusta e prestazioni competitive rispetto ai metodi SCF-DIIS convenzionali.