AVGGT: Rethinking Global Attention for Accelerating VGGT
Dit paper introduceert AVGGT, een trainingsvrije tweestapsversnelling die de globale aandacht in VGGT en analyseert en optimaliseert door vroege lagen om te zetten in frame-aandacht en latere lagen te subsamplen, wat leidt tot een aanzienlijke versnelling van de inferentie (tot 10x) zonder in te leveren op nauwkeurigheid.