VLN-Cache: Enabling Token Caching for VLN Models with Visual/Semantic Dynamics Awareness
Ce papier propose VLN-Cache, un cadre de mise en cache de tokens qui améliore l'efficacité de l'inférence des modèles de navigation vision-langage en adaptant dynamiquement la réutilisation des tokens aux changements de vue et d'importance sémantique, permettant ainsi une accélération significative sans compromettre les performances de navigation.