Variation-aware Vision Token Dropping for Faster Large Vision-Language Models

Il paper presenta V²Drop, un metodo innovativo che accelera i Large Vision-Language Models eliminando dinamicamente i token visivi a bassa variazione durante l'inferenza, ottenendo riduzioni significative della latenza (fino al 74,2% per i video) mantenendo quasi intatta l'accuratezza originale.

Junjie Chen, Xuyang Liu, Zichen Wen, Yiyu Wang, Siteng Huang, Honggang Chen

Pubblicato 2026-02-26
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina che un Large Vision-Language Model (LVLM) sia come un gigantesco detective molto intelligente, capace di guardare un'immagine o un video e rispondere a domande su di esso.

Il Problema: Il Detective è sopraffatto

Oggi, per vedere immagini ad alta risoluzione o video lunghi, questo detective deve analizzare migliaia di piccoli pezzi (chiamati "token") dell'immagine. È come se gli dessi da leggere un libro intero di 1000 pagine per rispondere a una domanda semplice come "Che ora è?".
Il detective legge tutto, ma si stanca, impiega troppo tempo e consuma molta energia. Inoltre, molti di quei pezzi sono ridondanti (come leggere la stessa parola dieci volte).

La Soluzione Vecchia: Il Filtro "Posizionale"

Prima di questo studio, esistevano metodi per aiutare il detective a saltare le pagine inutili. Ma questi metodi avevano un difetto strano: erano polarizzati dalla posizione.
Immagina un assistente che dice: "Non importa cosa c'è scritto sulla pagina, saltiamo le prime 500 pagine e leggiamo solo le ultime 100!".
Questo è un errore! Se la risposta è nella prima pagina, il detective la perderà. Questi vecchi metodi guardavano dove si trovava il pezzo di informazione, non quanto fosse importante.

La Nuova Idea: V2Drop (Il Detective che osserva i Cambiamenti)

Gli autori di questo paper, V2Drop, hanno avuto un'intuizione geniale. Invece di guardare dove si trova un pezzo di informazione, guardano come cambia mentre il detective lo elabora.

Ecco l'analogia perfetta:
Immagina che ogni pezzo dell'immagine sia un viaggiatore che attraversa una serie di stanze (i livelli del modello).

  • I viaggiatori "pigri" (Lazy Tokens): Sono quelli che entrano nella stanza, guardano intorno, non fanno nulla, escono e dicono: "Non è cambiato nulla". Questi viaggiatori non stanno imparando nulla di nuovo. Sono informazioni inutili (come il cielo azzurro in una foto dove l'importante è un gatto).
  • I viaggiatori "attivi" (High Variation Tokens): Sono quelli che entrano, si scontrano con altri viaggiatori, discutono, cambiano espressione e escono dicendo: "Ho capito qualcosa di nuovo!". Questi sono i pezzi importanti (gli occhi del gatto, il numero sulla maglia).

V2Drop funziona così:
Durante il viaggio del detective attraverso le stanze, V2Drop osserva i viaggiatori. Se un viaggiatore non cambia quasi per nulla (è "pigro"), V2Drop lo fa uscire dalla stanza e lo butta via. Se un viaggiatore è molto attivo e cambia molto, V2Drop gli dice: "Resta qui, sei importante!".

Perché è meglio?

  1. Nessun pregiudizio: Non importa se il viaggiatore è all'inizio o alla fine del viaggio. Se è pigro, viene buttato via. Se è attivo, resta. Questo risolve il problema dei vecchi metodi che guardavano solo la posizione.
  2. Più veloce e leggero: Buttando via i viaggiatori inutili, il detective deve gestire meno persone. Il viaggio diventa molto più veloce (fino al 74% più veloce per i video!) e consuma meno memoria.
  3. Funziona con tutto: Questo metodo è così intelligente che può essere applicato a qualsiasi modello esistente senza doverlo riaddestrare da zero. È come aggiungere un filtro magico a una macchina esistente.

I Risultati

Grazie a questo metodo, il detective:

  • Risponde quasi con la stessa precisione di prima (mantiene il 94-98% della sua intelligenza originale).
  • Risponde molto più velocemente.
  • Non si confonde più guardando le cose sbagliate (riduce le "allucinazioni", ovvero risposte sbagliate).

In sintesi

V2Drop è come un selezionatore di squadra intelligente. Invece di scegliere i giocatori basandosi su dove stanno seduti in panchina, guarda chi si sta allenando duramente e chi sta dormendo. Chi dorme viene mandato a casa, chi si allena resta. Il risultato? Una squadra più snella, più veloce e che vince comunque le partite.

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →