Prune Redundancy, Preserve Essence: Vision Token Compression in VLMs via Synergistic Importance-Diversity
本論文は、視覚トークンの冗長性を削減しつつ本質的な情報を保持するために、意味的クラスタリングとグループ内非最大値抑制を組み合わせたトレーニング不要の手法「PruneSID」を提案し、LLaVA シリーズなど多様な VLM において既存手法を上回る高精度と高速推論を実現したことを報告するものです。