QuantVLA: Scale-Calibrated Post-Training Quantization for Vision-Language-Action Models
Le papier présente QuantVLA, une méthode de quantification post-entraînement sans réapprentissage qui permet de déployer efficacement des modèles vision-langage-action sur des dispositifs contraints en réduisant la mémoire de 70 % tout en surpassant les performances des modèles en précision complète.