AnyCamVLA: Zero-Shot Camera Adaptation for Viewpoint Robust Vision-Language-Action Models
Dit paper introduceert AnyCamVLA, een zero-shot raamwerk dat de viewpoint-robuustheid van Vision-Language-Action-modellen verbetert door testtijd-cameraobservaties virtueel aan te passen aan de trainingsconfiguratie zonder extra data of fijnafstemming.