StyleVLA: Driving Style-Aware Vision Language Action Model for Autonomous Driving
Il paper presenta StyleVLA, un modello Vision-Language-Action basato su Qwen3-VL-4B e arricchito da vincoli fisici, che supera i modelli proprietari più grandi generando traiettorie di guida autonome non solo sicure ma anche fisicamente plausibili e adattate a diversi stili di guida.