ALOOD: Exploiting Language Representations for LiDAR-based Out-of-Distribution Object Detection
Dit paper introduceert ALOOD, een nieuwe methode die taalrepresentaties van een vision-language model gebruikt om LiDAR-gebaseerde 3D-objectdetectiesystemen in staat te stellen onbekende (out-of-distribution) objecten te herkennen als een zero-shot classificatietask, waardoor de veiligheidsrisico's van verkeerd vertrouwen in autonome rijsystemen worden verminderd.