CARE Drive A Framework for Evaluating Reason-Responsiveness of Vision Language Models in Automated Driving

Dit paper introduceert CARE Drive, een modelonafhankelijk raamwerk dat systematisch de responsiviteit van visueel-taalmodellen voor autonoom rijden op menselijke redenen evalueert door te analyseren hoe gecontroleerde contextuele variaties de besluitvorming beïnvloeden, in plaats van alleen op uitkomsten te focussen.

Lucas Elbert Suryana, Farah Bierenga, Sanne van Buuren, Pepijn Kooij, Elsefien Tulleners, Federico Scari, Simeon Calvert, Bart van Arem, Arkady Zgonnikov

Gepubliceerd 2026-02-18
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

CARE-Drive: De "Gewetenscheck" voor Slimme Auto's

Stel je voor dat je een zelfrijdende auto hebt die niet alleen kan rijden, maar ook kan praten. Deze auto gebruikt een superintelligente hersencomputer (een zogenaamd 'Vision-Language Model') om de weg te bekijken en beslissingen te nemen. Maar hier zit een probleem: de auto kan heel goed uitleggen waarom hij iets doet, maar is die uitleg echt de reden van zijn keuze, of is het gewoon een slimme smoesje dat hij achteraf bedenkt?

Dit is als een kind dat zegt: "Ik heb de koekjes niet gegeten omdat ik honger had," terwijl het eigenlijk gewoon de koekjes wilde hebben. We weten niet of het kind echt honger had of dat het gewoon een goed excuus bedacht.

In de wereld van zelfrijdende auto's is dit gevaarlijk. Als een auto een beslissing neemt (bijvoorbeeld: "Ik passeer die fietser"), moeten we zeker weten dat hij dat doet omdat het veilig en logisch is, en niet omdat hij toevallig een bepaald pad in zijn computer heeft gevolgd.

Wat is CARE-Drive?

De onderzoekers van de TU Delft hebben CARE-Drive bedacht. De naam staat voor Context-Aware Reasons Evaluation for Driving. In het Nederlands kunnen we het zien als een "Gewetenscheck" of een "Motivatie-test" voor de auto.

Het doel is simpel: Kijkt de auto echt naar de goede redenen voordat hij iets doet?

Hoe werkt het? (De Analogie van de Chef-kok)

Stel je de zelfrijdende auto voor als een chef-kok in een restaurant.

  • De oude manier: Je vraagt de chef om een gerecht te maken. Hij doet het. Je proeft het en zegt: "Mmm, lekker." Maar je weet niet of hij de juiste ingrediënten gebruikte of dat hij gewoon toevallig iets lekkers maakte.
  • De CARE-Drive manier: Je geeft de chef een lijst met specifieke regels en redenen (bijvoorbeeld: "We moeten rekening houden met de gezondheid van de gast, maar ook met de snelheid van het eten"). Vervolgens laat je de chef koken in verschillende situaties (soms is er haast, soms is er een gast met een allergie).

CARE-Drive kijkt dan niet alleen of het eten lekker is, maar verandert de auto zijn gedrag als jij de regels verandert?

  • Als je zegt: "Er is een gast die haast heeft", moet de auto sneller gaan (of juist niet, als dat onveilig is).
  • Als je zegt: "Er komt een auto aan", moet de auto wachten.

Als de auto zijn gedrag aanpast op basis van deze nieuwe "redenen", dan is hij responsief. Hij luistert echt. Als hij hetzelfde blijft doen, ongeacht wat je zegt, dan is hij doof en zijn zijn uitleggen misschien wel leugens.

De Test: De Fietser op de Weg

In dit onderzoek hebben ze een specifieke situatie getest: een auto die achter een fietser rijdt.

  • Het dilemma: De auto mag volgens de wet niet inhalen (er is een dubbel geel streepje), maar de fietser rijdt langzaam en de auto staat er al een tijdje achter. Moet de auto wachten (veilig, maar ongeduldig) of inhalen (onveilig volgens de wet, maar efficiënt)?

De onderzoekers gaven de auto verschillende "redenen" mee in zijn instructie:

  1. Veiligheid: "Kijk uit voor de tegenliggers."
  2. Sociale druk: "Er staat een auto achter je die ongeduldig is."
  3. Efficiëntie: "De passagier heeft haast."

Wat ontdekten ze?

  1. Zonder instructies is de auto een "regels-robot": Als je de auto niets vertelt, doet hij alleen wat de wet zegt. Hij wacht eindeloos achter de fietser, zelfs als het veilig zou zijn om in te halen. Hij denkt niet na.
  2. Met "menselijke redenen" wordt hij slimmer: Als je de auto vertelt: "Hé, we moeten ook rekening houden met comfort en efficiëntie, zolang het veilig is," dan begint hij te twijfelen en soms wel in te halen.
  3. Hij reageert op de situatie:
    • Als er een auto aan komt (veiligheidsrisico), wacht hij.
    • Als er een auto achter hem staat (sociale druk), probeert hij sneller in te halen.
    • Maar... als de passagier haast heeft, wordt de auto juist voorzichtiger! Hij denkt blijkbaar: "Haast betekent gevaar, dus ik wacht liever." Dit is een verrassend menselijke reactie.

Waarom is dit belangrijk?

Vroeger keken we alleen of een auto niet crashte. Dat is goed, maar niet genoeg. We willen auto's die begrijpen waarom ze iets doen.

CARE-Drive is als een test voor het geweten van de computer. Het bewijst dat we kunnen checken of een slimme auto echt luistert naar menselijke waarden (zoals veiligheid, comfort en regels) en daar zijn beslissingen op aanpast.

De conclusie in één zin:
CARE-Drive laat zien dat we zelfrijdende auto's niet alleen kunnen testen op of ze niet crashen, maar ook op of ze echt "nadenken" over de juiste redenen om te rijden, net zoals een goede menselijke bestuurder dat doet. Het is een stap richting auto's die niet alleen slim zijn, maar ook betrouwbaar en menselijk in hun keuzes.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →