Not All Trust is the Same: Effects of Decision Workflow and Explanations in Human-AI Decision Making

Deze studie toont aan dat het ontwerp van de besluitvormingsworkflow en de aanwezigheid van uitleg de over- en ondervertrouwen in mens-AI samenwerking niet eenduidig beïnvloeden, en bevestigt dat zelfgerapporteerd vertrouwen en daadwerkelijk vertrouwen (gedrag) aparte constructen zijn die apart geëvalueerd moeten worden.

Laura Spillner, Rachel Ringe, Robert Porzel, Rainer Malaka

Gepubliceerd 2026-03-06
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Vertrouwen is niet altijd hetzelfde: Waarom je niet blindelings op een AI moet vertrouwen

Stel je voor dat je een GPS hebt in je auto. Soms zegt de GPS: "Sla linksaf," en dat is perfect. Maar soms zegt hij: "Sla rechtsaf," terwijl je weet dat daar een brug is ingestort.
De grote vraag voor mensen die met AI werken (zoals deze GPS) is: Wanneer moet je luisteren naar de machine en wanneer moet je op je eigen buikgevoel vertrouwen?

Als je de AI te veel vertrouwt, doe je een domme fout (oververtrouwen). Als je de AI te weinig vertrouwt, mis je slimme tips (ondervertrouwen). De kunst is om het juiste evenwicht te vinden.

De onderzoekers van deze studie wilden weten of twee specifieke trucs helpen om dat evenwicht te vinden:

  1. De volgorde: Laat je de AI-advies eerst zien, of moet je eerst je eigen keuze maken?
  2. De uitleg: Laat je zien waarom de AI dat advies geeft?

Hieronder leg ik uit wat ze deden en wat ze ontdekten, met een paar leuke vergelijkingen.


De Experimenten: Twee manieren om te beslissen

De onderzoekers stelden 300 mensen een taak voor: ze moesten beslissen of een student zou afstuderen of zou stoppen met studeren, gebaseerd op cijfers en achtergrondinformatie. Ze kregen hulp van een "AI-adviseur".

Ze verdeelden de mensen in twee groepen:

  • Groep A (De "Directe" methode): De AI zegt direct: "Deze student haalt het niet." De gebruiker moet dan beslissen of hij dat accepteert.

    • Vergelijking: Dit is als een vriend die direct zegt: "Dit restaurant is slecht, laten we ergens anders gaan." Jij moet direct ja of nee zeggen.
  • Groep B (De "Eerst Jij" methode): De gebruiker moet eerst zelf een keuze maken ("Ik denk dat deze student het wel haalt"). Pas daarna ziet hij wat de AI denkt.

    • Vergelijking: Dit is als een coach die zegt: "Wat denk jij?" Jij geeft je mening, en dan zegt de coach: "Ik denk anders." Dit dwingt je om eerst zelf na te denken.

Bovendien kregen sommige mensen een uitleg (bijvoorbeeld: "De AI denkt dit omdat de student veel examens heeft gemist"), en anderen kregen alleen het advies zonder reden.


Wat ontdekten ze? (De verrassende resultaten)

1. Wat je zegt vs. wat je doet

De onderzoekers vroegen mensen: "Hoeveel vertrouw je de AI?" (een cijfer geven). Daarna keken ze of mensen daadwerkelijk naar de AI luisterden.

  • Het resultaat: Mensen die zeiden dat ze de AI "heel erg vertrouwden", luisterden niet per se meer naar de AI dan mensen die zeiden dat ze hem "niet zo vertrouwd".
  • De analogie: Het is als iemand die zegt: "Ik haat suiker!" (wat hij zegt), maar die toch elke dag een taart opeet (wat hij doet). Je kunt niet alleen kijken naar wat mensen zeggen; je moet kijken naar wat ze doen.

2. De "Eerst Jij"-methode werkt niet zoals gehoopt

Veel mensen dachten dat als je eerst zelf moet denken (Groep B), je minder snel domme fouten maakt en minder snel blindelings naar de AI luistert.

  • Het resultaat: Niets is minder waar! In deze studie maakte de "Eerst Jij"-methode mensen juist slordiger. Ze waren meer geneigd om de foutieve adviezen van de AI te accepteren, zelfs nadat ze zelf een andere keuze hadden gemaakt.
  • De analogie: Het is alsof je eerst zelf een antwoord op een quiz schrijft, en daarna de oplossing van de meester ziet. In plaats van te zeggen: "Ah, ik had het fout, ik leer ervan," zeggen mensen: "Oh, de meester zegt het ook, dus ik ga mijn antwoord veranderen naar het zijne," zelfs als de meester dit keer ook fout zit. Het dwingt je niet om kritisch te zijn; het maakt je juist lui.

3. Uitleg is een dubbelzwaard

De uitleg (waarom de AI iets zegt) werkte niet overal hetzelfde.

  • Het resultaat: Uitleg hielp alleen als mensen eerst zelf moesten denken (Groep B). In de directe groep (Groep A) maakte uitleg mensen juist minder tevreden met de AI.
  • De analogie: Stel je voor dat je een raadsel oplost.
    • Als je eerst zelf nadenkt en daarna de hint krijgt, voelt de hint als een handreiking die je helpt.
    • Als je de hint direct krijgt voordat je zelf nadenkt, voelt het als een trui die je alvast uittrekt. Je voelt je minder slim en minder zeker van je zaak.

4. Kennis is belangrijk

Mensen die zich goed thuis voelden in het onderwerp (bijvoorbeeld studenten die veel over cijfers wisten), vertrouwden de AI meer als ze eerst zelf moesten denken. Mensen die zich onzeker voelden, vertrouwden de AI juist meer als ze direct het advies kregen.


De Grote Les voor de Toekomst

De onderzoekers concluderen dat er geen "one-size-fits-all" oplossing is.

  • Vertrouwen is niet één ding: Je kunt niet alleen vragen "Heb je vertrouwen?" en dan denken dat je weet hoe mensen zich gedragen. Je moet kijken naar wat ze doen.
  • Voorzichtigheid met trucs: Het idee om mensen eerst hun eigen keuze te laten maken (de "2-stap methode") klinkt slim, maar het kan juist leiden tot meer fouten als de AI het niet goed heeft.
  • Pas de situatie aan: Als je een AI bouwt, moet je kijken naar wie je gebruiker is en wat voor taak het is. Soms is directe hulp beter, soms is het beter om eerst zelf te laten denken. Maar je kunt niet zomaar aannemen dat een methode die in één studie werkt, ook in een andere werkt.

Kort samengevat:
AI is een krachtige hulpmiddel, maar we moeten niet blindelings naar hem luisteren. En het is niet zo simpel als "laat mensen eerst zelf nadenken" om hen slimmer te maken. Soms maakt die methode ze juist slordiger. De sleutel ligt in het begrijpen van het verschil tussen wat mensen zeggen dat ze denken, en wat ze doen.