Do Metrics for Counterfactual Explanations Align with User Perception?

Deze studie toont aan dat de gangbare algoritmische metrieken voor het evalueren van contrafactuele verklaringen slechts zwak correleren met menselijke percepties van kwaliteit, wat de noodzaak onderstreept voor meer mensgerichte benaderingen in het veld van uitlegbare kunstmatige intelligentie.

Felix Liedeker, Basil Ell, Philipp Cimiano, Christoph Düsing

Gepubliceerd 2026-03-17
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Titel: Zien computers wat mensen echt belangrijk vinden? Een onderzoek naar 'tegenfeitelijke' uitleggen.

Stel je voor dat je een slimme computer hebt die een beslissing neemt, bijvoorbeeld: "Deze paddenstoel is giftig" of "Deze patiënt heeft een hartziekte." Jij vraagt de computer: "Waarom?" En de computer geeft een antwoord: "Omdat je een rode hoed hebt."

Maar wat als je vraagt: "Wat moet ik doen om een andere uitslag te krijgen?" Dan geeft de computer een tegenfeitelijke uitleg (counterfactual explanation). Het is als een "Wat als?"-scenario. De computer zegt: "Als je een witte hoed had in plaats van een rode, dan zou ik zeggen dat je paddenstoel veilig is."

Dit klinkt geweldig, maar hoe weten we of zo'n uitleg goed is?

Het probleem: De meetlat van de computer vs. het gevoel van de mens

In de wereld van kunstmatige intelligentie (AI) gebruiken onderzoekers vaak automatische meetlaten (metrieken) om te beoordelen of een uitleg goed is. Het is alsof je een foto meet met een liniaal:

  • "Hoeveel pixels zijn er veranderd?" (Moeilijkheidsgraad)
  • "Hoe dichtbij zit de nieuwe foto bij de oude?" (Nabijheid)
  • "Is de nieuwe foto realistisch?" (Plausibiliteit)

De onderzoekers van dit paper (Felix Liedeker en zijn team) dachten: "Wachten maar. Als een computer zegt dat een uitleg 'perfect' is volgens deze meetlaten, betekent dat dan ook dat een mens het een goede uitleg vindt?"

Ze stelden zich de vraag: Lopen de cijfers van de computer en het gevoel van de mens wel in de pas?

Het experiment: Een proef met drie verschillende werelden

Om dit uit te zoeken, deden ze een groot experiment. Ze gebruikten drie verschillende datasets (zoals drie verschillende spelletjes):

  1. Paddenstoelen: Is deze paddenstoel eetbaar of giftig?
  2. Obesiteit: Wat is het gewichtsklasse op basis van eetgewoonten?
  3. Hartkwalen: Is er een risico op hartziekte?

Voor elk spel lieten ze de computer duizenden "Wat als?"-scenario's bedenken. Vervolgens vroegen ze 167 echte mensen om deze uitleggen te beoordelen. Ze kregen vragen als:

  • "Begrijp je dit?"
  • "Klinkt dit geloofwaardig?"
  • "Ben je tevreden met dit antwoord?"

De verrassende ontdekkingen

Het resultaat was verrassend en een beetje teleurstellend voor de AI-wereld:

1. De meetlaten van de computer en het gevoel van de mens lopen uit elkaar.
Het was alsof je een auto meet met een liniaal (hoe recht is de lijn?) en een mens vraagt of de auto "snel" aanvoelt. De computer zegt: "Deze auto is perfect recht!" en de mens zegt: "Ja, maar hij voelt traag aan."
In dit onderzoek bleek dat de automatische cijfers slechts heel zwak correleerden met wat mensen vonden. Soms gaf een "perfecte" computer-uitkomst een slechte score bij mensen, en vice versa.

2. Het hangt allemaal af van de situatie.
Wat mensen mooi vonden, veranderde per spelletje.

  • Bij de paddenstoelen vonden mensen het fijn als er weinig dingen veranderden (een simpele uitleg).
  • Bij de obesiteit vonden mensen juist een rijke, gedetailleerde uitleg beter.
  • Bij het hart was er geen duidelijk patroon te vinden.
    Dit betekent dat er geen enkele "magische meetlat" bestaat die voor alles werkt.

3. Meer cijfers maken het niet beter.
De onderzoekers dachten misschien: "Misschien is één meetlat niet genoeg. Laten we zeven meetlaten combineren en een slim algoritme gebruiken om te voorspellen wat mensen vinden."
Het resultaat? Nee. Het toevoegen van meer cijfers maakte de voorspelling zelfs slechter. Het was alsof je een recept probeert te verbeteren door er steeds meer ingrediënten aan toe te voegen, maar de taart wordt er alleen maar minder lekker van. De bestaande meetlaten bevatten simpelweg niet de informatie die mensen belangrijk vinden.

De grote les: We moeten de mens centraal stellen

De conclusie van het paper is helder: We kunnen niet zomaar vertrouwen op de automatische cijfers om te zeggen of een AI-uitleg goed is.

Het is alsof je een chef-kok (de AI) beoordeelt op basis van de temperatuur van de oven (de meetlaten), terwijl de gasten (de mensen) vooral kijken of het eten er lekker uitziet en smaakt. De temperatuur is belangrijk, maar het zegt je niets over de smaak.

Wat betekent dit voor de toekomst?
De auteurs zeggen dat we moeten stoppen met alleen naar de cijfers van de computer te kijken. Als we AI-systemen willen bouwen die mensen echt vertrouwen en begrijpen, moeten we menselijke oordelen direct in het meetproces opnemen. We moeten nieuwe manieren vinden om uitleggen te testen, waarbij we vragen aan echte mensen wat zij belangrijk vinden, in plaats van alleen te rekenen met formules.

Kort samengevat: De computer heeft een liniaal, maar de mens heeft een hart. Om te weten of een uitleg goed is, moeten we luisteren naar het hart, niet alleen naar de liniaal.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →