Believing vs. Achieving -- The Disconnect between Efficacy Beliefs and Collaborative Outcomes

Dit onderzoek toont aan dat hoewel overtuigingen over eigen en AI-competentie de besluitvorming bij samenwerking beïnvloeden, ze slechts beperkt de daadwerkelijke prestaties van mens-AI teams bepalen, wat nieuwe richtlijnen voor ontwerp vereist die verder gaan dan transparantie.

Philipp Spitzer, Joshua Holstein

Gepubliceerd Thu, 12 Ma
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Geloof vs. Bereiken: Waarom we AI soms verkeerd inschatten

Stel je voor dat je een moeilijke puzzel moet oplossen. Je hebt een slimme robotassistent bij de hand die je kan helpen. Maar hier is de vraag: moet jij het zelf doen, of de robot laten doen?

Dit is precies wat onderzoekers Philipp Spitzer en Joshua Holstein hebben onderzocht. Ze keken niet alleen naar of de robot slim is, maar vooral naar wat jij denkt over je eigen slimheid en die van de robot. Hun conclusie is verrassend: wat we denken (onze overtuigingen) loopt vaak niet gelijk met wat er echt gebeurt (de resultaten).

Hier is het verhaal in simpele taal, met een paar leuke vergelijkingen.

1. De Twee Soorten "Geloof"

Voordat je begint met de puzzel, heb je twee soorten geloof in je hoofd:

  • Algemeen geloof: "Ik ben over het algemeen slim" en "Die robot is over het algemeen slim." Dit is je vaste mening, gebaseerd op wat je eerder hebt gehoord of gezien.
  • Momentopname-geloof: "Voor deze specifieke puzzelstukjes, denk ik dat ik het beter kan dan de robot." Dit is je inschatting op het exacte moment dat je kijkt naar de puzzel.

De onderzoekers ontdekten dat je algemene geloof fungeert als een anker. Net zoals een zwaar anker een boot op zijn plek houdt, houden je vaste overtuigingen je oordelen vast, zelfs als je nieuwe informatie krijgt.

2. De "AI-Optimisme" Valstrik

Het meest interessante was wat er gebeurde met de robot.

  • Mensen hadden een gemiddelde mening over de robot (bijvoorbeeld: "Die is 70% goed").
  • Maar toen ze naar een specifiek probleem keken, dachten ze plotseling: "Oh, voor deze vraag is de robot zeker 80% goed!"

Dit noemen de onderzoekers "AI-Optimisme". Het is alsof je naar een voorspelling van het weer kijkt en denkt: "Voor mijn verjaardag zal het zeker zonnig zijn," terwijl de algemene voorspelling voor de week regen aangeeft. We zijn te optimistisch over de robot in specifieke momenten.

De oplossing? Als je de robot alleen maar vertelt hoe goed hij is in het verleden (bijvoorbeeld: "Hij heeft 77% van de vragen goed beantwoord"), verdwijnt dit optimisme. Maar als je alleen uitlegt hoe de data werkt, blijft het optimisme hangen.

3. De Grootvader-Regel (Zelfvertrouwen)

Terwijl we onze mening over de robot kunnen aanpassen, is dat heel lastig met onze mening over onszelf.

  • Als iemand denkt: "Ik ben een goede puzzelaar," dan blijft hij dat denken, zelfs als hij ziet dat hij op dat moment een fout maakt.
  • Dit is als een grootvader die denkt dat hij nog steeds net zo snel kan rennen als toen hij 20 was. Geen hoeveelheid informatie over zijn huidige conditie kan die overtuiging volledig wegnemen. Mensen verdedigen hun eigen ego.

4. Meer Informatie = Meer Chaos?

Je zou denken: "Als we mensen meer informatie geven over de robot en de data, maken ze betere keuzes."
Nee, niet altijd.

De onderzoekers ontdekten een vreemd effect:

  • Meer informatie maakte de keuzes van de mensen sneller en heviger, maar niet beter.
  • Het was alsof je iemand een superkrachtige bril gaf. Ze zagen de details scherper, maar ze renden daardoor ook sneller de verkeerde kant op.
  • Mensen vertrouwden de robot vaker als ze dachten dat hij slim was, en hielden het vaker zelf over als ze dachten dat ze slim waren. Maar dit leidde niet tot een betere einduitslag.

De Grote Les: Vertrouwen is niet hetzelfde als Winnen

De grootste ontdekking is dit: Wat mensen doen, is niet altijd wat ze zouden moeten doen om te winnen.

Stel je een voetbalteam voor. De trainer (de mens) denkt: "Ik denk dat ik de bal beter kan schieten dan de spits (de AI)." Dus hij schiet zelf. Maar de spits had de bal net zo goed kunnen scoren. Door te vertrouwen op zijn eigen gevoel (het anker), mist het team de kans op een doelpunt.

Wat betekent dit voor de toekomst?

De onderzoekers zeggen dat we stoppen met alleen maar "transparantie" te geven (alleen maar uitleggen hoe de AI werkt). Dat werkt niet genoeg. In plaats daarvan moeten we:

  1. Spiegels neerzetten: Laat mensen zien dat ze vaak te optimistisch zijn over de AI in specifieke momenten.
  2. Onderzoek naar de basis: Werk aan de vaste overtuigingen van mensen voordat ze beginnen, niet alleen tijdens het werk.
  3. Scheiding maken: Geef informatie om iets te begrijpen (kalibratie), maar geef aparte, simpele hulpmiddelen om een keuze te maken (beslissing).

Kortom: We zijn vaak te zeker van onszelf en te optimistisch over robots. Meer informatie helpt niet altijd om dit te fixen; soms maakt het de verwarring alleen maar groter. De kunst is om te leren wanneer je echt moet luisteren naar je gevoel en wanneer je moet luisteren naar de data.