Scaffolding Human-AI Collaboration: A Field Experiment on Behavioral Protocols and Cognitive Reframing

Een veldexperiment bij een Fortune 500-bedrijf toont aan dat, hoewel toegang tot generatieve AI gelijk was, een cognitieve interventie die AI als 'denkpartner' presenteert de kwaliteit van documenten verbeterde, terwijl een gedragsprotocollering met verplichte samenwerking juist leidde tot lagere kwaliteit en productie.

Oorspronkelijke auteurs: Alex Farach, Alexia Cambon, Lev Tankelevitch, Connie Hsueh, Rebecca Janssen

Gepubliceerd 2026-04-13
📖 5 min leestijd🧠 Diepgaand

Dit is een AI-gegenereerde uitleg van het onderstaande artikel. Het is niet geschreven of goedgekeurd door de auteurs. Raadpleeg het oorspronkelijke artikel voor technische nauwkeurigheid. Lees de volledige disclaimer

Each language version is independently generated for its own context, not a direct translation.

Het Grote Experiment: Hoe werken we het beste samen met AI?

Stel je voor dat een groot bedrijf (Gap Inc.) aan al zijn werknemers een superkrachtige nieuwe robot-assistent geeft: Microsoft Copilot. Iedereen heeft dezelfde robot. Maar de vraag is: hoe gebruiken mensen die robot het beste?

De onderzoekers van Microsoft wilden weten of het helpt om mensen te dwingen om op een heel specifieke, gestructureerde manier samen te werken met de robot, of dat het beter is om ze gewoon te leren hoe ze de robot als een "denkpartner" moeten zien.

Ze deden dit met 388 werknemers in twee verschillende oefeningen. Hier is wat er gebeurde, vertaald naar simpele beelden:


1. De "Gedwongen Dans" (Gedragsinterventie)

Het idee:
In de ene groep kregen teams een strikt script. Ze moesten:

  1. Samen in een vergaderzaal zitten.
  2. Hardop discussiëren over het probleem.
  3. Die discussie opschrijven.
  4. De robot pas gebruiken om het eindverslag te schrijven op basis van die notities.

De vergelijking:
Dit is alsof je twee mensen die een taart moeten bakken, dwingt om eerst een uur lang hardop te praten over de ingrediënten, alles op te schrijven in een notitieblok, en pas dan de oven aan te zetten. Ze mogen niet gewoon samenwerken zoals ze dat normaal doen.

Het resultaat:

  • Minder taarten: Veel teams haalden de deadline niet. De strikte regels maakten het werk te traag en te ingewikkeld.
  • Slechtere taarten: De taarten die wel werden afgeleverd, waren van mindere kwaliteit dan die van de groep die gewoon vrij mocht werken.
  • De les: Soms is een te strakke danspas (protocol) juist hinderlijk. Als je mensen te veel regels geeft, blokkeer je hun creativiteit en snelheid. De robot werd hier gezien als een bureaucraat, niet als een helper.

2. De "Denkpartner Training" (Cognitieve intervententie)

Het idee:
In de andere groep kregen mensen een korte training. Ze leerden niet hoe ze op de knoppen moesten drukken, maar hoe ze tegen de robot moesten denken.
Ze leerden: "Zie de robot niet als een zoekmachine (waar je één vraag stelt en het antwoord krijgt), maar als een denkpartner (een slimme stagiair met wie je kunt discussiëren, fouten kunt maken en ideeën kunt verfijnen)."

De vergelijking:
Stel je voor dat je een nieuwe auto krijgt.

  • De ene groep kreeg een handleiding met de regels: "Druk op knop A, dan op knop B."
  • De andere groep kreeg een lesje: "Deze auto is een racewagen. Je moet met hem praten, hem uitdagen en samen met hem de weg verkennen."

Het resultaat:

  • Topkwaliteit: Mensen die deze "denkpartner"-mentaliteit kregen, maakten vaker documenten van perfecte kwaliteit. Ze haalden de top van de ranglijst.
  • Geen gemiddelde winst: Als je naar het gemiddelde van iedereen keek, was er geen groot verschil. Maar voor degenen die echt de top wilden bereiken, hielp de training enorm.
  • De les: Als je mensen leert om de robot als een partner te zien in plaats van een gereedschap, kunnen ze beter gebruikmaken van wat de robot kan.

De "Valstrikken" in het experiment

Het onderzoek had een paar haken en ogen, net zoals bij elk groot experiment:

  1. De Tijd van de Dag: De groep met de strikte regels deed hun oefening 's middags (wanneer mensen vaak moe zijn), en de andere groep 's ochtends. Misschien waren de middaggroepen gewoon moe en niet omdat de regels slecht waren. De onderzoekers denken echter dat de regels zelf het grootste probleem waren.
  2. De Robot-jury: De documenten werden beoordeeld door een andere AI. Deze AI hield van lange teksten. De groep met de strikte regels schreef kortere teksten (omdat ze tijd verloren met de regels), en kreeg daardoor een lagere score. Het is mogelijk dat de inhoud goed was, maar dat de "robot-judge" te streng was op lengte.
  3. De "Herstel"-effecten: De groep die de "denkpartner"-training kreeg, begon de tweede oefening met een iets negatiever gevoel (omdat de eerste oefening met de strenge regels zwaar was). Toen ze de training kregen, voelden ze zich weer beter. Het is mogelijk dat ze niet zozeer nieuwe dingen leerden, maar gewoon herstelden van de eerdere frustratie.

Wat betekent dit voor bedrijven? (De conclusie)

  1. Geef geen strakke scripts: Als je teams dwingt om op een heel specifieke manier met AI te werken (bijvoorbeeld: eerst praten, dan typen, dan AI), kan dat averechts werken. Het vertraagt het werk en maakt het minder goed. Laat mensen vrij om hun eigen manier te vinden.
  2. Verander de mindset: Het is belangrijker om mensen te leren hoe ze naar AI moeten kijken. Als je ze leert om AI als een slimme gesprekspartner te zien in plaats van een simpele zoekmachine, kunnen ze betere resultaten behalen.
  3. Maatwerk is key: Er is geen "één groot recept" dat voor iedereen werkt. Het hangt af van de taak en de mensen.

Kortom: Geef mensen de vrijheid om te werken, maar leer ze wel hoe ze de robot als een slimme vriend moeten behandelen in plaats van als een domme machine.

Verdrinkt u in papers in uw vakgebied?

Ontvang dagelijkse digests van de nieuwste papers die bij uw onderzoekswoorden passen — met technische samenvattingen, in uw taal.

Probeer Digest →