Design Guidance Towards Addressing Over-Reliance on AI in Sensemaking

Dit artikel onderzoekt het ontwerp van door GenAI-aangevulde groepsbewustzijnstools die, in plaats van expliciete instructies te geven, visuele data gebruiken om cognitieve conflicten op te wekken en zo autonome zingeving in samenwerking te bevorderen.

Yihang Zhao, Wenxin Zhang, Amy Rechkemmer, Albert Meroño Peñuela, Elena Simperl

Gepubliceerd Wed, 11 Ma
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat een groep vrienden een puzzel probeert op te lossen. Soms gebruiken ze een slimme robot (GenAI) om hen te helpen. Maar hier zit een groot gevaar: als de robot te hardop en te duidelijk zegt "Doe jij dit, doe jij dat, en dan lossen jullie het zo op", dan stoppen de vrienden met nadenken. Ze worden lui, volgen alleen de instructies en vergeten hoe ze zelf een oplossing moeten vinden. Dit noemen de auteurs over-reliance (te veel afhankelijkheid).

Deze paper stelt een slimme oplossing voor: in plaats van de robot te laten leiden, laten we hem spiegelen.

Hier is de uitleg in simpele taal, met een paar creatieve vergelijkingen:

1. De "Leraar" vs. De "Spiegel"

  • De slechte aanpak (De Leraar): Stel je voor dat de robot als een strenge leraar werkt die zegt: "Jij moet deze zin herschrijven, jij moet meer praten, en jullie moeten dit punt bespreken." De groep kijkt alleen maar naar het bord en volgt de stappen. Ze denken niet zelf na.
  • De goede aanpak (De Spiegel): De robot doet niets anders dan een spiegel voor de groep houden. Hij laat zien wie wat heeft gedaan, maar zegt niets. Hij zegt niet "Jij bent te stil", maar laat gewoon zien dat de ene persoon veel heeft bijgedragen en de andere nauwelijks. De groep ziet het zelf, denkt erover na en zegt: "Hé, wacht even, waarom praat jij niet?" Dit zorgt voor een kognitieve botsing (een klein conflictje in het hoofd) dat hen dwingt om zelf te praten en te nadenken.

2. Wat kan de nieuwe robot (GenAI) nu eigenlijk?

Oude spiegel-systemen (Group Awareness Tools) konden alleen tellen: "Hoeveel woorden heeft iedereen gezegd?" Dat is makkelijk, maar saai. Het vertelt je niet hoe goed de discussie was.

De nieuwe robot (GenAI) is slim genoeg om te lezen wat er gezegd is, net als een mens. Hij kan zien:

  • Bouwen jullie op elkaars ideeën?
  • Begrijpen jullie elkaar wel echt, of praten jullie langs elkaar heen?
  • Zijn er spanningen die niet direct zichtbaar zijn?

Hij kan dus de inhoud van de discussie analyseren, niet alleen het aantal woorden.

3. De drie regels voor een goede robot-spiegel

De auteurs komen met drie belangrijke regels om te voorkomen dat de robot weer gaat "leren":

Regel 1: Gebruik de robot alleen waar hij echt slim is.
Als het gaat om simpele tellingen (wie heeft er 5 keer geklikt?), gebruik dan een simpele rekenmachine. Die is sneller en betrouwbaarder. Gebruik de slimme robot (GenAI) alleen voor de moeilijke dingen: het begrijpen van de betekenis van wat er gezegd wordt.

Regel 2: Laat het zien, vertel het niet.
Dit is het belangrijkste. Stel je een radar-kaart voor (een web van lijnen).

  • Oude manier: De kaart toont alleen wat mensen zeggen dat ze weten.
  • Nieuwe manier: De kaart toont wat ze zeggen, maar de achtergrondkleur verandert op basis van wat de robot ziet in hun echte gesprek.
    • Donkere kleur: "Jullie zeggen dat jullie dit snappen, en jullie gesprek bewijst dat jullie het snappen." (Geen probleem).
    • Lichte kleur: "Jullie zeggen dat jullie dit snappen, maar jullie gesprek laat zien dat jullie er verwarrend over doen."
      De robot zegt niet: "Jullie begrijpen het niet!" Hij laat alleen de lichte kleur zien. De groep moet zelf zien: "Oh, die lichte kleur... waarom is dat?" En dan gaan ze erover discussiëren.

Regel 3: Laat de groep zelf duiken in de details.
Als de groep een lichte kleur ziet, mogen ze niet zomaar aannemen dat de robot gelijk heeft. Ze moeten kunnen "zweven" met hun muis (hover) over die kleur. Dan verschijnen er stukjes tekst uit hun eigen gesprek als bewijs.

  • De groep leest de tekst.
  • Ze beslissen zelf: "Ja, die robot heeft gelijk, we waren hier inderdaad verward." Of: "Nee, die robot begrijpt het niet, we hadden een goede reden voor onze verwarring."
    Zo blijft de groep de baas over de discussie, en is de robot slechts een hulpmiddel om de spiegel helder te houden.

Conclusie: Waarom is dit belangrijk?

Het doel is niet om de groep te laten doen wat de robot zegt. Het doel is om de robot te gebruiken als een versterker van hun eigen nadenken.

Door de robot slim te laten kijken, maar hem te verbieden om instructies te geven, houden we de "kognitieve botsing" levendig. Die botsing is nodig om mensen samen te laten werken, te discussiëren en echte oplossingen te vinden, in plaats van alleen maar knoppen in te drukken die een robot heeft aangegeven.

Kortom: Laat de robot de spiegel zijn, niet de leraar.