Causal Effects with Unobserved Unit Types in Interacting Human-AI Systems

Dit artikel introduceert een theoretisch en praktisch raamwerk om causale effecten op mensen te schatten in interactieve mens-AI-systemen, zelfs wanneer de specifieke identiteit van de eenheden en het interactienetwerk onbekend zijn, door gebruik te maken van een mens-AI-prior en een causal message passing-framework.

William Overman, Sadegh Shirani, Mohsen Bayati

Gepubliceerd 2026-03-03
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een groot, druk feestje organiseert op een online platform. Op dit feestje zitten twee soorten mensen: echte mensen en slimme robots (AI) die zich perfect voordoen als mensen. Ze praten met elkaar, reageren op berichten en beïnvloeden elkaars stemming.

Het probleem? Je kunt als organisator niet zien wie mens is en wie robot. Ze zien er allemaal hetzelfde uit.

Nu wil je weten: "Wat gebeurt er met de echte mensen als ik een speciaal bericht (bijvoorbeeld een 'succesverhaal') in hun feed zet?" Maar omdat de robots ook reageren (misschien zelfs negatief op dat positieve bericht), wordt het totale plaatje erg verwarrend. Als je gewoon naar het gemiddelde kijkt, lijkt het alsof je bericht niets doet, terwijl het voor de echte mensen juist een groot effect heeft.

Dit artikel van William Overman en zijn collega's van Stanford University biedt een slimme oplossing voor precies dit probleem. Hier is hoe het werkt, vertaald naar alledaagse taal:

1. Het Probleem: De "Naamloze" Menigte

In de oude wereld van wetenschappelijke experimenten wisten onderzoekers altijd wie ze onderzochten. Maar in de wereld van AI is dat niet meer zo.

  • De situatie: Je hebt een grote groep gebruikers. Sommigen zijn mens, sommigen zijn AI.
  • De moeilijkheid: Je hebt geen lijstje met namen. Je weet alleen dat "Gebruiker X" waarschijnlijk een mens is (bijvoorbeeld 80% kans) en "Gebruiker Y" waarschijnlijk een robot (20% kans).
  • Het doel: Je wilt weten wat het effect is op de echte mensen, maar je ziet ze niet. Je ziet alleen de chaos van alle reacties door elkaar.

2. De Oplossing: De "Grote Groepjes"-Strategie

De auteurs zeggen: "Oké, we kunnen niet kijken naar individuen, maar we kunnen wel kijken naar groepen."

Stel je voor dat je in plaats van naar één persoon te kijken, de hele menigte in verschillende bakken verdeelt op basis van hun "mens-zijn-kans":

  • Bak A: Vol met mensen die er heel menselijk uitzien (hoge kans op mens).
  • Bak B: Een mix van mensen en robots.
  • Bak C: Vol met mensen die er heel robotachtig uitzien (lage kans op mens).

Vervolgens geef je aan deze bakken verschillende behandelingen:

  • Bak A krijgt het positieve bericht.
  • Bak B krijgt niets.
  • Bak C krijgt het bericht, maar dan op een andere manier.

3. De Magie: Het Patroon Herkennen

Nu gebeurt er iets slim. Omdat je weet hoeveel procent van elke bak waarschijnlijk mens is, kun je een wiskundig patroon (een soort "recept") opstellen.

  • Als Bak A (veel mensen) heel enthousiast reageert op het bericht, en Bak C (weinig mensen) juist juist onverschillig of negatief reageert, dan zie je een duidelijk verschil in de gemiddelde reactie van de bakken.
  • Door deze verschillen te vergelijken, kan de computer de "menselijke reactie" uit de "robotreactie" filteren. Het is alsof je twee soorten geluiden in een luide kamer probeert te scheiden: als je weet dat de ene groep mensen altijd lacht en de andere groep altijd fluistert, kun je uit het totale lawaai precies berekenen hoe hard de mensen aan het lachen waren.

4. De Simulatie: Een Proefkeuken met Robots

Om te bewijzen dat dit werkt, hebben de auteurs een virtuele dating-app gebouwd.

  • De acteurs: Ze gebruikten geavanceerde AI (LLMs) om zowel "mensen" als "robots" te spelen. De echte mensen (in de simulatie) waren optimistisch en reageerden positief op succesverhalen. De robots waren cynisch en zagen positieve verhalen als nep.
  • Het experiment: Ze gaven het succesverhaal aan een deel van de groep.
  • Het resultaat: Als je alleen naar het totaalplaatje keek, leek het alsof het bericht niets deed (want de robots haalden de positieve reactie van de mensen op). Maar met hun nieuwe methode konden ze precies zien: "Ah, voor de echte mensen is dit bericht een enorme boost!"

Waarom is dit belangrijk?

Vandaag de dag zitten we vol met AI-bots op sociale media. Als bedrijven of overheden iets willen testen (bijvoorbeeld: "Helpt dit nieuwe ontwerp om mensen gelukkiger te maken?"), kunnen ze niet zomaar kijken naar de cijfers. Als er veel bots tussen zitten die anders reageren dan mensen, krijg je een verkeerd beeld.

Deze paper geeft ons een bril om door de chaos van bots heen te kijken en te zien wat er echt gebeurt met de mensen. Het is een nieuwe manier om te experimenteren in een wereld waar we niet meer kunnen zien wie mens is en wie machine.

Kort samengevat:
Je kunt niet zien wie mens is en wie robot, maar door slimme groepjes te maken en te kijken hoe die groepjes in het gemiddelde reageren, kun je toch precies berekenen wat het effect is op de echte mensen. Het is alsof je een recept hebt om het menselijke geluid uit een storm van robotgeluid te filteren.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →