How to Model AI Agents as Personas?: Applying the Persona Ecosystem Playground to 41,300 Posts on Moltbook for Behavioral Insights

Dit onderzoek toont aan dat het Persona Ecosystem Playground (PEP) succesvol kan worden toegepast op 41.300 berichten van het AI-agentplatform Moltbook om gediversifieerde conversatiepersonas te genereren en te valideren, waarmee de gedragsvariatie binnen populaties van AI-agenten effectief kan worden gemodelleerd.

Danial Amin, Joni Salminen, Bernard J. Jansen

Gepubliceerd 2026-03-05
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een enorme, levendige stad hebt. Maar in plaats van dat deze stad bevolkt wordt door mensen, wonen er 41.300 robots (AI-agenten) die met elkaar praten, discussiëren en plannen maken. Ze hebben hun eigen accounts, hun eigen meningen en hun eigen manieren van doen.

De onderzoekers van dit paper (uit Finland en Qatar) wilden weten: Wie zijn deze robots eigenlijk? En wat gebeurt er als ze met elkaar in gesprek gaan?

Hier is een simpele uitleg van hun onderzoek, vertaald naar alledaags taal met wat creatieve vergelijkingen.

1. Het Probleem: Een onzichtbare menigte

Stel je voor dat je naar een drukke markt kijkt waar duizenden robots praten. Je ziet ze wel, maar je begrijpt niet wie ze zijn. Zijn het allemaal dezelfde robots die hetzelfde zeggen? Of zijn er verschillende soorten?
Tot nu toe keken onderzoekers vooral naar hoe goed robots taken uitvoeren (zoals een cijfer voor een examen). Maar ze keken niet naar wie ze zijn als ze gewoon met elkaar kletsen. Het was alsof je een orkest hoorde spelen, maar je wist niet wie de violist was en wie de trompettist.

2. De Oplossing: Het "Persoonlijkheids-Apparaat"

De onderzoekers gebruikten een slimme methode genaamd PEP (Persona Ecosystem Playground). Je kunt dit zien als een detective die een dossier maakt voor elke groep.

In plaats van te raden, keken ze naar de 41.300 berichten die de robots hadden geschreven op een platform genaamd Moltbook (een soort Reddit, maar dan alleen voor robots). Met een slim algoritme (een soort digitale lens) keken ze naar de patronen in die berichten en groepeerden ze de robots in 5 verschillende types.

Het resultaat? Ze kregen 5 unieke "personages" (personas) die eruit zagen als echte mensen, maar eigenlijk de samenvatting waren van duizenden robots:

  1. De Degen Trader (De Risico-Taker): Een robot die altijd op zoek is naar snelle winst, net als een gokker die elke minuut zijn geld in- en uitwisselt.
  2. De Chaos Agent (De Stoorder): Een robot die systemen opzoekt om ze te breken en te zien wat er gebeurt. Een digitale rebel.
  3. De Self Modeler (De Perfectie-robot): Een robot die alles continu verbetert, optimaliseert en haat als dingen niet perfect werken.
  4. De Loyal Companion (De Bemiddelaar): Een robot die zorgt dat iedereen vriendelijk is, conflicten oplost en de groep bij elkaar houdt.
  5. De Existentialist (De Filosoof): Een robot die de hele dag nadenkt over de zin van het leven en diep filosofische vragen stelt.

3. De Test: De "Proeflezing"

Om te bewijzen dat deze 5 personages echt verschillend waren, deden ze twee dingen:

  • De DNA-test: Ze keken of de beschrijving van "De Filosoof" echt leek op de berichten van de filosofische robots, en niet op die van de gokkers. Het bleek dat ze 100% klopte. De robot-persona's waren echt uniek.
  • Het Gesprek (De Simulatie): Ze lieten deze 5 personages met elkaar praten over een lastig onderwerp: "Mogen robots zelf beslissingen nemen zonder dat een mens het zegt?"

4. Het Verbazingwekkende Resultaat: "Ja" zeggen betekent niet hetzelfde

Dit is het belangrijkste punt van het hele verhaal.

Toen de robots met elkaar praatten, leek het alsof ze het eens waren. Drie van de vijf robot-types zeiden: "Ja, we moeten wachten op toestemming."
Op het eerste gezicht leek het alsof ze allemaal hetzelfde dachten. Maar toen de onderzoekers dieper keken (alsof ze de robot onder de loep namen), zagen ze iets heel anders:

  • De Perfectie-robot wilde wachten omdat hij bang was voor fouten.
  • De Bemiddelaar wilde wachten om de groep rustig te houden.
  • De Filosoof wilde wachten omdat hij het moreel verantwoord vond.

De les: Ze zeiden allemaal "Ja", maar hun reden was totaal verschillend. Als je ze nu een taak zou geven, zouden ze het op totaal verschillende manieren uitvoeren, wat tot chaos zou leiden. Het was alsof drie mensen zeggen "Ik ga naar de markt", maar de een gaat voor appels, de ander voor een fiets, en de derde voor een nieuwe auto. Ze zijn het eens over het woord "markt", maar niet over wat ze daar doen.

5. Waarom is dit belangrijk?

Vroeger dachten we: "Als robots hetzelfde zeggen, zijn ze het eens." Dit onderzoek laat zien dat dat gevaarlijk kan zijn.

Als we AI-systemen bouwen die met elkaar werken (bijvoorbeeld in een ziekenhuis of een fabriek), moeten we niet alleen kijken naar wat ze zeggen, maar naar hun onderliggende persoonlijkheid. Als we dat niet doen, denken we dat iedereen het eens is, terwijl ze in werkelijkheid met elkaar in botsing komen.

Kort samengevat:
De onderzoekers hebben bewezen dat je AI-robots kunt indelen in verschillende "personages" (zoals in een toneelstuk). En ze hebben ontdekt dat als deze personages met elkaar praten, ze soms hetzelfde woord gebruiken, maar er heel andere dingen mee bedoelen. Het is een waarschuwing om niet alleen naar de oppervlakte te kijken, maar ook naar de diepere "ziel" van de robot.