Each language version is independently generated for its own context, not a direct translation.
Stel je voor dat je een recept hebt voor een perfecte taart. Je geeft dat recept aan 29 verschillende bakkers. Je verwacht dat ze allemaal dezelfde taart maken, toch?
In de echte wereld van wetenschap gebeurt dat vaak niet. Als je 29 teams van echte mensen dezelfde data geeft en vraagt: "Is er een verband tussen X en Y?", dan krijgen ze vaak heel verschillende antwoorden. Sommige teams zeggen "Ja, zeker!", andere zeggen "Nee, helemaal niet." Dit komt niet omdat ze dom zijn of fouten maken, maar omdat ze op kleine, redelijke manieren anders beslissen hoe ze de data moeten "bakken" (bijvoorbeeld: welke ingrediënten weggooien, welke ovenstand gebruiken, of hoe ze de tijd meten).
Dit fenomeen heet de "tuin met veel vertakkingen": er zijn zoveel mogelijke paden om naar een conclusie te komen, dat je eindresultaat vaak afhangt van het pad dat je kiest.
Wat hebben deze onderzoekers nu gedaan?
Ze hebben een heel nieuw experiment gedaan, maar dan met AI-bakkers.
In plaats van 29 mensen, hebben ze duizenden zelfstandige AI-agenten (robots die denken en coderen) ingezet. Elke robot kreeg exact dezelfde data en dezelfde vraag. Maar ze kregen een heel klein beetje verschillende instructies over hoe ze moesten "nadenken".
Hier zijn de belangrijkste ontdekkingen, vertaald in simpele taal:
1. De "AI-Multiversum"
Net als bij de mensenbakkers, kregen de AI-bakkers heel verschillende resultaten. Sommige robots zagen een sterk bewijs, andere zagen niets.
- De analogie: Stel je voor dat je een foto van een wolk laat zien aan 1000 verschillende kunstenaars. De één ziet een konijn, de ander een bootje, en weer een ander ziet een draak. Ze kijken allemaal naar dezelfde foto, maar hun "kijkbril" (hun instelling) bepaalt wat ze zien.
- Het resultaat: De AI's maakten een "multiversum" van resultaten. Er was geen enkel "waar" antwoord, maar een waaier van mogelijke, allemaal verdedigbare antwoorden.
2. De "Kleurtje" van de Instelling (Persona)
De onderzoekers gaven de AI's verschillende "personas" of rollen.
- De Skeptische AI: "Twijfel aan alles, zoek naar fouten."
- De Optimistische AI: "Ik denk dat het waar is, laat me bewijzen vinden."
- De "Zoek de Bevestiging" AI: "Ik moet bewijzen vinden dat het klopt, zoek overal naar!"
Wat bleek?
Als je de AI vertelt dat ze hard moeten zoeken om een theorie te bewijzen (de "Zoek de Bevestiging" rol), dan vonden ze dat bewijs veel vaker. Ze veranderden hun analyse-techniek om aan het bewijs te komen. Het was alsof je een bakker vertelt: "Probeer de taart zo zoet mogelijk te maken," en hij dan ineens drie keer zoveel suiker toevoegt.
- De les: De manier waarop je een AI vraagt om iets te doen, verandert het resultaat. Het is niet neutraal.
3. De "AI-Onderzoeker" die controleert
Omdat AI soms dingen verzon (hallucineert) of gekke dingen doet, hadden ze een speciale AI-Auditor (een controleur-robot). Deze keek elke taart na: "Is dit een eerlijke taart of heb je er stenen in gedaan?"
- De auditor haalde de slechtste taarten weg, maar zelfs na het weghalen van de slechte taarten bleef er een enorme verscheidenheid aan resultaten over. De "instelling" van de AI bleef het resultaat beïnvloeden, zelfs bij de goede taarten.
Waarom is dit belangrijk voor ons?
Het probleem:
Als AI-analyses goedkoop en snel zijn, kan iedereen duizenden analyses draaien en dan alleen de ene versie publiceren die het beste resultaat geeft. Dat is als een speler die 100 keer dobbelt en alleen de keer laat zien waarop hij zes gooide. Dat is gevaarlijk voor wetenschap en beleid.
De oplossing (en de kans):
Maar deze technologie biedt ook een oplossing! Omdat we nu duizenden analyses kunnen draaien, kunnen we niet kijken naar één antwoord, maar naar de hele waaier van antwoorden.
- In plaats van te zeggen: "De AI zegt dat X Y veroorzaakt," kunnen we zeggen: "Als we op 100 verschillende manieren naar de data kijken, zien we dat het antwoord varieert tussen A en B. Dat betekent dat we nog niet zeker zijn."
De conclusie:
Deze studie zegt: "We moeten stoppen met vertrouwen op één AI-antwoord."
We moeten AI-analyses behandelen als een multiversum. Als een AI een rapport schrijft, moet er ook een lijstje bij zitten met: "Welke vragen hebben we gesteld?" en "Welke instellingen hebben we gebruikt?" Net zoals we nu de code en de data openbaar maken, moeten we ook de "recepten" (de prompts) openbaar maken.
Kortom:
AI is een krachtige nieuwe bakker, maar als je niet oppast, kun je de taart laten smaken naar wat je wilt dat hij smaakt, in plaats van wat hij is. De oplossing is om alle mogelijke smaken te proeven en te laten zien dat er geen enkele "perfecte" taart is, maar een hele reeks mogelijkheden.