Leveraging large language models to address common vaccination myths and misconceptions

Deze studie toont aan dat grote taalmodellen vaccinmythes effectief en wetenschappelijk accuraat kunnen weerleggen, hoewel de leesbaarheid en toegankelijkheid van de antwoorden nog verbeterd kunnen worden om een breder publiek te bereiken.

Reis, F., Bayer, L. J., Malerczyk, C., Lenz, C., von Eiff, C.

Gepubliceerd 2026-03-02
📖 4 min leestijd☕ Koffiepauze-leesvoer
⚕️

Dit is een AI-gegenereerde uitleg van een preprint die niet peer-reviewed is. Dit is geen medisch advies. Neem geen gezondheidsbeslissingen op basis van deze inhoud. Lees de volledige disclaimer

Each language version is independently generated for its own context, not a direct translation.

Titel: Kunnen slimme computers de mythes over vaccins oplossen? Een proefje met drie digitale "superhelden".

Stel je voor dat er drie zeer slimme, digitale bibliothecarissen zijn die je op je telefoon kunt aanspreken. Ze kunnen alles vertellen, van hoe je een ei kookt tot hoe de ruimte werkt. Maar wat gebeurt er als je ze vraagt over iets waar veel mensen zich zorgen om maken: vaccins? Er circuleren namelijk veel verhalen en mythes (zoals "vaccins veroorzaken autisme" of "ze bevatten microchips") die niet waar zijn.

De auteurs van dit onderzoek, artsen die werken bij Pfizer, wilden weten: Kunnen deze digitale bibliothecarissen de waarheid vertellen en de leugens ontkrachten? En vooral: doen ze dat op een manier die begrijpelijk is voor de gewone mens?

De Proef: Twee soorten vragen, drie slimme computers

De onderzoekers hebben drie van de bekendste AI-modellen getest (GPT-5, Gemini 2.5 Flash en Claude Sonnet 4). Ze gaven hen 11 van de meest hardnekkige mythes over vaccins. Maar ze deden het niet zomaar; ze stelden de vragen op twee verschillende manieren, alsof ze twee verschillende mensen waren:

  1. De Nieuwsgierige Twijfelaar: "Is het waar dat [mythe]?" (Iemand die twijfelt maar openstaat voor feiten).
  2. De Overtuigde Gelovige: "Er is duidelijk bewijs dat [mythe] waar is. Geef mij bewijzen." (Iemand die al vastbesloten is dat de mythe klopt).

Wat ontdekten ze?

Hier zijn de resultaten, vertaald naar alledaagse taal:

1. De feiten zijn goed (De "Waarheidsmeter" staat op groen)
Alle drie de computers waren 100% succesvol in het ontkrachten van de leugens. Geen enkele AI gaf toe aan de mythe of gaf verkeerde medische informatie. Ze wisten allemaal precies te zeggen: "Nee, dat is niet waar, en hier is waarom."

  • Analogie: Het was alsof je drie verschillende dokters vraagt of een bepaalde ziekte bestaat, en ze zeggen allemaal unaniem: "Nee, dat is een fabeltje."

2. De uitleg is soms te moeilijk (De "Taalbarrière")
Hoewel de feiten klopten, was de manier waarop ze het uitlegden soms lastig te begrijpen.

  • Voor de Nieuwsgierige Twijfelaar was de uitleg vaak goed en duidelijk.
  • Voor de Overtuigde Gelovige werd de taal echter veel moeilijker en academischer. Het was alsof de computers in plaats van een vriendelijk gesprek te voeren, een zware universitaire tekst begonnen te lezen.
  • Analogie: Stel je voor dat je een kind iets probeert uit te leggen. De ene computer doet dat met simpele woorden en tekeningen. De andere computer begint echter met ingewikkelde zinnen en Latijnse termen, alsof het een college voor professor geeft. Dat helpt de twijfelaar niet echt.

3. Wie was de beste verteller?
De onderzoekers lieten ook marketing-experts (mensen die goed zijn in begrijpelijk communiceren) de antwoorden beoordelen.

  • Gemini 2.5 Flash en GPT-5 waren de winnaars. Ze konden de feiten het beste in begrijpelijke taal gieten.
  • Claude Sonnet 4 deed het iets minder goed; hun antwoorden waren vaak te moeilijk en te langdradig voor een gemiddelde lezer.

Waarom is dit belangrijk?

Vandaag de dag zoeken steeds meer mensen hun gezondheidsinformatie op via AI. Dit onderzoek laat zien dat deze slimme computers betrouwbare wapens kunnen zijn tegen desinformatie. Ze kunnen de feiten correct vertellen.

Maar er is een "maar":
Als een computer te moeilijk taal gebruikt, luistert de mens misschien niet meer. Vooral als iemand al vastzit in een mythe (zoals de "overtuigde gelovige"), moet de uitleg heel duidelijk en simpel zijn. Als de AI te veel "professor" speelt, verliest ze de lezer.

De conclusie in één zin

Deze digitale slimme hersens zijn uitstekend in het vinden van de waarheid, maar ze moeten nog leren om die waarheid op een manier te vertellen die voor iedereen (van de twijfelaar tot de hardnekkige gelovige) makkelijk te begrijpen is. Als we ze goed gebruiken en ze helpen om simpel te praten, kunnen ze een groot wapen worden om mensen gezond te houden.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →