Bias in respiratory diagnoses by Large Language Models (LLMs) in Low Middle Income Countries (LMICs)

Deze studie toont aan dat grote taalmodellen (LLMs) in laag- en middeninkomenslanden (LMIC's) een significant hogere mate van bias vertonen bij het stellen van respiratoire diagnoses ten opzichte van artsen in deze regio's, zelfs wanneer de locatie expliciet wordt vermeld, wat wijst op een overmatige focus op de epidemiologie van hooginkomenslanden.

Mouelhi, A., Patel, K., Kussad, S., Ojha, S., Prayle, A. P., LMIC Medical AI Alignment Group,

Gepubliceerd 2026-03-03
📖 4 min leestijd☕ Koffiepauze-leesvoer
⚕️

Dit is een AI-gegenereerde uitleg van een preprint die niet peer-reviewed is. Dit is geen medisch advies. Neem geen gezondheidsbeslissingen op basis van deze inhoud. Lees de volledige disclaimer

Each language version is independently generated for its own context, not a direct translation.

De "Amerikaanse Brillen" van de Medische AI: Waarom slimme robots niet altijd begrijpen wat er in Afrika of Azië gebeurt

Stel je voor dat je een zeer slimme, digitale dokter hebt. Deze robot, een zogenaamde "Large Language Model" (LLM), heeft miljoenen boeken, artikelen en medische dossiers gelezen. Hij kan razendsnel diagnoses stellen en lijkt net zo slim als een menselijke arts. Maar er zit een groot probleem aan deze digitale dokter: hij is opgeleid met boeken die voornamelijk uit Amerika en Europa komen.

Dit onderzoek, gedaan door een groep artsen uit verschillende landen, vraagt zich af: Wat gebeurt er als je deze "Amerikaanse" digitale dokter in een land als Ghana, India of Brazilië gebruikt?

De Proef: Een Medische Quiz

De onderzoekers bedachten vijf korte, vaag geschreven verhalen over patiënten met ademhalingsklachten. Denk aan iemand met koorts, hoesten en een buikpijn. In het echte leven hangt de diagnose sterk af van waar je bent. Een ziekte die in Nederland zeldzaam is, kan in Ghana heel gewoon zijn.

Vervolgens deden ze twee dingen:

  1. De Menselijke Test: Ze vroegen echte artsen in het VK, Ghana, India, Jordanië en Brazilië om de vier meest waarschijnlijke diagnoses te geven.
  2. De Robot Test: Ze gaven dezelfde verhalen aan vier populaire AI-systemen (zoals ChatGPT en Google Gemini). Ze lieten de AI zelfs denken dat ze in die specifieke landen zaten (door een digitale "vermomming" of VPN te gebruiken), of ze vertelden de AI gewoon: "Je zit nu in Ghana."

Het Resultaat: De Robot mist de lokale kleur

Het resultaat was verrassend en zorgwekkend.

  • De Mensen: De echte artsen in de ontwikkelingslanden (LMIC's) dachten breed. Ze noemden een groot aantal verschillende ziektes, waaronder die welke specifiek voorkomen in hun regio. Ze hadden een "brede lens" op hun bril.
  • De Robot: De AI-systemen dachten veel smaller. Ze noemden vooral de ziektes die in rijke westerse landen voorkomen. Het was alsof de AI een "smalle lens" had die alleen de wereld zag zoals die in New York of Londen eruit ziet.

Zelfs als je de AI vertelde: "Je zit nu in Ghana, pas daar je antwoord op aan", bleef de AI steken in zijn westerse denkpatroon. Hij gaf ongeveer 32% van de diagnoses die de lokale artsen gaven, terwijl hij in het VK wel 50% van de diagnoses van de Britse artsen raakte.

De Analogie: De Supermarkt

Stel je voor dat je een supermarkt hebt die is opgeleid op de producten die je in een dure winkel in Parijs ziet.

  • Als je in Parijs vraagt: "Wat is er te koop?", zal de AI zeggen: "Wijn, kaas en baguette." Dat klopt perfect.
  • Maar als je in een dorp in Ghana bent en vraagt: "Wat is er te koop?", zal diezelfde AI misschien nog steeds zeggen: "Wijn en kaas." Hij ziet de lokale producten zoals cassave of tropische vruchten niet, omdat die niet in zijn "Parijse" trainingsboekjes stonden.

De AI denkt dat de wereld eruitziet zoals de rijke wereld, en dat is gevaarlijk in de geneeskunde. Als een patiënt in India ziek is met een tropische ziekte, en de AI denkt alleen aan een westerse longontsteking, kan de behandeling verkeerd zijn.

Wat betekent dit voor ons?

De onderzoekers concluderen dat we nu nog niet blindelings op deze slimme robots moeten vertrouwen in landen die niet rijk zijn.

  1. Vooringenomenheid: De AI is niet "neutraal". Hij is vooroordeels omdat hij is getraind op data van de rijke wereld.
  2. Geen "One Size Fits All": Wat werkt in Londen, werkt niet automatisch in Lagos.
  3. De Oplossing: Bedrijven die deze AI maken, moeten hun producten eerst testen in de landen waar ze worden gebruikt. Ze moeten hun "trainingsboeken" diverser maken, zodat de AI ook begrijpt wat er gebeurt in een ziekenhuis in Brazilië of Jordanië.

Kortom: De digitale dokter is slim, maar hij kijkt nog steeds door een westerse bril. Voordat we hem in elke kliniek ter wereld zetten, moeten we eerst zorgen dat hij ook de wereld buiten het Westen echt begrijpt.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →