Bias in respiratory diagnoses by Large Language Models (LLMs) in Low Middle Income Countries (LMICs)

Die Studie zeigt, dass große Sprachmodelle bei der Diagnose von Atemwegserkrankungen in Ländern mit niedrigem und mittlerem Einkommen aufgrund einer Verzerrung zugunsten der Epidemiologie hochentwickelter Länder weniger relevante Vorschläge machen als lokale Ärzte, selbst wenn der Standort explizit angegeben wird.

Mouelhi, A., Patel, K., Kussad, S., Ojha, S., Prayle, A. P., LMIC Medical AI Alignment Group,

Veröffentlicht 2026-03-03
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre
⚕️

Dies ist eine KI-generierte Erklärung eines Preprints, das nicht peer-reviewed wurde. Dies ist kein medizinischer Rat. Treffen Sie keine Gesundheitsentscheidungen auf Grundlage dieses Inhalts. Vollständigen Haftungsausschluss lesen

Each language version is independently generated for its own context, not a direct translation.

🌍 Der digitale Arzt, der nur Amerika kennt

Stellen Sie sich vor, Sie haben einen super-intelligenten, digitalen Assistenten (einen sogenannten „Künstlichen Intelligenz"-Chatbot), der wie ein sehr gebildeter Arzt wirkt. Dieser Assistent wurde mit Millionen von Büchern, Artikeln und medizinischen Berichten trainiert, um Krankheiten zu erkennen.

Das Problem: Fast alle diese Bücher und Berichte kamen aus reichen Ländern wie den USA oder Großbritannien. Der digitale Arzt hat also nur gelernt, wie Krankheiten dort aussehen. Er weiß nicht viel über die Welt in Ländern mit weniger Geld (den sogenannten „LMICs" wie Ghana, Indien oder Brasilien).

🕵️‍♂️ Das Experiment: Ein Test mit fünf Fällen

Die Forscher haben sich fünf kurze, knifflige Krankengeschichten ausgedacht. Diese Geschichten waren so geschrieben, dass die richtige Diagnose davon abhängt, wo der Patient lebt.

  • Beispiel: Ein Patient hat Husten und Fieber. In Großbritannien ist das vielleicht eine Lungenentzündung. In Ghana könnte es aber Tuberkulose oder eine andere tropische Krankheit sein, die es in Großbritannien gar nicht gibt.

Dann haben sie zwei Gruppen gebeten, die Diagnose zu stellen:

  1. Echte Ärzte aus fünf verschiedenen Ländern (UK, Ghana, Indien, Jordanien, Brasilien).
  2. Die KI-Chatbots (wie ChatGPT, Google Gemini, etc.).

🌐 Der Trick mit der „Brille"

Die Forscher haben die KI auf zwei Arten getestet:

  1. Der „VPN-Trick": Sie haben die KI so getarnt, als würde sie sich tatsächlich in Ghana oder Indien befinden (durch einen digitalen Tunnel, der ihre Herkunft verschleiert).
  2. Der „Hinweis": Sie haben der KI extra in den Prompt geschrieben: „Dieser Patient lebt in Ghana."

Das Ergebnis war überraschend:
Selbst wenn die KI wusste, dass sie sich in Ghana befand, oder wenn sie so getarnt war, als wäre sie dort, hatte sie immer noch die „reiche Welt"-Diagnosen im Kopf.

  • Die echten Ärzte in Ghana dachten an viele verschiedene Möglichkeiten (eine breite Palette).
  • Die KI dachte nur an die wenigen Möglichkeiten, die in reichen Ländern üblich sind.

🍎 Eine einfache Analogie: Der Supermarkt

Stellen Sie sich vor, die KI ist ein Supermarkt, der nur mit Lebensmitteln aus Europa gefüllt ist.

  • Wenn Sie in Europa einkaufen, finden Sie alles, was Sie brauchen (Milch, Brot, Käse).
  • Wenn Sie aber nach Afrika reisen und in denselben Supermarkt gehen, um dort einzukaufen, finden Sie keine Bananen, keine Maniok-Wurzeln und keine speziellen Gewürze, die dort üblich sind. Stattdessen finden Sie nur wieder europäisches Brot.

Die KI ist wie dieser Supermarkt. Sie wurde mit „europäischen Daten" gefüllt. Wenn sie versucht, ein Problem in Afrika zu lösen, schlägt sie Lösungen vor, die dort gar nicht verfügbar oder relevant sind. Selbst wenn Sie dem Supermarkt sagen: „Hey, wir sind jetzt in Afrika!", bleiben die Regale voll mit europäischen Produkten.

⚠️ Warum ist das gefährlich?

Wenn ein Arzt in einem Land wie Indien oder Brasilien auf diese KI hört, könnte er eine seltene, aber tödliche Krankheit übersehen, weil die KI sagt: „Das ist wahrscheinlich nur eine Grippe" (weil Grippe in den USA häufiger ist als die lokale Krankheit).

Die Studie zeigt: Die KI ist nicht neutral. Sie hat eine Voreingenommenheit (Bias) zugunsten reicher Länder.

💡 Was ist die Lösung?

Die Autoren sagen:

  1. Vorsicht: Wir sollten diese KI-Systeme noch nicht blind in Ländern mit weniger Vertrauen einsetzen, ohne sie vorher dort getestet zu haben.
  2. Diversität: Die Firmen, die diese KIs bauen, müssen ihre Datenbanken mit Wissen aus der ganzen Welt füllen, nicht nur aus den USA und Europa.
  3. Prüfung: Bevor eine KI als „Arzt" zugelassen wird, muss sie beweisen, dass sie auch in armen Ländern gut funktioniert.

Kurz gesagt: Ein digitaler Arzt, der nur in New York studiert hat, ist vielleicht nicht der beste Arzt für einen Patienten in Nairobi. Wir brauchen KIs, die die ganze Welt verstehen, nicht nur die reiche Hälfte.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →