Trade-offs in Cardiovascular Risk Prediction Using Race and Social Determinants of Health

Deze studie toont aan dat hoewel het verwijderen van ras uit cardiovasculaire risicomodellen de statistische pariteit verbetert, zowel het vervangen door sociale determinanten als het volledig uitsluiten van deze variabelen leiden tot onopgemerkte klinische schade voor zwarte patiënten, wat aantoont dat gemiddelde prestatie-indicatoren de volledige impact op gezondheidsrechtvaardigheid niet vangen.

Hammarlund, N., Wang, X., Grant, D., Purves, D.

Gepubliceerd 2026-04-04
📖 4 min leestijd☕ Koffiepauze-leesvoer
⚕️

Dit is een AI-gegenereerde uitleg van een preprint die niet peer-reviewed is. Dit is geen medisch advies. Neem geen gezondheidsbeslissingen op basis van deze inhoud. Lees de volledige disclaimer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat artsen een weersvoorspelling maken, maar dan voor hartaanvallen in plaats van regen. Ze gebruiken een slim computerprogramma (een algoritme) om te voorspellen wie de komende 10 jaar een hartaanval kan krijgen. Als het risico hoog genoeg is, krijgt de patiënt medicijnen om het hart te beschermen.

Deze studie, geschreven door Noah Hammarlund en zijn team, onderzoekt een heel belangrijk dilemma: Hoe moeten we dit computerprogramma bouwen om eerlijk te zijn?

Vooral in de VS wordt er momenteel gediscussieerd over twee dingen:

  1. Mogen we de ras van een patiënt in het programma stoppen? (Vroeger wel, nu willen veel mensen dat niet, omdat het soms als discriminerend wordt gezien).
  2. Kunnen we ras vervangen door sociale factoren? Denk aan: heb je genoeg geld? Heb je een goede baan? Voel je je veilig in je buurt? (Dit noemen ze Social Determinants of Health of SDoH).

De auteurs hebben drie verschillende versies van dit "weersvoorspelling"-programma getest om te zien wat er gebeurt:

De Drie Versies van het Programma

  1. Versie 1 (De oude manier): Het programma kijkt naar medische cijfers (bloeddruk, cholesterol) én het ras van de patiënt.
  2. Versie 2 (De vervangings-methode): Het programma kijkt naar medische cijfers, maar in plaats van ras, kijkt het naar de sociale situatie (geld, huisvesting, discriminatie-ervaringen).
  3. Versie 3 (De 'neutrale' manier): Het programma kijkt alleen naar medische cijfers. Geen ras, geen sociale factoren. Alles is "kleurloos".

Wat bleek eruit? (De Simpele Samenvatting)

Het verrassende nieuws is dit: Alle drie de programma's waren even goed in het voorspellen van hartaanvallen in het algemeen. Als je naar de totale groep kijkt, maken ze allemaal ongeveer even veel goede voorspellingen.

MAAR, als je gaat kijken naar wie precies wel of geen medicijnen krijgt, gebeurt er iets heel interessants. Het is alsof je de instellingen van een thermostaat iets verandert: de gemiddelde temperatuur blijft hetzelfde, maar in één kamer wordt het koud en in een andere heet.

1. Wat gebeurt er als we Ras vervangen door Sociale Factoren? (Versie 2)

Stel je voor dat je een net gebruikt om vissen te vangen.

  • Met deze versie vingen ze meer zwarte patiënten die een risico hadden (goed nieuws!).
  • MAAR, ze vingen ook veel meer zwarte patiënten die geen risico hadden.
  • Het gevolg: Veel zwarte mensen kregen medicijnen die ze eigenlijk niet nodig hadden. Dit noemen we overtreatment (overbehandeling). Het programma werd "bang" en gaf veel mensen medicijnen om zeker te zijn, wat leidde tot onnodige kosten en bijwerkingen voor een specifieke groep.

2. Wat gebeurt er als we Ras en Sociale Factoren helemaal weghalen? (Versie 3)

Nu gooien we het net weg en kijken we alleen naar de vis zelf.

  • Dit programma was heel streng. Het gaf minder zwarte mensen medicijnen.
  • Het gevaar: Hierdoor misten ze een paar zwarte mensen die wel een hartaanval kregen, maar die het programma als "veilig" zag.
  • Het gevolg: In hun test vonden ze 4 zwarte mensen die een hartaanval kregen, maar die geen medicijnen hadden gekregen omdat het programma dacht dat ze veilig waren. Dit noemen we undertreatment (onderbehandeling). Dit is levensgevaarlijk.

De Grootste Les: De "Gemiddelde" Leugent

De schrijvers zeggen: "Kijk niet alleen naar het gemiddelde!"
Als je naar de totale groep kijkt, lijken alle programma's prima. Maar als je de zwarte gemeenschap apart bekijkt, zie je dat elke keuze een prijs heeft:

  • Kies je voor sociale factoren? Dan krijgen veel mensen onnodige medicijnen.
  • Kies je voor een 'neutrale' lijst zonder ras? Dan krijgen sommige mensen die het nodig hebben, geen medicijnen.

Het is alsof je een schaduw probeert te vangen. Als je de zon (het ras) weghaalt, verdwijnt de schaduw, maar je ziet ook niet meer waar de obstakels zaten. Als je de schaduw vervangt door een andere vorm (sociale factoren), zie je de obstakels, maar is de vorm niet helemaal hetzelfde.

Conclusie in Gewone Taal

De auteurs concluderen dat er geen perfecte oplossing is.

  • Het verwijderen van 'ras' uit medische software klinkt mooi en eerlijk, maar het kan onbedoeld leiden tot het missen van mensen die echt hulp nodig hebben.
  • Het vervangen van 'ras' door 'sociale factoren' klinkt logisch, maar kan leiden tot onnodige behandelingen.

De boodschap is: We moeten niet blindelings kiezen voor één manier. Artsen en ziekenhuizen moeten weten dat elke keuze voor een computerprogramma een afweging is tussen "te veel medicijnen geven" en "te weinig medicijnen geven". Vooral voor zwarte patiënten, die al een zwaardere last dragen, is het cruciaal om te weten welke afweging we maken.

Kortom: Een eerlijk algoritme is niet alleen een kwestie van wat je weglaat, maar van wat je vervangt en welke gevolgen dat heeft voor de echte mensen die op de stoel zitten.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →