(Un)fair devices: Moving beyond AI accuracy in personal sensing

Dit literatuuronderzoek benadrukt de aanwezigheid van verborgen vooroordelen in AI-modellen op persoonlijke apparaten en pleit voor een verschuiving van puur prestatiegerichte evaluaties naar mensgerichte richtlijnen om eerlijke en betrouwbare gezondheids- en levensstijlintuigens te waarborgen.

Sofia Yfantidou, Marios Constantinides, Dimitris Spathis, Athena Vakali, Daniele Quercia, Fahim Kawsar

Gepubliceerd 2026-03-04
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een slimme horloge of een slimme ring draagt. Dit is niet zomaar een apparaatje; het is als een digitale assistent die 24 uur per dag aan je zijde staat. Hij luistert naar je hartslag, meet hoe je slaapt, telt je stappen en kijkt zelfs of je misschien ziek wordt. Het klinkt als toverij, maar er zit een groot probleem in deze magie.

Deze paper, getiteld "(On)eerlijke apparaten", vertelt ons dat deze slimme helpers vaak vooringenomen zijn. Ze zijn niet eerlijk voor iedereen.

Hier is de uitleg in gewone taal, met een paar creatieve vergelijkingen:

1. De "Witte Kamer" van de Leerling

Stel je voor dat je een kok wilt leren koken. Maar je stuurt die kok alleen naar een keuken waar alleen maar mensen met blond haar en blauwe ogen eten. De kok leert dan hoe hij voor die specifieke groep het beste kan koken.

Als die kok later in een restaurant komt waar mensen met donkerder huidskleur, andere lichaamsvormen of verschillende culturele gewoontes eten, zal hij de gerechten niet goed kunnen bereiden. De smaken kloppen niet, de porties zijn verkeerd.

Dit is precies wat er gebeurt met onze slimme apparaten:
De wetenschappers die de software (de "kok") schrijven, trainen deze vaak met data van een heel specifieke groep mensen: jonge, westerse, welgestelde studenten (vaak van universiteiten).

  • Het gevolg: De apparaten werken fantastisch voor die studenten, maar falen voor ouderen, mensen met een ander lichaamsgewicht, of mensen met een andere huidskleur.

2. De "Blinde Vlekken" in de Data

De auteurs van dit artikel hebben gekeken naar honderden onderzoeken. Wat bleek? Slechts 1 op de 10 onderzoeken keek eigenlijk wel eens of hun apparaat eerlijk was voor iedereen. De rest kijkt alleen naar de "gemiddelde" prestatie.

  • Voorbeeld 1 (Huidskleur): Een pulsoxymeter (een apparaatje dat zuurstof in het bloed meet) werkt minder goed op donkere huid. Het is alsof de camera van je telefoon de kleuren van donkerder huid niet goed kan onderscheiden, waardoor de meting fout is. Dit kan levensgevaarlijk zijn als iemand ziek is.
  • Voorbeeld 2 (Lichaamsbouw): Een hartslagmeter die op je pols zit, werkt minder goed bij mensen met meer spiermassa of een grotere pols. Het signaal wordt "verdoofd" door het extra vlees, net zoals een radio die slecht ontvangst heeft als je te ver van de zender staat.
  • Voorbeeld 3 (Leeftijd): Een apparaat dat valpartijen detecteert, is vaak getraind op de bewegingen van jonge, energieke mensen. Als een oudere persoon valt, ziet het apparaat dit misschien niet als een val, omdat de beweging anders is.

3. Waarom is dit zo lastig te zien?

In de wereld van computerspelletjes of foto's is bias (vooroordeel) makkelijk te zien. Als je een foto van een man ziet en de computer denkt dat het een vrouw is, zie je dat direct.

Maar bij slimme apparaten is het onzichtbaar.

  • Stel je voor dat je een apparaat hebt dat je ademhaling meet via geluid. Een man met een diepe stem en een vrouw met een hoge stem produceren verschillende geluiden. Als de computer alleen de diepe stemmen heeft geleerd, zal hij de hoge stem van de vrouw verkeerd interpreteren.
  • Het is alsof je probeert een raadsel op te lossen, maar je hebt alleen de helft van de puzzelstukjes. De stukjes die ontbreken (ouderen, mensen met een andere afkomst, mensen met een andere bouw) zijn onzichtbaar, maar ze zijn cruciaal voor het volledige plaatje.

4. De Oplossing: "Eerlijkheid door Ontwerp"

De auteurs zeggen: "Stop met alleen kijken naar hoe snel of hoe nauwkeurig het apparaat is voor de gemiddelde gebruiker. We moeten kijken naar hoe het werkt voor iedereen."

Ze stellen een nieuwe manier van werken voor, genaamd "Fairness by Design" (Eerlijkheid door Ontwerp). Dit betekent:

  • Bij het begin: Zorg dat je al tijdens het ontwerpen denkt aan verschillende soorten mensen. Niet pas aan het einde.
  • De Data: Verzamel data van echte, diverse mensen. Niet alleen van studenten in een lab, maar ook van mensen in hun eigen huizen, met verschillende lichaamsvormen en achtergronden.
  • De Test: Test het apparaat niet alleen op "gemiddelde" resultaten, maar vraag: "Werkt dit even goed voor een oudere vrouw als voor een jonge man?"

Conclusie

Onze slimme apparaten zijn als digitale vrienden. Maar als die vrienden alleen maar begrijpen wat jij zegt, en niet wat je buurman zegt, zijn ze geen goede vrienden voor de hele wereld.

De boodschap van dit artikel is simpel: Technologie moet voor iedereen werken, niet alleen voor de "standaard" gebruiker. Als we dat niet doen, creëren we een wereld waar technologie de ongelijkheid juist verergert in plaats van oplost. Het is tijd om de "blinde vlekken" in onze software te verwijderen, zodat de digitale assistent echt voor ons allemaal werkt.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →