(Un)fair devices: Moving beyond AI accuracy in personal sensing

Diese Literaturarbeit zeigt auf, wie versteckte Verzerrungen in KI-Modellen personaler Geräte zu unfairen Ergebnissen führen können, und fordert einen Paradigmenwechsel von rein leistungsorientierten hin zu menschenzentrierten Bewertungsansätzen, um durch Leitlinien für die Entwicklung bias-freier Systeme Gesundheit und Lebensqualität zu verbessern.

Sofia Yfantidou, Marios Constantinides, Dimitris Spathis, Athena Vakali, Daniele Quercia, Fahim Kawsar

Veröffentlicht 2026-03-04
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

📱 Wenn dein Smartwatch unfair ist: Warum „hervorragende Technik" nicht immer „gerechte Technik" bedeutet

Stell dir vor, du hast einen digitalen Leibwächter am Handgelenk. Eine Smartwatch, einen Ring oder ein Fitness-Armband. Dieser Wächter kennt deinen Schlaf, zählt deine Schritte und überwacht deinen Herzschlag. Er verspricht dir, dass er dich gesund hält und vor Gefahren warnt.

Aber was, wenn dieser Wächter blinde Flecken hat? Was, wenn er dich versteht, aber deinen Nachbarn, der eine andere Hautfarbe hat, eine andere Statur oder ein anderes Alter, völlig falsch einschätzt?

Genau darum geht es in diesem wissenschaftlichen Papier. Die Autoren sagen: „Es reicht nicht mehr, nur auf die Genauigkeit zu schauen. Wir müssen auch auf die Fairness achten."

Hier ist die Geschichte, warum das so wichtig ist, erklärt mit ein paar einfachen Bildern:

1. Der „weiße" Trainingslehrer 🏃‍♂️🏃‍♀️

Stell dir vor, du möchtest einen Sporttrainer einstellen, der allen Menschen beibringt, wie man rennt. Aber dieser Trainer hat nur mit jungen, sportlichen Männern aus reichen Vorstädten trainiert.

  • Das Problem: Wenn jetzt eine ältere Frau oder jemand mit einem anderen Körperbau zu ihm kommt, weiß der Trainer nicht, wie er reagieren soll. Er denkt vielleicht, die Frau renne langsamer, weil sie faul ist, dabei ist es nur, weil er nie mit Frauen wie ihr trainiert hat.
  • In der Realität: Genau das passiert bei unseren Geräten. Viele KI-Modelle wurden mit Daten trainiert, die fast nur von weißen, jungen, gebildeten Männern stammen (die sogenannten „WEIRD"-Daten). Wenn eine Smartwatch den Herzschlag misst, funktioniert sie bei dunklerer Haut oft schlechter, weil sie im Training kaum solche Hauttöne gesehen hat. Das ist wie ein Spiegel, der nur bestimmte Gesichter klar abbildet.

2. Die unsichtbaren Verzerrungen 🕵️‍♂️

Bei einem Foto ist es leicht zu sehen: „Oh, hier fehlen Frauen." Aber bei Sensordaten ist es wie Rauch in einem Raum. Du siehst ihn nicht sofort, aber er ist da.

  • Beispiel: Ein Gerät misst den Sauerstoffgehalt im Blut. Bei Menschen mit dunklerer Haut zeigt es oft zu hohe Werte an. Das Gerät ist technisch „genau" (es misst das Licht korrekt), aber die Ergebnis-Interpretation ist für diese Gruppe unfair.
  • Beispiel: Ein Gerät erkennt, ob du schläfst oder wach bist. Aber bei Menschen, die sehr groß oder sehr klein sind, oder bei Kindern, funktioniert es schlechter, weil die Sensoren nicht für deren Körpergröße kalibriert wurden.

3. Die Statistik-Lüge 📉

Die Autoren haben sich angeschaut, was in der Forschung passiert. Sie haben fast 1.000 wissenschaftliche Arbeiten über Wearables (tragbare Geräte) geprüft.

  • Das Schock-Ergebnis: Nur 9 % dieser Arbeiten haben überhaupt erwähnt, ob ihre Geräte für alle Gruppen fair funktionieren.
  • Die Analogie: Stell dir vor, ein Autohersteller testet seine Bremsen nur bei sonnigem Wetter auf trockener Straße. Er sagt: „Unsere Bremsen sind 99 % effektiv!" Aber er vergisst zu erwähnen, dass sie bei Schnee oder Regen versagen. Die Forscher sagen: Wir müssen endlich auch testen, wie die Bremsen bei Regen (also bei verschiedenen Menschen) funktionieren.

4. Was tun wir jetzt? Der Bauplan für faire Geräte 🛠️

Die Autoren schlagen vor, dass wir die Art und Weise ändern, wie wir diese Geräte bauen. Sie nennen es „Fairness by Design" (Fairness durch Design). Das bedeutet: Wir bauen die Fairness von Anfang an mit ein, nicht als Nachbesserung am Ende.

Stell dir das wie den Bau eines Hauses vor:

  • Früher: Man baute das Haus schnell und billig. Erst wenn die Bewohner einzogen, merkte man, dass die Treppe für Rollstuhlfahrer zu steil war.
  • Jetzt (Der neue Weg): Man plant die Rampe schon in den ersten Bauplänen mit ein. Man fragt: „Wer wird hier wohnen? Sind alle Größen und Bedürfnisse berücksichtigt?"

Die 14 goldenen Regeln für faire Geräte (vereinfacht):

  1. Vielfalt beim Training: Sammle Daten von allen möglichen Menschen (verschiedene Hautfarben, Körpergrößen, Altersgruppen), nicht nur von den Leuten, die dir am nächsten wohnen.
  2. Ehrliche Berichte: Sag offen, wer an deinen Tests teilgenommen hat. Wenn du nur Studenten getestet hast, sag es!
  3. Achte auf die Details: Manchmal sind es kleine Dinge wie die Form des Handgelenks oder die Haartracht, die das Signal stören. Diese müssen berücksichtigt werden.
  4. Überprüfe ständig: Ein Gerät ist nicht „fertig", wenn es verkauft wird. Es muss weiter überwacht werden, denn Menschen ändern sich (Alter, Gewicht) und die Technik altert.

Fazit: Warum das uns alle angeht ❤️

Wir vertrauen unseren Geräten mehr denn je. Sie entscheiden vielleicht, ob wir eine medizinische Behandlung bekommen oder ob ein Alarm ausgelöst wird.
Wenn diese Geräte unfair sind, werden bestimmte Gruppen benachteiligt – vielleicht ohne dass es jemand merkt.

Die Botschaft der Autoren ist klar: Ein Gerät darf nicht nur „smart" sein, es muss auch „gerecht" sein. Nur dann können wir uns wirklich darauf verlassen, dass sie uns alle gleichermaßen schützen und unterstützen.

Kurz gesagt: Wir brauchen keine perfekten Maschinen, die nur für die „Durchschnitts-Person" funktionieren. Wir brauchen Maschinen, die für jeden funktionieren.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →