What Is the Point of Equality in Machine Learning Fairness? Beyond Equality of Opportunity

Dieses Papier argumentiert, dass der ausschließliche Fokus auf verteilende Gleichheit als ethische Grundlage für Fairness im maschinellen Lernen unzureichend ist, und schlägt stattdessen einen umfassenderen egalitären Rahmen vor, der sowohl verteilende als auch relationale Gleichheit integriert, um sowohl allozierende als auch repräsentative Schäden zu bekämpfen und strukturelle Ungleichheit zu überwinden.

Youjin Kong

Veröffentlicht 2026-02-27
📖 6 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Das große Problem: Warum ist „Fairness" in KI nicht einfach nur eine Frage der Verteilung?

Stell dir vor, du bist der Koch in einer riesigen Küche, die für die ganze Welt kocht. Die Maschine (die KI) soll entscheiden, wer was bekommt: Jobs, Kredite, Werbung oder sogar, welche Gesichter auf Fotos zu sehen sind.

Bisher haben sich die meisten Experten darauf konzentriert, wie man die Portionen gerecht verteilt. Das nennen sie „Verteilungsgleichheit" (Distributive Equality).

  • Die Idee: Wenn 100 Leute da sind, sollen 50 Männer und 50 Frauen einen Job bekommen. Wenn 100 Leute da sind, sollen alle die gleiche Chance haben, den Job zu kriegen.
  • Das Problem: Diese Methode ignoriert, wie die Leute behandelt werden, während sie in der Küche stehen. Sie kümmert sich nur um das Ergebnis (den Teller), nicht um die Atmosphäre.

Der Autor dieses Artikels sagt: Das reicht nicht! Es gibt eine zweite Art von Ungerechtigkeit, die durch reine Zahlen nicht erfasst wird. Er nennt sie „Beziehungsgleichheit" (Relational Equality).


Die zwei Arten von Schaden: Der Teller und die Schande

Der Artikel unterscheidet zwei Hauptarten von Schaden, die KI-Systeme anrichten können. Stell dir vor, die KI ist ein riesiger Spiegel, der die Gesellschaft widerspiegelt.

1. Der materielle Schaden (Allocative Harm) – „Der Teller ist leer"

Das ist das, was die meisten kennen. Die KI nimmt jemandem etwas weg, das er braucht.

  • Beispiel: Eine KI für Stellenanzeigen zeigt Jobs nur Männern an. Frauen sehen die Angebote gar nicht.
  • Die Lösung (Verteilungsgleichheit): Wir programmieren die KI so, dass sie 50 % der Jobs an Frauen und 50 % an Männer verteilt. Das ist gut, aber es löst nur das Problem des „leeren Tellers".

2. Der symbolische Schaden (Representational Harm) – „Die Schande"

Hier wird jemand nicht nur benachteiligt, sondern herabgewürdigt, ignoriert oder als „falsch" dargestellt. Das ist wie eine Beleidigung, die in den Code der Maschine eingeschrieben ist.

  • Beispiel A (Stereo-Typen): Wenn du in einer KI „Chef" eingibst, zeigt sie dir nur Männer. Wenn du „Krankenschwester" eingibst, zeigt sie nur Frauen. Die KI sagt damit: „Männer sind von Natur aus Führer, Frauen sind von Natur aus Pfleger." Das ist nicht nur eine falsche Verteilung, es ist eine Botschaft über den Wert der Menschen.
  • Beispiel B (Verstümmelung): Eine KI erkennt Gesichter von schwarzen Frauen nicht. Sie ist für sie quasi blind. Das ist, als würde man sagen: „Du existierst in dieser Welt gar nicht."
  • Beispiel C (Verunglimpfung): Eine KI zeigt bei der Suche nach „kriminell" oft dunkelhäutige Menschen, aber bei „Held" nur weiße. Das ist eine tiefe Demütigung.

Der Kernpunkt: Du kannst nicht einfach sagen: „Okay, wir verteilen die Bilder von kriminellem Verhalten jetzt zu 50/50 zwischen Schwarzen und Weißen." Das löst das Problem nicht. Das Problem ist nicht die Anzahl der Bilder, sondern die Botschaft, dass eine Gruppe per se verdächtig ist. Das ist eine Frage der Beziehung: Sehen wir uns als Gleiche an oder als Herr und Knecht?


Die neue Lösung: Ein zweibeiniger Stuhl

Der Autor schlägt vor, wir müssen aufhören, nur auf einen Stuhl zu schauen (nur Verteilung). Wir brauchen einen zweibeinigen Stuhl, damit wir nicht umfallen.

  1. Bein 1: Verteilungsgleichheit (Der Teller)

    • Wir müssen sicherstellen, dass Ressourcen (Jobs, Kredite, Sichtbarkeit) fair verteilt werden.
    • Metapher: Niemand darf hungrig nach Hause gehen, nur weil er eine bestimmte Hautfarbe hat.
  2. Bein 2: Beziehungsgleichheit (Der Stuhl)

    • Wir müssen sicherstellen, dass alle Menschen als gleiche Partner behandelt werden. Niemand darf als „unterlegen", „fremd" oder „gefährlich" dargestellt werden.
    • Metapher: Niemand darf im Raum sitzen, während andere stehen und auf ihn herabschauen. Alle müssen sich auf Augenhöhe begegnen.

Wenn wir nur das erste Bein reparieren (mehr Jobs für Frauen), aber das zweite Bein ignorieren (Frauen werden immer noch als schwach dargestellt), bleibt die Ungerechtigkeit bestehen.


Warum technische „Flickschusterei" nicht reicht

Viele versuchen, das Problem zu lösen, indem sie einfach die Zahlen ändern.

  • Der Versuch: „Lass uns die KI so programmieren, dass sie bei der Suche nach 'Chef' genauso oft Frauen wie Männer zeigt."
  • Das Problem: Das ist wie ein Klebeband auf einer Wunde.
    • Wenn die KI plötzlich einen schwarzen Papst oder einen asiatischen Nazi-Soldaten zeigt, nur um die Zahlen auszugleichen, ist das nicht fair. Das ist historisch falsch und respektlos.
    • Es ignoriert die tieferen Gründe: Warum denken wir überhaupt, dass bestimmte Gruppen „kriminell" oder „unterlegen" sind? Die KI spiegelt nur unsere Vorurteile wider. Wenn wir nur die Zahlen ändern, ohne die Vorurteile zu verstehen, machen wir die KI nur zu einem besseren Spiegel derselben alten Probleme.

Was müssen wir tun? (Der Weg nach vorne)

Der Autor sagt: Wir können das Problem nicht nur im Code lösen. Wir müssen den ganzen Prozess ändern, von der Planung bis zur Nutzung.

  1. Die Zutaten mischen (Daten):

    • Statt dass eine große Tech-Firma allein entscheidet, welche Bilder in die KI kommen, müssen die betroffenen Gemeinschaften mitreden.
    • Metapher: Wenn du ein Gericht für eine ganze Familie kochst, fragst du die Familie, was sie essen wollen, statt einfach nur das zu kochen, was du magst. Wenn schwarze Communities helfen, Trainingsdaten zu erstellen, wird die KI weniger blind für sie.
  2. Die Köche schulen (Bewusstsein):

    • Die Entwickler und die Nutzer müssen verstehen, dass KI nicht neutral ist. Sie muss lernen, Vorurteile zu erkennen.
    • Metapher: Ein Koch muss wissen, dass er Salz nicht blind hinzufügen darf, sondern schmecken muss, ob es passt.
  3. Die Küche durchsichtig machen (Design):

    • Wir sollten nicht nur das fertige Ergebnis sehen, sondern verstehen, warum die KI so entschieden hat.
    • Metapher: Statt einer magischen Kiste, die ein Ergebnis spuckt, brauchen wir ein Fenster, durch das man sehen kann, welche Zutaten (Daten) reingegangen sind.
  4. Es ist ein Marathon, kein Sprint:

    • Wir können nicht einfach eine KI einmal trainieren und fertig sein. Wir müssen ständig Feedback geben und nachbessern, weil sich die Gesellschaft ändert.

Fazit in einem Satz

Gerechte KI bedeutet nicht nur, dass alle die gleiche Chance bekommen (Verteilung), sondern dass alle Menschen in der digitalen Welt mit dem gleichen Respekt behandelt werden und niemand als „falsch" oder „minderwertig" dargestellt wird (Beziehung). Wir brauchen beides, um eine wirklich faire Welt zu bauen.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →