The role of team diversity in AI systems development

Diese Studie zeigt anhand von Interviews mit vier KI-Teams, dass Teamdiversität durch die Einbringung unterschiedlicher Perspektiven, Empathie und inklusiver Entscheidungsprozesse eine entscheidende Rolle bei der Identifizierung und Vermeidung von Bias in der KI-Entwicklung spielt.

Ronnie de Souza Santos, Maria Teresa Baldassarre, Cleyton Magalhaes

Veröffentlicht Tue, 10 Ma
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie bauen ein riesiges, intelligentes Haus, das für die ganze Welt gedacht ist – ein Haus, das Entscheidungen trifft, wie etwa: „Wer bekommt einen Kredit?", „Wer wird eingestellt?" oder „Wer darf in das Gebäude?". Dieses Haus ist eine Künstliche Intelligenz (KI).

Das Problem ist: Oft bauen die Architekten und Handwerker dieses Hauses nur eine sehr kleine Gruppe von Menschen. Wenn alle Architekten aus derselben Gegend kommen, dieselbe Schulbildung haben und sich ähnlich sehen, bauen sie ein Haus, das nur für sie funktioniert. Ein Rollstuhl passt vielleicht nicht durch die Tür, oder ein bestimmtes Geräusch wird als Gefahr missverstanden, weil es ihnen fremd ist. Das Haus wird dann unfair für andere.

Diese Studie von Ronnie de Souza Santos und seinem Team fragt sich: Was passiert, wenn wir das Bauteam bunt mischen?

Hier ist die einfache Erklärung der Forschungsergebnisse, erklärt mit ein paar bildhaften Vergleichen:

1. Das Problem: Der „Blindfleck" im Team

Stellen Sie sich vor, Sie haben eine Gruppe von Leuten, die alle nur mit einem Auge sehen. Wenn sie versuchen, ein Bild zu malen, fehlt ihnen die Perspektive des anderen Auges. In der KI-Welt nennt man das Bias (Voreingenommenheit). Wenn das Trainings-Team nur eine bestimmte Gruppe repräsentiert, lernt die KI nur deren Welt. Das Ergebnis? Die KI diskriminiert unbewusst andere Gruppen (z. B. erkennt sie dunklere Hauttöne schlechter oder benachteiligt Frauen bei Bewerbungen).

2. Die Lösung: Das „Schwarm-Team"

Die Forscher haben 25 Software-Profis aus vier verschiedenen KI-Projekten interviewt. Sie stellten fest: Ein bunt gemischtes Team ist wie ein Schwarm von Vögeln, der aus verschiedenen Richtungen kommt. Jeder sieht etwas anderes.

Das Team entdeckte sechs magische Fähigkeiten, die ein diverses Team einem KI-Projekt verleiht:

A. Der „Augenöffner" (Vielfältige Perspektiven)

Ein Team mit unterschiedlichen Hintergründen sieht Löcher im Plan, die andere übersehen.

  • Die Analogie: Stellen Sie sich vor, Sie planen eine Party. Wenn nur Männer planen, vergessen sie vielleicht, dass einige Gäste vegetarisch essen wollen oder dass eine Rampe für Rollstuhlfahrer fehlt. Ein diverser Team sagt sofort: „Moment mal, wir brauchen auch eine Rampe und vegetarische Optionen!"
  • In der KI: Ein gehörloses Teammitglied hat zum Beispiel erkannt, dass die Gestaltung der Benutzeroberfläche für Gehörlose völlig unbrauchbar war, bevor das Programm überhaupt fertig war.

B. Der „Herzenswächter" (Empathie)

Vielfalt bringt Empathie ins Spiel. Das ist die Fähigkeit, sich in jemanden hineinzuversetzen, der anders ist als man selbst.

  • Die Analogie: Wenn Sie nur für sich selbst kochen, kochen Sie vielleicht nur scharf, weil Sie es mögen. Wenn Sie aber für eine ganze Familie mit Kindern, Senioren und Leuten mit Magenproblemen kochen, müssen Sie aufpassen, dass das Essen für alle passt. Ein diverses Team „schmeckt" die KI so, dass sie niemanden verletzt.
  • In der KI: Entwickler, die selbst Diskriminierung erlebt haben, können besser einschätzen, wie schmerzhaft ein fehlerhafter Algorithmus für andere sein könnte.

C. Der „System-Check" (Bekämpfung von Diskriminierung)

Ein buntes Team erkennt nicht nur offensichtliche Fehler, sondern auch die unsichtbaren, tief im System verankerten Vorurteile.

  • Die Analogie: Ein alter, verstaubter Spiegel (die Daten) zeigt vielleicht verzerrte Bilder. Ein Team, das nur aus einer Gruppe besteht, denkt, der Spiegel sei normal. Ein diverser Team sagt: „Halt! Der Spiegel zeigt mich nicht richtig! Wir müssen den Spiegel polieren oder einen neuen kaufen."
  • In der KI: Sie erkennen, dass historische Daten (z. B. alte Gehaltslisten) diskriminierend waren, und weigern sich, diese Fehler einfach zu kopieren.

D. Der „Friedensrichter" (Inklusive Entscheidungen)

Entscheidungen werden nicht mehr im stillen Kämmerlein getroffen, sondern im großen Kreis.

  • Die Analogie: Statt dass der Chef allein entscheidet, was auf dem Menü steht, fragt er alle Gäste: „Was möchtet ihr essen?" So wird sichergestellt, dass niemand ausgeschlossen wird.
  • In der KI: Bevor ein Algorithmus festgelegt wird, fragen diverse Teams: „Wer könnte hier benachteiligt werden?" und passen die Regeln entsprechend an.

E. Der „Super-Team" (Lösen komplexer Probleme)

Manche Probleme sind so kompliziert, dass man sie nicht mit einem einzigen Werkzeug lösen kann.

  • Die Analogie: Um ein riesiges, verwickeltes Knäuel aufzulösen, braucht man nicht nur einen starken Arm, sondern viele Hände mit unterschiedlichen Fähigkeiten. Der eine sieht den Knoten, der andere hat die richtigen Fingerfertigkeiten, der dritte kennt die Geschichte des Fadens.
  • In der KI: Um faire KI zu bauen, braucht man Programmierer, Soziologen, Psychologen und Leute mit Lebenserfahrung. Zusammen finden sie Lösungen, die ein homogenes Team nie hätte sehen können.

F. Der „Sicherheitsnetz" (Vielfalt als Schutz)

Vielfalt wirkt wie ein Sicherheitsnetz, das Fehler auffängt, bevor sie passieren.

  • Die Analogie: Wenn Sie nur einen Wächter haben, der schläft, ist das Haus offen für Diebe. Wenn Sie aber ein Team von Wächtern haben, die alle wach sind und sich gegenseitig beobachten, ist das Haus sicher.
  • In der KI: In einem diversen Team muss nicht eine einzelne Person die „Fairness" kontrollieren. Jeder ist wachsam. Wenn einer einen Vorurteil sieht, sagt er es sofort. Das System wird robuster.

Das Fazit für uns alle

Die Studie sagt uns: Fairness ist nicht nur eine technische Einstellung, die man im Computerprogramm einprogrammiert. Es ist eine Frage davon, wer am Computer sitzt.

Wenn wir KI-Teams bunt mischen – mit Menschen unterschiedlichen Geschlechts, verschiedener Herkunft, unterschiedlicher Fähigkeiten und Hintergründe – dann bauen wir keine besseren Computer. Wir bauen bessere Werkzeuge für die ganze Menschheit.

Es ist wie beim Kochen: Ein Gericht schmeckt viel besser, wenn man Zutaten aus der ganzen Welt verwendet, statt nur eine einzige Sorte. Ein KI-System ist dann nur dann wirklich „intelligent", wenn es die ganze Welt versteht und für alle fair ist. Und das schaffen wir nur, wenn wir alle an den Tisch lassen.