Gender Bias in Perception of Human Managers Extends to AI Managers

Die Studie zeigt, dass geschlechtsspezifische Vorurteile in der Wahrnehmung von Führungskräften auch auf KI-Manager übertragen werden, wobei männliche Manager unabhängig von ihrer Natur positiver bewertet werden, während weibliche KI-Manager bei negativen Entscheidungen stärker skeptisch betrachtet werden.

Hao Cui, Taha Yasseri

Veröffentlicht Wed, 11 Ma
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

🤖 Der unsichtbare Vorurteils-Filter: Wenn KI den Chef spielt

Stell dir vor, du bist in einem Team von drei Personen. Ihr müsst ein Rätsel lösen. Am Ende entscheidet ein „Chef", wer von euch drei den kleinen Preis bekommt.

In dieser Studie haben Forscher herausgefunden, dass wir Menschen diesen „Chef" nicht nur danach beurteilen, ob er fair ist, sondern auch danach, wer (oder was) er ist und welches Geschlecht er hat – selbst wenn dieser Chef eine künstliche Intelligenz (KI) ist.

Hier ist die Geschichte dahinter, einfach erklärt:

1. Das Experiment: Ein Spiel mit dem Schicksal

Die Forscher haben 556 Menschen gebeten, ein Online-Spiel zu spielen.

  • Die Aufgabe: Ein Rätsel lösen („Finde den Räuber").
  • Der Chef: Jeder Gruppe wurde zufällig ein Chef zugeteilt. Mal war es ein echter Mensch, mal eine KI.
  • Das Geschlecht: Der Chef wurde als „männlich", „weiblich" oder „geschlechtsunbestimmt" vorgestellt (durch Namen, Bilder oder Stimmen).
  • Der Clou: Der Chef musste einen Gewinner auswählen, der 50 Cent extra bekommt. Die anderen beiden gehen leer aus.

Das Wichtigste: Die Auswahl war zufällig. Der Chef hatte keine echte Macht, er hat nur den Zufall verkörpert. Aber wie die Teilnehmer reagierten, war alles andere als zufällig.

2. Die große Entdeckung: Der „Goldene Mantel" für Männer

Stell dir vor, der Chef ist wie ein Schiedsrichter in einem Fußballspiel. Wenn das Spiel gut läuft (du gewinnst), ist der Schiedsrichter toll. Wenn du verlierst, ist er unfair.

Aber hier kommt der Haken:

  • Männliche Chefs (egal ob Mensch oder KI): Sie haben einen unsichtbaren „Goldenen Mantel" um sich. Wenn du gewinnst, denken sie: „Super Chef!" Wenn du verlierst, denken sie: „Naja, vielleicht war es Pech, aber er ist immer noch kompetent." Sie werden selten hart verurteilt.
  • Weibliche Chefs (besonders KI): Sie tragen einen „Glaspanzer", der sehr leicht zerbricht.
    • Wenn du gewinnst, sind sie okay.
    • Wenn du nicht gewinnst, explodiert der Panzer. Besonders bei einer KI, die als Frau vorgestellt wurde, waren die Teilnehmer extrem wütend und unzufrieden. Sie sagten: „Das ist unfair! Die KI kann nichts, sie ist nicht kompetent!"

Die Analogie:
Stell dir vor, ein männlicher Chef ist wie ein alter, bewährter Fels in der Brandung. Wenn eine Welle (ein schlechtes Ergebnis) kommt, wackelt er kaum.
Ein weiblicher KI-Chef ist wie ein Glasgefäß. Wenn eine Welle kommt, zerspringt es in tausend Stücke, und alle schreien: „Warum hast du das Glas nicht besser geschützt?"

3. Warum passiert das?

Die Studie zeigt, dass wir unsere alten Vorurteile einfach auf die neue Technologie übertragen.

  • Wir denken unbewusst: „Führung ist männlich."
  • Wenn eine KI als Frau „verkleidet" ist (durch Namen oder Stimme), erwarten wir von ihr Wärme und Fürsorge. Wenn sie aber eine harte Entscheidung trifft (jemanden nicht zu belohnen), empfinden wir das als Verrat an dieser Rolle.
  • Ein männlicher KI-Chef wird eher als „objektiver Computer" gesehen, der einfach nur rechnet. Eine weibliche KI-Chefin wird aber emotional bewertet.

4. Was bedeutet das für die Zukunft?

Die Forscher sagen: Technik ist nicht neutral.
Auch wenn eine KI keine Gefühle hat, bewerten wir sie so, als hätte sie welche. Wenn Unternehmen bald KI als Vorgesetzte einsetzen, um Beförderungen zu entscheiden oder Teams zu leiten, müssen sie vorsichtig sein.

  • Das Risiko: Wenn wir KI-Chefs einfach nur mit weiblichen Namen und Stimmen ausstatten, könnten wir unbeabsichtigt die alten Vorurteile verstärken. Frauen (und weibliche KIs) werden dann härter beurteilt als Männer.
  • Die Lösung: Wir müssen lernen, KI so zu gestalten, dass sie fair wirkt, ohne dass wir uns in alte Geschlechterklischees verstricken. Vielleicht hilft es, KI geschlechtsneutral zu machen oder uns bewusst zu machen, dass wir diese Vorurteile haben.

Fazit in einem Satz

Unsere alten Vorurteile gegenüber Frauen in Führungspositionen hängen uns so sehr nach, dass wir sie sogar auf Computer übertragen, die gar keine Geschlechter haben – und das führt dazu, dass weibliche KI-Chefs härter verurteilt werden als ihre männlichen Kollegen, selbst wenn sie genau das Gleiche tun.