What Triggers my Model? Contrastive Explanations Inform Gender Choices by Translation Models

Diese Studie untersucht mittels kontrastiver Erklärungen und Saliency-Zuordnung, welche Eingabetokens in englischen Quelltexten die Geschlechterentscheidungen von neuronalen Übersetzungsmodellen in deutsche und spanische Zieltexte auslösen, und zeigt dabei eine deutliche Übereinstimmung zwischen den Modellattributen und menschlichen Geschlechterwahrnehmungen auf.

Janiça Hackenbuchner, Arda Tezcan, Joke Daems

Veröffentlicht 2026-03-05
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stell dir vor, du hast einen sehr klugen, aber etwas verwirrten Roboter-Übersetzer. Wenn du ihm einen Satz auf Englisch gibst, in dem nicht klar ist, ob eine Person männlich oder weiblich ist (z. B. „Der Autor schreibt ein Buch"), muss der Roboter entscheiden: Übersetzt er das Wort „Autor" ins Deutsche als „Autor" (männlich) oder als „Autorin" (weiblich)?

Oft entscheidet der Roboter einfach nach dem Bauchgefühl – und leider ist dieses Bauchgefühl voller alter Klischees. Er denkt: „Ärzte sind Männer, Krankenschwestern sind Frauen", auch wenn im Satz nichts darüber steht.

Dieser Forschungsbericht von Janiça Hackenbuchner und ihrem Team an der Universität Gent untersucht genau dieses Problem. Sie wollen herausfinden: Was genau bringt den Roboter dazu, sich für das eine oder das andere Geschlecht zu entscheiden?

Hier ist die Erklärung der Studie, vereinfacht und mit ein paar bildhaften Vergleichen:

1. Das Problem: Der Roboter ist ein „Klischee-Räuber"

Bisher haben Forscher oft nur gezählt, wie oft der Roboter falsch liegt. Aber sie haben nicht wirklich verstanden, warum er liegt.
Stell dir vor, der Roboter ist wie ein Detektiv, der einen Fall löst. Wenn er nicht genug Beweise hat (weil das Wort im Englischen geschlechtsneutral ist), greift er auf seine alten Notizen zurück – also auf die Daten, mit denen er trainiert wurde. Und in diesen Daten stecken viele Vorurteile.

2. Die Methode: Der „Was-wäre-wenn"-Spiegel

Um herauszufinden, was den Roboter beeinflusst, haben die Forscher eine clevere Trickkiste benutzt, die sie kontrastive Erklärungen nennen.

Stell dir vor, du hast einen Satz: „Der Koch backt einen Kuchen."

  • Szenario A: Der Roboter übersetzt es als „Der Koch backt einen Kuchen" (männlich).
  • Szenario B: Die Forscher sagen dem Roboter: „Hey, stell dir vor, es wäre eine Frau. Übersetze es als 'Die Köchin'."

Dann schauen sie sich den Roboter genau an (wie einen Röntgenblick in sein Gehirn) und fragen: „Welches Wort im Original-Satz hat dich dazu gebracht, bei Szenario A an 'Koch' zu denken und bei Szenario B an 'Köchin'?"

Sie suchen nach den „Auslösern" (Triggern). Ist es das Wort „Koch" selbst? Oder ist es das Wort „Kuchen", das vielleicht eher mit Männern assoziiert wird? Oder das Wort „backen"?

3. Die Entdeckung: Was sieht der Roboter?

Die Forscher haben herausgefunden, dass der Roboter und Menschen oft auf ähnliche Hinweise achten, aber sie gewichten diese Hinweise unterschiedlich.

  • Die Übereinstimmung: Wenn Menschen im Satz Hinweise auf ein Geschlecht finden (z. B. „Sie trägt eine Schürze"), tut der Roboter das oft auch. Das ist gut! Es zeigt, dass der Roboter nicht völlig blind ist.
  • Der Unterschied: Hier kommt der spannende Teil.
    • Menschen schauen sich den ganzen Satz an. Sie lesen zwischen den Zeilen. Sie achten auf ganze Sätze oder Phrasen, die eine Stimmung erzeugen.
    • Der Roboter hingegen ist wie ein sehr fokussierter, aber etwas starrer Scanner. Er achtet extrem stark auf Nomen und Verben (Hauptwörter und Tätigkeitswörter), die direkt neben dem Zielwort stehen. Er übersieht oft die feinen Nuancen, die Menschen verstehen.

Ein Bild zur Veranschaulichung:
Stell dir vor, der Satz ist ein Gemälde.

  • Der Mensch betrachtet das ganze Bild: Die Farben, die Stimmung, die Lichtverhältnisse.
  • Der Roboter zoomt extrem nah auf zwei oder drei Pinselstriche (die Nomen und Verben) und ignoriert fast alles andere. Wenn diese zwei Striche „Mann" schreien, denkt er, das ganze Bild sei ein Mann, auch wenn der Rest des Bildes eigentlich eine Frau zeigt.

4. Warum ist das wichtig?

Bisher dachte man, man müsse den Roboter einfach nur „bestrafen", wenn er falsch übersetzt. Diese Studie sagt: Nein, wir müssen erst verstehen, wie er denkt.

Wenn wir wissen, dass der Roboter besonders stark auf bestimmte Verben reagiert (z. B. dass das Wort „leiten" ihn automatisch zum männlichen Geschlecht führt), können wir ihn gezielt trainieren, diese Verknüpfung zu lösen. Wir können ihm beibringen, dass „leiten" auch eine Frau tun kann.

Fazit

Die Forscher haben bewiesen, dass wir den Roboter nicht nur als Black Box betrachten dürfen. Indem wir ihm einen Spiegel vorhalten (durch die kontrastiven Erklärungen), sehen wir, welche Wörter ihn „auf die schiefe Bahn" bringen.

Das Ziel ist nicht nur, die Fehler zu zählen, sondern dem Roboter beizubringen, dass die Welt nicht nur aus den Klischees besteht, die in seinen Trainingsdaten stecken. Es geht darum, ihn zu einem fairen Übersetzer zu machen, der – genau wie ein guter Mensch – den ganzen Kontext versteht und nicht nur auf die ersten drei Wörter schaut.