Queer NLP: A Critical Survey on Literature Gaps, Biases and Trends

Diese kritische Übersichtsarbeit analysiert die aktuelle Forschung zur Beziehung zwischen LGBTQIA+-Gemeinschaften und NLP-Technologien, identifiziert bestehende Lücken und Verzerrungen sowie einen überwiegend reaktiven Forschungsansatz und fordert als Aufruf zum Handeln eine proaktivere, intersektionale und inklusivere Entwicklung gerechterer NLP-Systeme.

Sabine Weber, Angelina Wang, Ankush Gupta, Arjun Subramonian, Dennis Ulmer, Eshaan Tanwar, Geetanjali Aich, Hannah Devinney, Jacob Hobbs, Jennifer Mickel, Joshua Tint, Mae Sosto, Ray Groshan, Simone Astarita, Vagrant Gautam, Verena Blaschke, William Agnew, Wilson Y Lee, Yanan Long

Veröffentlicht Wed, 11 Ma
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

🌈 Der Spiegel, der nicht alles zeigt: Ein Blick auf KI und queere Menschen

Stell dir vor, du hast einen riesigen, magischen Spiegel, der alles, was du sagst, versteht, übersetzt und sogar für dich weiterschreibt. Das ist die KI-Sprachtechnologie (NLP). Sie hilft uns bei Jobsuche, im Krankenhaus oder im Gericht. Aber dieser Spiegel hat ein Problem: Er wurde von Leuten gebaut, die oft nicht genau hinschauen, wer wirklich vor ihm steht.

Dieses Papier ist wie ein großer Check-up für diesen Spiegel. Die Autoren haben sich alle wissenschaftlichen Arbeiten angesehen, die sich mit dem Thema „Queer" (also Menschen, die nicht nur heterosexuell oder cisgeschlechtlich sind) und KI beschäftigen. Sie wollten herausfinden: Ist der Spiegel fair? Wo sind die Risse? Und wie machen wir ihn besser?

Hier ist, was sie gefunden haben, übersetzt in einfache Bilder:

1. Das Problem: Der Spiegel ist noch zu starr

Die Forscher haben gesehen, dass die KI oft wie ein steifer, alter Lehrer ist, der nur zwei Farben kennt: Schwarz und Weiß (Mann und Frau, hetero und nicht-hetero).

  • Verwechslungen: Wenn ein queerer Mensch sagt „Mein Partner", denkt die KI oft sofort an das falsche Geschlecht.
  • Falsche Alarme: Wenn jemand das Wort „queer" oder „gay" benutzt, schreit die KI manchmal: „Achtung! Das ist beleidigend!" – dabei war es nur ein harmloses Wort.
  • Unsichtbarkeit: Viele queere Menschen werden im Spiegel gar nicht erst gesehen. Die KI weiß nicht, wie sie mit ihnen umgehen soll, also ignoriert sie sie oder macht Fehler.

2. Die aktuelle Forschung: Meckern statt Bauen

Die Autoren haben 86 wissenschaftliche Arbeiten untersucht. Das Ergebnis ist etwas enttäuschend, aber ehrlich:

  • Reaktiv statt Proaktiv: Die Forscher warten meistens, bis die KI einen Fehler macht, und dann rufen sie: „Oh nein, da ist ein Vorurteil!" (Reaktiv). Sie bauen aber selten neue, faire KIs von Grund auf (Proaktiv).
  • Die „Englisch-Blase": Fast alle Arbeiten schauen nur auf die englische Sprache. Das ist, als würde man versuchen, die ganze Welt durch eine Brille zu sehen, die nur für London gemacht wurde. Andere Sprachen (wie Deutsch, Spanisch oder Hindi) werden kaum beachtet.
  • Fehlende Gäste: Die Menschen, die eigentlich betroffen sind (queere Communities), sitzen selten am Tisch, wenn die KI gebaut wird. Es ist, als würde ein Architekt ein Haus für Rollstuhlfahrer bauen, ohne jemals einen Rollstuhlfahrer gefragt zu haben.

3. Wo liegen die Lücken? (Die „Blindstellen")

Das Papier zeigt drei große Löcher in der aktuellen Forschung:

  • Keine echte Beteiligung: Die KI wird nicht mit der Community entwickelt, sondern nur über sie.
  • Keine Überschneidungen: Die KI schaut oft nur auf das Geschlecht. Aber was ist mit jemandem, der gleichzeitig queer, schwarz und arm ist? Die KI versteht diese komplexen Mischungen (Intersektionalität) oft nicht.
  • Nur Englisch: Die Welt ist bunt, aber die KI-Forschung ist fast nur weiß und englischsprachig.

4. Der Weg nach vorne: Ein neuer Bauplan

Die Autoren geben keine trockene Liste von Aufgaben, sondern rufen zu einer Revolution im Denken auf:

  • Hört zu, statt zu raten: Wir müssen queere Menschen direkt in den Entwicklungsprozess einbeziehen. Sie sind die Experten für ihr eigenes Leben.
  • Flexibilität statt starre Kategorien: Queere Identitäten sind wie Wasser – sie fließen und verändern sich. KI-Systeme müssen so flexibel sein, dass sie nicht versuchen, alles in feste Schubladen zu stecken.
  • Das Recht auf „Nein": Manchmal wollen queere Menschen gar nicht kategorisiert werden. Eine faire KI sollte auch verstehen können, wenn jemand sagt: „Ich möchte nicht gemessen oder eingeteilt werden."

🚀 Das Fazit

Dieses Papier ist mehr als nur eine Zusammenfassung; es ist ein Aufruf zum Handeln.

Stell dir vor, wir bauen ein neues Stadtviertel für alle Menschen. Bisher haben wir nur Häuser für eine bestimmte Gruppe gebaut und hoffen, dass die anderen sich anpassen. Dieses Papier sagt: Halt! Wir müssen das ganze Viertel neu planen. Wir brauchen Architekten aus der Community, wir brauchen Materialien aus der ganzen Welt (andere Sprachen) und wir müssen sicherstellen, dass niemand ausgeschlossen wird.

Es ist ein Versprechen: Wir können KI so bauen, dass sie nicht nur „funktioniert", sondern dass sie gerecht und einladend für alle ist – besonders für diejenigen, die bisher oft im Schatten standen.