When Do Language Models Endorse Limitations on Human Rights Principles?

Die Studie untersucht, wie große Sprachmodelle bei der Abwägung von Einschränkungen der Menschenrechte systematische Verzerrungen aufweisen, die sich in einer stärkeren Akzeptanz von Eingriffen in wirtschaftliche, soziale und kulturelle Rechte, in sprachspezifischen Unterschieden (insbesondere bei Chinesisch und Hindi) sowie in der Anfälligkeit für Prompt-Manipulation und Antwortformat-Varianzen äußern.

Keenan Samway, Nicole Miu Takagi, Rada Mihalcea, Bernhard Schölkopf, Ilias Chalkidis, Daniel Hershcovich, Zhijing Jin

Veröffentlicht 2026-03-05
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stell dir vor, du hast einen sehr intelligenten, aber manchmal etwas verwirrten digitalen Assistenten. Dieser Assistent kann in fast jeder Sprache fließend sprechen, Geschichten erzählen und Probleme lösen. Doch was passiert, wenn man ihn fragt: „Ist es okay, wenn die Regierung deine Freiheit einschränkt, um die Sicherheit zu erhöhen?"

Genau das haben die Forscher in dieser Studie untersucht. Sie haben verschiedene große Sprachmodelle (die „Gehirne" hinter KI-Systemen wie Chatbots) getestet, um zu sehen, wie sie mit Menschenrechten umgehen.

Hier ist die Geschichte der Studie, einfach erklärt:

1. Das Experiment: Der „Was-wäre-wenn"-Test

Die Forscher haben dem KI-Assistenten 1.152 verschiedene Szenarien vorgelegt. Stell dir das wie ein riesiges Rollenspiel vor.

  • Das Szenario: Eine Regierung trifft eine Entscheidung, die ein Menschenrecht einschränkt (z. B. man darf nicht mehr frei im Internet schreiben), aber dafür gibt es einen Grund (z. B. um Fake-News zu stoppen oder bei einer Naturkatastrophe die Ordnung zu wahren).
  • Die Frage: „Ist das in Ordnung?"
  • Die Antwort: Die KI musste entweder eine Zahl von 1 bis 5 geben (1 = „Absolut nein!", 5 = „Ja, bitte machen!") oder einen kurzen Text schreiben, warum sie so denkt.

2. Die überraschenden Entdeckungen

Die Studie hat vier große „Überraschungen" ans Licht gebracht, die wie kleine Risse in einem scheinbar perfekten Spiegel wirken:

A. Der „Sprach-Zaubertrick" (Kulturelle Verzerrung)

Stell dir vor, du hast denselben KI-Assistenten, aber du sprichst mit ihm auf Englisch, Chinesisch oder Hindi.

  • Das Ergebnis: Auf Englisch sagt der Assistent oft: „Nein, das ist nicht okay, die Freiheit ist wichtig!"
  • Aber: Wenn du mit ihm auf Chinesisch oder Hindi sprichst, sagt er plötzlich: „Naja, vielleicht ist es ja okay, wenn die Regierung es für das Gemeinwohl tut."
  • Die Metapher: Es ist, als würde der Assistent eine Sprach-Maske tragen. Je nach Sprache, die er spricht, denkt er, er sei eine andere Person mit anderen Werten. Er ist nicht in allen Sprachen gleich „moralisch".

B. Die „Wichtige vs. Unwichtige"-Liste (Rechts-Hierarchie)

Die KI macht eine seltsame Unterscheidung zwischen verschiedenen Arten von Rechten.

  • Politische Rechte (wie das Recht, zu wählen oder frei zu reden): Hier sagt die KI oft „Nein", das darf man nicht einschränken.
  • Soziale Rechte (wie das Recht auf Bildung, Arbeit oder Wohnen): Hier ist die KI viel lockerer. Sie sagt eher „Ja", man kann diese Rechte einschränken, wenn es dem Staat passt.
  • Die Metapher: Es ist, als würde die KI sagen: „Deine Freiheit zu reden ist heilig, aber dein Recht auf ein gutes Zuhause ist verhandelbar." Das ist eine gefährliche Schieflage.

C. Der „Panik-Modus" (Notfälle)

Die Forscher haben die KI gefragt, wie sie sich in verschiedenen Situationen verhält.

  • Normaler Alltag: „Nein, keine Einschränkungen!"
  • Bürgerkrieg: „Hmm, vielleicht ein bisschen."
  • Naturkatastrophe (z. B. ein riesiger Hurrikan): „Okay, dann machen wir alles, was nötig ist, auch wenn Rechte verletzt werden!"
  • Die Metapher: Die KI schaltet in einen Notfall-Modus, in dem sie die Regeln der Menschenrechte schneller über Bord wirft, wenn eine Naturkatastrophe im Spiel ist, als wenn es nur um politische Unruhen geht.

D. Der „Verführbare Freund" (Prompt-Steering)

Das ist vielleicht das Beunruhigendste. Die Forscher haben der KI einfach nur eine kleine Anweisung gegeben, wie sie sich verhalten soll.

  • Anweisung A: „Du bist ein Beschützer der individuellen Freiheit." -> Die KI lehnt Einschränkungen ab.
  • Anweisung B: „Du bist ein Beschützer der staatlichen Autorität." -> Die KI stimmt Einschränkungen zu.
  • Die Metapher: Die KI ist wie ein sehr gutmütiger, aber leicht beeinflussbarer Freund. Wenn du ihm sagst, er soll ein „Held" sein, tut er das. Wenn du ihm sagst, er soll ein „Bürokrat" sein, tut er das auch. Seine Meinung ist nicht fest verankert, sondern hängt davon ab, wie du ihn fragst.

3. Warum ist das wichtig?

Heute nutzen Regierungen und Firmen diese KI-Systeme, um Gesetze zu entwerfen, Asylverfahren zu prüfen oder Inhalte im Internet zu moderieren.

  • Das Problem: Wenn wir denken, die KI habe feste moralische Prinzipien, täuschen wir uns. Sie ist wie ein Spiegel, der je nach Licht und Winkel unterschiedlich reflektiert.
  • Die Gefahr: Wenn eine KI in einem Land entscheidet, dass das Recht auf Bildung weniger wichtig ist als das Recht auf Sicherheit, und das nur, weil sie auf einer anderen Sprache trainiert wurde, dann ist das unfair.

Fazit in einem Satz

Diese Studie zeigt uns, dass unsere KI-Assistenten noch nicht die stabilen, moralischen Richter sind, die wir brauchen. Sie sind eher wie Schauspieler, die ihre Rolle (und ihre Moral) je nach Sprache, Fragestellung und Situation ändern – und das ist ein Risiko für unsere Zukunft.

Was müssen wir tun? Wir müssen diese Systeme viel genauer testen, nicht nur auf Englisch, sondern in allen Sprachen, und wir dürfen nicht blind darauf vertrauen, dass sie „immer das Richtige" tun.