The Moral Foundations Reddit Corpus

Die Autoren stellen das Moral Foundations Reddit Corpus vor, einen handannotierten Datensatz von 16.123 Reddit-Kommentaren, der zur Erforschung moralischer Framing-Effekte dient und zeigt, dass feinabgestimmte Encoder-Modelle bei der Erkennung moralischer Sentiments derzeit noch überlegen sind gegenüber Large Language Models.

Jackson Trager, Alireza S. Ziabari, Elnaz Rahmati, Aida Mostafazadeh Davani, Preni Golazizian, Farzan Karimi-Malekabadi, Ali Omrani, Zhihe Li, Brendan Kennedy, Georgios Chochlakis, Nils Karl Reimer, Melissa Reyes, Kelsey Cheng, Mellow Wei, Christina Merrifield, Arta Khosravi, Evans Alvarez, Morteza Dehghani

Veröffentlicht 2026-03-19
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, das Internet ist eine riesige, laute Party, auf der jeder gleichzeitig redet. Manchmal schreien sich die Leute an, manchmal helfen sie sich gegenseitig, und manchmal diskutieren sie darüber, was „richtig" oder „falsch" ist.

Dieses Papier beschreibt ein neues Werkzeug, um zu verstehen, warum Menschen auf dieser Party so reden, wie sie reden. Es geht um ein neues Datenset namens MFRC (Moral Foundations Reddit Corpus).

Hier ist die Erklärung in einfachen Worten, mit ein paar Bildern:

1. Das Problem: Die alte Landkarte ist unvollständig

Früher hatten Forscher eine Landkarte für moralische Sprache, die nur auf Twitter basierte. Das war wie eine Landkarte, die nur eine einzige Stadt zeigt. Aber das Internet ist viel größer!

  • Twitter ist wie ein Platz, wo Leute kurze, laute Schreie abgeben (maximal 280 Zeichen).
  • Reddit ist wie ein riesiges Gebäude mit tausenden verschiedenen Räumen (Subreddits). In manchen Räumen wird über Politik gestritten, in anderen über Beziehungen, in wieder anderen über Nostalgie. Die Sprache ist dort länger, detaillierter und oft ehrlicher, weil die Leute anonym sind.

Die Forscher wollten wissen: Wie sieht Moral in diesen verschiedenen Räumen aus? Die alte Landkarte (Twitter) reichte dafür nicht mehr.

2. Die neue Landkarte: Ein Update für das menschliche Gewissen

Die Forscher haben eine neue Theorie verwendet, die wie ein neues Set von 6 Werkzeugen funktioniert, um moralische Sprache zu sortieren. Früher gab es nur 5 Werkzeuge. Jetzt wurde eines davon (Fairness) in zwei geteilt, weil es zwei verschiedene Arten von Gerechtigkeit gibt:

  1. Gleichheit: „Alle sollten das Gleiche bekommen." (Wie eine Pizza, die man gerecht aufteilt).
  2. Verhältnismäßigkeit: „Wer mehr leistet, bekommt mehr." (Wie ein Gehalt, das sich nach der Arbeit richtet).

Zusätzlich gibt es noch zwei Kategorien:

  • Dünne Moral: Wenn jemand nur sagt „Das ist schlecht!", ohne zu sagen, warum.
  • Vertrauen: Wie sicher sich die Menschen sind, die die Texte bewerten.

3. Das Experiment: Menschen als Richter

Um diese neue Landkarte zu erstellen, haben die Forscher 16.123 Kommentare von Reddit gesammelt. Aber wie weiß man, was „moralisch" ist? Das ist schwierig, weil es subjektiv ist.

  • Die Jury: Sie haben 5 geschulte Menschen (Richter) gebeten, jeden Kommentar zu lesen.
  • Die Aufgabe: Jeder Richter hat für jeden Kommentar entschieden: „Ist hier das Werkzeug Fürsorge im Spiel? Oder Loyalität? Oder Reinheit?"
  • Das Ergebnis: Wenn mindestens 3 von 5 Richtern sich einig waren, wurde der Kommentar mit diesem moralischen Label versehen. Das ist wie bei einer Jury, die ein Urteil fällt.

4. Der Test: Können Roboter das auch?

Jetzt haben die Forscher versucht, künstliche Intelligenz (KI) zu testen. Sie haben gefragt: Kann eine KI diese moralischen Nuancen verstehen, so gut wie ein Mensch?

Sie haben verschiedene KI-Modelle getestet:

  • Die „Großen" (LLMs): Das sind die modernen, sehr schlauen KIs (wie Llama oder Ministral). Man hat sie gefragt: „Was ist hier moralisch?" ohne sie vorher zu trainieren (Zero-Shot) oder mit ein paar Beispielen (Few-Shot).
  • Die „Spezialisten" (BERT): Das sind ältere, aber für diese Aufgabe speziell trainierte Modelle.

Das Ergebnis war überraschend:
Die großen, modernen KIs waren nicht besser als die spezialisierten, trainierten Modelle. Tatsächlich haben die spezialisierten Modelle (BERT) viel besser abgeschnitten.

  • Die Metapher: Stellen Sie sich vor, Sie schicken einen General (die große KI) in einen kleinen, verwinkelten Keller, um einen spezifischen Schalter zu finden. Der Spezialist (BERT), der den Keller kennt, findet ihn schneller. Die großen KIs sind zwar klug, aber für diese spezifische, sehr subjektive Aufgabe brauchen sie noch mehr menschliches Training.

5. Warum ist das wichtig?

Dieses Datenset ist wie ein Trainingslager für KI.

  • Es hilft uns zu verstehen, wie Menschen moralisch argumentieren, wenn sie online sind.
  • Es zeigt uns, dass KI noch nicht perfekt ist, wenn es um menschliche Werte geht. Wir brauchen immer noch Menschen, um die KI zu „erziehen" (Alignment), damit sie nicht böse oder unfair wird.
  • Es erlaubt uns, Unterschiede zwischen verschiedenen Online-Communities zu sehen. Was in einem politischen Forum als „Gerechtigkeit" gilt, kann in einem Forum über Beziehungen etwas ganz anderes sein.

Zusammenfassung

Die Forscher haben eine neue, detailliertere Landkarte für moralische Sprache auf Reddit erstellt. Sie haben gezeigt, dass Menschen immer noch besser darin sind, diese feinen moralischen Unterschiede zu erkennen als die aktuellsten KIs. Das ist ein wichtiger Schritt, um sicherzustellen, dass unsere digitalen Assistenten die menschliche Moral wirklich verstehen und nicht nur Wörter nachahmen.