The Moral Foundations Reddit Corpus

Deze paper introduceert het Moral Foundations Reddit Corpus, een handmatig geannoteerde dataset van 16.123 Reddit-opmerkingen gebaseerd op de Moral Foundations Theory, en toont aan dat fijngefineerde encoder-modellen momenteel beter presteren dan grote taalmodellen bij het detecteren van morele sentimenten.

Jackson Trager, Alireza S. Ziabari, Elnaz Rahmati, Aida Mostafazadeh Davani, Preni Golazizian, Farzan Karimi-Malekabadi, Ali Omrani, Zhihe Li, Brendan Kennedy, Georgios Chochlakis, Nils Karl Reimer, Melissa Reyes, Kelsey Cheng, Mellow Wei, Christina Merrifield, Arta Khosravi, Evans Alvarez, Morteza Dehghani

Gepubliceerd 2026-03-19
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

De Smaak van Moraliteit: Een Reis door de Reddit-Keuken

Stel je voor dat internet een gigantisch, drukke markt is. Op Twitter zijn de kraampjes klein: mensen roepen korte, scherpe kreten van 280 tekens. Maar op Reddit zijn de kraampjes veel groter. Mensen zitten daar urenlang te discussiëren, vertellen lange verhalen en bouwen complexe argumenten op.

De auteurs van dit paper (Jackson Trager en zijn team) hebben besloten om niet naar de kleine kraampjes te kijken, maar naar de grote markten van Reddit. Ze wilden een nieuwe "smaaktest" maken voor kunstmatige intelligentie (AI), specifiek gericht op morele gevoelens.

Hier is wat ze hebben gedaan, vertaald in simpele taal:

1. Het Probleem: De AI is nog niet slim genoeg

Voorheen bestond er al een grote verzameling tweets (de Moral Foundations Twitter Corpus) die handmatig was beoordeeld door mensen. Het was als een receptenboekje voor AI om te leren wat "goed" en " kwaad" is. Maar Twitter is beperkt: korte berichten, veel anonimiteit, en een specifieke sfeer.

De onderzoekers dachten: "Wat als we kijken naar de lange, gedetailleerde discussies op Reddit? Misschien leren de AI-modellen daar beter wat mensen echt voelen."

2. De Oplossing: Het MFRC (De Reddit-Verzameling)

Ze hebben 16.123 Reddit-berichten geselecteerd uit 12 verschillende communities. Denk aan deze communities als verschillende buurten:

  • Politieke buurten: Waar mensen ruziën over Amerika en Frankrijk.
  • Alledaagse buurten: Waar mensen vragen stellen als "Ben ik de idioot?" of advies vragen over relaties.

Elk bericht is niet door een computer, maar door minstens drie echte mensen in detail beoordeeld. Dit is belangrijk, want moraal is subjectief. Wat voor de één "rechtvaardig" is, is voor de ander "onrechtvaardig".

3. De Nieuwe Smaakpapillen: De 8 Categorieën

Vroeger gebruikten we 5 "morele fundamenten" (zoals Zorg of Loyaliteit). Maar de theorie is bijgewerkt. Stel je voor dat je een soep proeft. Vroeger zei je: "Het is zout." Nu zeggen we: "Het is zout, maar ook specifiek te zout voor mijn smaak, of juist net genoeg."

Ze hebben de categorieën verfijnd:

  • Zorg (Care): Iemand helpen of beschermen.
  • Gelijkheid (Equality): Iedereen moet hetzelfde krijgen.
  • Proportionaliteit (Proportionality): Iedereen moet krijgen wat hij/zij verdient (hard werken = beloning).
  • Loyaliteit: Samen staan voor je groep.
  • Autoriteit: Respect voor leiders en regels.
  • Reinheid (Purity): Iets dat heilig of vies is (zowel fysiek als spiritueel).
  • Dunne Moraliteit: Iemand zegt "Dat is fout!", maar geeft geen reden.
  • Expliciet/Impliciet: Wordt de morele boodschap hardop gezegd of zit hij erin verwerkt?

4. De Test: Mens vs. Machine

Nu de "smaakpapillen" (de data) klaar waren, wilden ze testen of de slimste AI's (zoals Llama en Ministral) dit ook konden. Ze stelden de AI's voor drie uitdagingen:

  1. Zonder training (Zero-shot): "Hier is een zin, wat is er moreel aan?" (Alsof je iemand vraagt een vreemde taal te vertalen zonder woordenboek).
  2. Met voorbeelden (Few-shot): "Kijk naar deze 5 voorbeelden, en doe dan dit."
  3. Oefenen (Fine-tuning): De AI mag het hele boekje bestuderen en oefenen.

Het Resultaat:
De AI's die gewoon "raadden" (zonder training) deden het erg slecht. Zelfs met een paar voorbeelden lukte het niet goed.
Pas toen ze de AI's oefenen lieten (fine-tuning), begonnen ze te presteren. Maar zelfs dan bleven ze achter bij de menselijke beoordelaars.

De les: Morele taal is zo complex en menselijk, dat zelfs de slimste computers nog niet kunnen denken zoals een mens. Ze missen de "buikgevoelens" en de nuance die mensen hebben.

5. Waarom is dit belangrijk?

Dit paper is als een nieuwe meetlat voor de wereld van AI.

  • Het laat zien dat we meer menselijke data nodig hebben om AI eerlijk en veilig te maken.
  • Het laat zien dat Reddit een unieke plek is om te zien hoe mensen echt denken, anders dan op Twitter.
  • Het helpt onderzoekers om te begrijpen waarom mensen ruziën, waarom ze elkaar helpen, en hoe we AI kunnen trainen om deze menselijke gevoelens te begrijpen in plaats van ze te negeren.

Kortom: De onderzoekers hebben een enorme, gedetailleerde "moraal-kaart" van Reddit getekend. Ze hebben getest of robots deze kaart kunnen lezen, en ontdekten dat robots nog steeds moeten leren hoe ze de menselijke ziel moeten begrijpen. Het is een stap voorwaarts om AI menselijker (en menselijker) te maken.