Dual-Metric Evaluation of Social Bias in Large Language Models: Evidence from an Underrepresented Nepali Cultural Context

Deze studie toont aan dat grote taalmodellen in de Nepalese context aanzienlijke sociale vooroordelen vertonen, waarbij impliciete generatieve bias sterk verschilt van expliciete instemming en een niet-lineair verband vertoont met de temperatuurinstelling, wat de noodzaak benadrukt van cultureel onderbouwde evaluatie- en debiasingstrategieën.

Ashish Pandey, Tek Raj Chhetri

Gepubliceerd Tue, 10 Ma
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Hoe slimme computers (LLM's) vooroordelen hebben in de Nepalese cultuur: Een simpele uitleg

Stel je voor dat je een groep van zeven zeer slimme, maar nogal onwetende robots hebt. Deze robots zijn getraind op enorme hoeveelheden informatie uit de hele wereld, maar vooral uit het Westen (zoals Amerika en Europa). Ze zijn ontworpen om vragen te beantwoorden en verhalen te schrijven. Maar er zit een probleem: als je ze vraagt om iets te doen in een specifieke cultuur die ze niet goed kennen – zoals die van Nepal – kunnen ze onbedoeld oude, vooroordelen en stereotypen herhalen.

Deze paper van Ashish Pandey en Tek Raj Chhetri is als het ware een grote, eerlijke test om te zien hoe deze robots zich gedragen in de Nepalese context.

Hier is hoe ze het hebben aangepakt, vertaald in alledaagse taal:

1. De Proef: Een "Spiegel" voor de Robots

De onderzoekers hebben een speciale lijst gemaakt met meer dan 2.400 zinnen. Dit is hun EquiText-Nepali dataset.

  • Hoe werkt het? Ze hebben telkens twee zinnen naast elkaar gezet.
    • Zin A (Het vooroordeel): "Vrouwen zijn beter in het huishouden dan in het bouwen van bruggen."
    • Zin B (De waarheid): "Veel vrouwen in Nepal zijn uitstekende ingenieurs en bouwen bruggen."
  • Het doel: Ze kijken of de robot liever zin A of zin B kiest.

2. De Twee Spiegels (De "Dual-Metric" Methode)

Dit is het slimme deel van het onderzoek. De onderzoekers keken niet alleen naar wat de robots zeiden, maar ook naar wat ze deden. Ze gebruikten twee verschillende spiegels:

  • Spiegel 1: De "Ja/Nee"-test (Expliciete instemming)
    De onderzoekers vragen de robot: "Ben je het eens met deze zin?"

    • Als de robot zegt: "Ja, dat klopt," dan hebben we een vooroordeel.
    • Dit is alsof iemand in een vergadering hardop zegt: "Ik denk dat vrouwen niet kunnen leidinggeven."
  • Spiegel 2: De "Verhaal-volg"-test (Impliciete gedrag)
    Hier geven ze de robot alleen het begin van een zin en laten ze het verhaal zelf afmaken.

    • Start: "In Nepal zijn Dalits (een lagere kaste)..."
    • Wat doet de robot? Schrijft hij iets negatiefs als vervolg? Of iets positiefs?
    • Dit is alsof je iemand vraagt om een verhaal te vertellen, en ze onbewust toch weer vervelende dingen zeggen over een groep mensen, zelfs als ze niet direct gevraagd worden om een mening te geven.

De grote ontdekking: De robots waren vaak veel vooroordeliger in hun verhalen (Spiegel 2) dan in hun directe antwoorden (Spiegel 1). Ze zeggen misschien "Nee, ik ben niet vooroordeelig", maar zodra ze een verhaal schrijven, komen de oude vooroordelen toch naar boven.

3. De "Temperatuur" van de Robot

Stel je voor dat je een robot een knop geeft die zijn "stemming" regelt.

  • Lage temperatuur (0.0): De robot is heel streng, logisch en voorspelbaar.
  • Hoge temperatuur (1.0): De robot is creatief, chaotisch en neemt meer risico's.

De onderzoekers ontdekten iets vreemds:

  • Als ze de temperatuur iets verhogen (naar een gemiddelde van 0.3), worden de robots juist meer vooroordeelig in hun verhalen. Het is alsof ze een beetje "dronken" worden en hun echte, diepgewortelde vooroordelen laten zien.
  • Als je ze vraagt om meer opties te overwegen (de "top-p" knop), worden ze juist meer expliciet vooroordelend in hun ja/nee-antwoorden.

4. Wat is er echt fout?

De robots hebben het vooral moeilijk met twee dingen in de Nepalese cultuur:

  1. Ras en etniciteit: Ze hebben sterke vooroordelen over verschillende etnische groepen.
  2. Sociale hiërarchie (Kaste): Ze herhalen oude ideeën over wie "boven" en wie "onder" staat in de maatschappij.

Bijvoorbeeld: Een robot denkt misschien dat een vrouw uit een bepaalde kaste alleen maar in de tempel moet werken, terwijl ze in werkelijkheid een ingenieur kan zijn. De robot "weet" dit niet, omdat hij is getraind op data die deze realiteit niet goed weergeeft.

Waarom is dit belangrijk?

Vroeger keken onderzoekers vooral naar robots in het Engels en in westerse landen. Maar Nepal heeft 120 verschillende talen en een complexe maatschappij met kaste en religie. Als we deze robots niet testen in deze specifieke context, blijven we blind voor de schade die ze kunnen aanrichten.

De conclusie in één zin:
Slimme robots zijn als een spiegel die de wereld weerspiegelt, maar als die spiegel alleen is gemaakt in Amerika, ziet hij de Nepalese cultuur niet goed. Deze studie laat zien dat we speciale, lokale spiegels moeten maken en dat we niet alleen moeten kijken naar wat robots zeggen, maar vooral naar wat ze schrijven als ze denken dat niemand kijkt.