Mitigating Translationese Bias in Multilingual LLM-as-a-Judge via Disentangled Information Bottleneck

Dit paper introduceert DIBJudge, een robuust fijn-tuningkader dat gebruikmaakt van een gedesintegreerd informatie-flesnek om de systematische vertaalbias in meertalige LLMs te mitigeren door spurious correlaties te isoleren en te onderdrukken.

Hongbin Zhang, Kehai Chen, Xuefen Bai, Youcheng Pan, Yang Xiang, Jinpeng Wang, Min Zhang

Gepubliceerd 2026-03-12
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, multinationale rechter hebt die oordelen moet vellen over teksten in honderden verschillende talen. Deze "rechter" is een Large Language Model (LLM). Het probleem is dat deze rechter een geheim vooroordeel heeft: hij houdt er van om teksten te beoordelen die door een machine zijn vertaald, zelfs als die vertalingen niet perfect zijn. Hij negeert vaak de prachtige, door mensen geschreven teksten.

In de wetenschap noemen ze dit "translationese bias" (vertaal-vooringenomenheid). En het ergste is: dit gebeurt vooral bij talen waar minder over te vinden is (zoals Swahili of Japans), terwijl het bij Engels minder erg is.

De auteurs van dit paper hebben een oplossing bedacht, genaamd DIBJUDGE. Hier is hoe het werkt, vertaald naar alledaagse taal:

1. Het Probleem: De "Vertaal-Geur"

Stel je voor dat je een kok bent die gerechten moet beoordelen. Je hebt twee borden:

  • Bord A: Een gerecht gemaakt door een meesterkok (de mens).
  • Bord B: Een gerecht dat door een robot is nagebootst (de machinevertaling).

De robot-vertaling heeft een specifieke "geur" of "stijl" die heel dicht bij de originele Engelse versie ligt. De huidige AI-rechter ruikt die geur en denkt: "Aha! Dit klinkt als het origineel, dit moet goed zijn!" Hij negeert dan de echte meesterkok, zelfs als het gerecht op Bord A lekkerder smaakt.

De onderzoekers ontdekten twee redenen waarom de AI dit doet:

  1. De "Engelse Kompas-naald": De AI is getraind op veel Engels. Als een tekst in een andere taal klinkt alsof hij rechtstreeks uit het Engels komt, denkt de AI dat het beter is.
  2. De "Voorspelbaarheids-truc": Machinevertalingen zijn vaak statistisch voorspelbaarder voor de AI. De AI denkt: "Dit is makkelijk te voorspellen, dus het moet waarheid zijn."

2. De Oplossing: DIBJUDGE (De "Scheidings-Rechter")

Om dit op te lossen, hebben de onderzoekers een nieuw systeem gebouwd dat werkt als een slimme scheidingsmachine.

Stel je voor dat je een glas water hebt met modder (de tekst) en een stukje plastic (de vertaal-geur). Je wilt het water drinken, maar je wilt de modder en het plastic niet.

DIBJUDGE doet twee dingen tegelijk:

  • De "Robuuste" Kan (De Rechter): Deze kan vangt alleen de echte smaak van het gerecht (de betekenis). Hij probeert de "modder" (de vertaal-geur) eruit te filteren.
  • De "Vangbak" (De Bias): Dit is een speciale bak die alleen de modder en het plastic opvangt. De AI leert specifiek om die "vertaal-geur" hierin te stoppen, zodat het de echte rechter niet meer kan verstoren.

3. Hoe leren ze dit? (Het "Info-Bottleneck")

Normaal gesproken leert een AI alles wat hij ziet. Maar hier gebruiken ze een truc die ze een "Informatie-flesnek" noemen.

Stel je voor dat je een flesje hebt met een heel smalle hals. Je wilt er water (belangrijke informatie) doorheen laten, maar je wilt dat de modder (de vooringenomenheid) er niet door past.

  • De AI wordt gedwongen om alleen de essentiële informatie door die smalle hals te duwen.
  • Tegelijkertijd wordt er een tweede flesje naast gezet dat alleen de modder moet vangen.
  • Ze zorgen ervoor dat deze twee flesjes nooit met elkaar praten. Als de modder in het modder-flesje zit, mag die niet in het water-flesje komen.

4. Het Resultaat

Na het trainen met deze methode:

  • De AI-rechter kijkt niet meer naar de "vertaal-geur".
  • Hij beoordeelt nu eerlijk: "Is dit een goed antwoord, ongeacht of het door een mens of een robot is geschreven?"
  • Dit werkt zelfs heel goed voor talen waar de AI normaal gesproken niet goed in is (zoals Yoruba of Pashto).

Samenvattend

De onderzoekers hebben een manier gevonden om de "bril" van de AI te vervangen. In plaats van door een bril te kijken die alles rood kleurt als het op Engels lijkt (de vertaal-geur), kijken ze nu door een bril die alleen de inhoud ziet.

Ze hebben de AI niet alleen slimmer gemaakt, maar vooral eerlijker, zodat talen die minder vaak worden gebruikt niet meer worden benadeeld door de voorkeur voor machinevertalingen.