Focal Inferential Infusion Coupled with Tractable Density Discrimination for Implicit Hate Detection

Dit paper introduceert FiADD, een nieuw raamwerk dat de detectie van impliciete haattaal verbetert door de oppervlaktevorm dichter bij de onderliggende betekenis te brengen en de afstand tussen labelclusters te vergroten, wat resulteert in significante prestatieverbeteringen bij haatdetectie en verwante taken.

Sarah Masud, Ashutosh Bajpai, Tanmoy Chakraborty

Gepubliceerd 2026-03-04
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

De "Onzichtbare Haat" Oplossen: Een Uitleg van FiADD

Stel je voor dat je een enorme bibliotheek hebt vol met berichten van mensen op het internet. De meeste berichten zijn gewoon normaal, maar sommige zijn giftig. Het probleem is dat niet alle giftige berichten eruitzien als giftig.

  • Duidelijke haat (Explicit): Dit is als iemand die een bordje omhoog houdt met "IK HAT JE". Dat is makkelijk te zien.
  • Verborgen haat (Implicit): Dit is als iemand die zegt: "Wat een mooie dag voor een wandeling," terwijl ze eigenlijk bedoelen: "Jij hoort hier niet, ga weg." De woorden zijn vriendelijk, maar de bedoeling is kwetsend. Dit is heel lastig voor computers om te begrijpen.

De auteurs van dit paper (Sarah, Ashutosh en Tanmoy) hebben een nieuwe manier bedacht om computers te leren dit soort "vermomde" haat te herkennen. Ze noemen hun methode FiADD.

Het Probleem: Computers zijn te oppervlakkig

Vroeger leerden computers door te kijken naar sleutelwoorden (zoals scheldwoorden). Maar bij vermomde haat zijn die woorden er niet. De computer kijkt dan naar de tekst en denkt: "Oh, dit klinkt vriendelijk, dus het is veilig."

De onderzoekers ontdekten iets interessants: In de "geest" van de computer (de digitale ruimte waar ze berichten opslaan) liggen de vermomde haatberichten vaak dichter bij de vriendelijke berichten dan bij de duidelijke haatberichten. De computer raakt in de war en denkt dat de vermomde haat gewoon een vriendelijk bericht is.

De Oplossing: FiADD (De Slimme Vertaler)

Om dit op te lossen, hebben ze een nieuw systeem bedacht dat twee dingen tegelijk doet. Je kunt het zien als een slimme vertaler die twee taken heeft:

1. De "Vertaler" (Inferential Infusion)

Stel je voor dat je een bericht leest dat vermomde haat bevat. De computer zegt: "Ik zie geen haat."
FiADD zegt: "Wacht even, ik ga een vertaling maken van wat er echt bedoeld wordt."

  • Als iemand zegt: "Die groep is niet echt geletterd," (wat impliceert dat ze dom zijn), voegt FiADD een onzichtbare notitie toe: "Dit betekent: 'Die groep is dom'."
  • Vervolgens dwingt het de computer om het originele bericht en deze "vertaling" dichter bij elkaar te leggen in de digitale ruimte. Zo leert de computer dat deze twee dingen eigenlijk hetzelfde zijn, ook al lijken ze anders.

2. De "Scheidsrechter" (Adaptive Density Discrimination)

Stel je voor dat je drie groepen mensen hebt in een grote zaal:

  1. Vriendelijke mensen.
  2. Duidelijke boze mensen.
  3. Vermomde boze mensen (die doen alsof ze vriendelijk zijn).

Normaal gesproken staan de vermomde boze mensen te dicht bij de vriendelijke mensen. FiADD werkt als een strenge maar slimme scheidsrechter:

  • Hij zorgt dat de vermomde boze mensen dichter bij hun "echte" identiteit (de vertaling) gaan staan.
  • Hij zorgt dat de groepen verder uit elkaar worden geduwd, zodat er geen verwarring ontstaat.
  • Belangrijk: Hij kijkt extra goed naar de mensen die precies op de rand staan (diegene die het moeilijkst te onderscheiden zijn). Diegene krijgt een extra "duwtje" om in de juiste groep te komen. Dit heet de "focal" (focus) techniek.

Hoe hebben ze het getest?

Ze hebben dit systeem getest op drie verschillende soorten datasets (verzamelingen van online berichten) over haat. Ze hebben ook gekeken of het werkte op andere lastige taken, zoals het herkennen van sarcastische opmerkingen (waarbij je het tegenovergestelde zegt van wat je bedoelt) en strijdige meningen.

Het resultaat?
Het systeem werkte veel beter dan de oude methoden.

  • Het herkende meer vermomde haatberichten.
  • Het maakte minder fouten bij het verwarren van vriendelijke berichten met haat.
  • Het werkte zelfs goed op sarcasme, wat bewijst dat de methode slim genoeg is om "wat er staat" en "wat er bedoeld wordt" te verbinden.

Waarom is dit belangrijk?

Op het internet is er steeds meer haat, maar veel daarvan is subtiel. Menselijke moderators (mensen die content controleren) krijgen hierdoor een zware last; ze moeten urenlang zoeken naar deze verborgen boodschappen.

Met FiADD kunnen computers de eerste ronde doen. Ze kunnen de "vermomde" boodschappen sneller opsporen, zodat mensen minder tijd hoeven te besteden aan het zoeken en meer tijd hebben om echt moeilijke gevallen te beoordelen.

Samenvatting in één zin

FiADD is een slimme truc die computers leert om niet alleen naar de woorden te kijken, maar ook naar de bedoeling erachter, zodat ze vermomde haat en sarcasme niet meer over het hoofd zien.