KCLarity at SemEval-2026 Task 6: Encoder and Zero-Shot Approaches to Political Evasion Detection

Dit artikel beschrijft de bijdrage van het KCLarity-team aan SemEval-2026, waarin twee modelleringbenaderingen en zero-shot decoder-only modellen worden geëvalueerd voor het detecteren van politieke ontwijking en onduidelijkheid, met RoBERTa-large als beste encoder en GPT-5.2 als sterkste zero-shot model.

Archie Sage, Salvatore Greco

Gepubliceerd 2026-03-09
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ De Politieke Ontwijkkunst: Een Speurtocht naar Eerlijkheid

Stel je voor dat je een politicus aan het interviewen bent. Je stelt een heel specifieke vraag, bijvoorbeeld: "Heeft u beloofd om de belastingen te verlagen?"

De politicus antwoordt dan vaak niet met een simpel "ja" of "nee". In plaats daarvan zegt hij misschien: "We kijken naar alle mogelijkheden om de economie te stimuleren, en dat is belangrijk voor iedereen."

Dit is wat de onderzoekers van het KCLarity-team (van het King's College London) willen opsporen. Ze noemen dit politieke ontwijking (evasion). Het is als een dans waarbij de politicus probeert niet op de bal te trappen, maar er elegant omheen te glippen.

In dit paper vertellen ze hoe ze computers hebben getraind om deze dansstappen te herkennen en te classificeren tijdens de SemEval-2026 wedstrijd.

🛠️ De Gereedschapskist: Twee Manieren om te Kijken

De teamleden hadden twee hoofdstijlen om hun computermodellen te bouwen, alsof ze twee verschillende soorten camera's hadden:

  1. De Directe Camera: De computer kijkt direct naar het antwoord en zegt: "Dit is duidelijk" of "Dit is vaag".
  2. De Detective-Camera (De Favoriet): De computer kijkt eerst naar hoe de politicus ontwijkt (bijvoorbeeld: "Hij draait het onderwerp af" of "Hij geeft een half antwoord"). Vervolgens vertaalt de computer deze "ontwijktechniek" naar een duidelijkheidsscore.

De verrassing: De "Detective-Camera" werkte net zo goed als de directe camera, maar was slimmer omdat je maar één model hoefde te trainen. Het was alsof je eerst de dader identificeert (de ontwijking) en daaruit concludeert of het een eerlijke getuige is.

🤖 De Kampioenen: De Slimme Leraar vs. De Geniale Grootmeester

De onderzoekers testten twee soorten kunstmatige intelligentie:

  • De Slimme Leraar (Encoder-modellen zoals RoBERTa): Dit zijn modellen die je eerst intensief hebt getraind op duizenden voorbeelden van politieke interviews. Ze hebben de regels uit het boekje geleerd.

    • Resultaat: Op de bekende testvragen (de "publieke test") was RoBERTa-large de beste. Het was als een student die de stof perfect had geleerd en alle vragen op het examen correct beantwoordde.
  • De Geniale Grootmeester (Decoder-modellen zoals GPT-5.2): Dit zijn enorme, supermoderne modellen die je niet hebt getraind op deze specifieke data. Je geeft ze gewoon de vraag en zegt: "Raad het maar eens" (zero-shot).

    • Resultaat: Op de bekende vragen deed GPT-5.2 het iets minder goed dan de getrainde leraar. MAAR toen ze het op de geheime examenvragen (de "hidden test set") deden, schoot GPT-5.2 omhoog en won het!
    • De les: De getrainde leraar had de stof misschien een beetje te goed uit het hoofd geleerd (overfitting) en raakte in de war bij nieuwe situaties. De Grootmeester, die nooit eerder deze vragen had gezien, kon beter generaliseren en de echte intentie achter de woorden snappen.

🎯 De Uitdaging: Waarom is dit zo moeilijk?

Het is niet zo makkelijk als het lijkt. Stel je voor dat je een politicus vraagt: "Waarom heb je die wet niet ondertekend?"

  • Als hij zegt: "Ik heb het niet gezien," is dat een ontkenning (ik weet het niet).
  • Als hij zegt: "We moeten eerst de economie stabiliseren," is dat ontwijken (hij draait het onderwerp af).

De grootste moeilijkheid zit in de categorie "Ambivalent" (twijfelachtig). Dit is de "grijze zone". Politici zijn er heel goed in om antwoorden te geven die technisch waar zijn, maar niets zeggen.

  • De onderzoekers merkten op dat zelfs de mensen die de antwoorden labelden (de "rechteren") het hier vaak niet over eens waren. Soms dacht de ene rechter: "Dit is duidelijk," en de ander: "Nee, dit is vaag."
  • De computer had dus te maken met een taak waar zelfs mensen het niet over eens zijn.

📊 Wat hebben ze geleerd? (De "Lessons Learned")

  1. De volgorde telt: Het helpt om de vraag eerst te geven en dan het antwoord, in plaats van andersom. Het is alsof je eerst de opdracht leest voordat je het antwoord bekijkt; dan snap je de context beter.
  2. Naammaskeren helpt niet: Ze dachten: "Als we de namen van politici verbergen (bijv. 'Trump' wordt '[Persoon]'), moet de computer zich meer op de woorden concentreren." Maar nee, dat maakte het juist slechter. De computer had die namen nodig om de context te begrijpen.
  3. Minder is soms meer: Ze probeerden extra trucs, zoals het toevoegen van psychologische termen of het wegen van zeldzame antwoorden zwaarder, maar dat hielp niet echt. Soms is een simpele, goed getrainde aanpak het beste.

🏁 Conclusie: De Menselijke Factor

Het paper eindigt met een belangrijke boodschap: Het detecteren van politieke ontwijking is extreem moeilijk.

Zelfs de beste computers (en de slimste mensen) hebben moeite om precies te zeggen waar "een half antwoord" eindigt en "een volledig antwoord" begint. De politieke taal is vaak zo bedacht om te ontwijken, dat het een kunst op zich is om de waarheid eronder te vinden.

Kortom: De KCLarity-team heeft laten zien dat we slimme computers kunnen bouwen die politieke dansjes kunnen analyseren, maar dat we nog steeds moeten leren omgaan met de menselijke neiging om dingen vaag te houden.