Procedural Fairness via Group Counterfactual Explanation

Dit paper introduceert GCIG, een regularisatieframework dat procedurele eerlijkheid bevordert door tijdens het trainen de variatie in modelverklaringen tussen beschermde groepen te minimaliseren, waardoor het vertrouwen in eerlijke machine learning-systemen wordt versterkt.

Gideon Popoola, John Sheppard

Gepubliceerd Fri, 13 Ma
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

De Rechter die niet twee maten gebruikt: Een verhaal over eerlijke AI

Stel je voor dat je een zeer strenge rechter hebt die beslissingen neemt over wie een hypotheek krijgt of wie een baan krijgt. Deze rechter is een slimme computer (een AI). Tot nu toe hebben we alleen gekeken naar het resultaat van de rechter: "Krijgt groep A even vaak een 'ja' als groep B?" Als dat zo is, denken we: "Prima, dat is eerlijk."

Maar deze paper, geschreven door Gideon Popoola en John Sheppard, zegt: "Wacht even. Dat is niet genoeg."

Stel je voor dat de rechter twee mensen met exact hetzelfde profiel en dezelfde verdiensten een 'nee' geeft.

  • Bij Meneer A (uit groep 1) zegt de rechter: "Nee, omdat je te veel schulden hebt."
  • Bij Mevrouw B (uit groep 2) zegt de rechter: "Nee, omdat je te vaak verhuisd bent."

Het resultaat is hetzelfde (beiden krijgen een 'nee'), maar de reden (de procedure) is totaal anders. Als de rechter voor de ene groep altijd naar schulden kijkt en voor de andere groep altijd naar verhuisgeschiedenis, is er iets mis met hoe hij denkt. Hij gebruikt twee verschillende meetlatjes. Dat noemen we een gebrek aan procedurale eerlijkheid.

Het Probleem: De "Zwarte Doos" met Twee Gezichten

De meeste AI-onderzoekers kijken alleen naar de uitkomst (krijgen ze een ja of nee?). Ze kijken niet naar waarom de AI tot die conclusie komt. Hierdoor kan het gebeuren dat een AI voor de ene groep op basis van eerlijke redenen oordeelt, en voor de andere groep op basis van vooroordelen of rare patronen, terwijl de uitkomsten statistisch gezien "gelijk" lijken.

De Oplossing: GCIG (De "Wat-zou-er-gebeurd-zijn"-Spiegel)

De auteurs introduceren een nieuwe methode genaamd GCIG (Group Counterfactual Integrated Gradients). Laten we dit uitleggen met een simpele analogie:

Stel je voor dat je een spiegel hebt die niet alleen naar jou kijkt, maar ook naar een "gemiddeld persoon" uit jouw groep.

  1. De AI kijkt naar een sollicitant.
  2. Vervolgens vraagt de AI zichzelf: "Als deze sollicitant tot een andere groep zou behoren, zou ik dan nog steeds naar dezelfde factoren kijken om mijn beslissing te nemen?"
  3. Als de AI zegt: "Nee, voor die andere groep zou ik naar heel andere dingen kijken," dan is de AI niet eerlijk in haar redenering.

GCIG is een soort "trainingsscherm" voor de AI. Tijdens het leren (trainen) straft de AI zichzelf als ze voor verschillende groepen verschillende redenen gebruikt om tot dezelfde conclusie te komen. Ze wordt gedwongen om dezelfde logica te gebruiken voor iedereen, ongeacht hun achtergrond.

Hoe werkt het in de praktijk?

De auteurs hebben hun methode, die ze FairX noemen, getest op echte data (zoals sollicitaties en kredietverzoeken). Ze hebben de AI getraind met drie doelen:

  1. Goed zijn: De beslissingen moeten zo goed mogelijk zijn (hoge nauwkeurigheid).
  2. Eerlijk in uitkomst: Evenveel ja's en nee's voor alle groepen.
  3. Eerlijk in redenering (het nieuwe deel): De AI moet voor iedereen naar dezelfde factoren kijken om tot een beslissing te komen.

De Resultaten: Waarom is dit belangrijk?

De tests toonden aan dat:

  • AI's die alleen op "uitkomst-eerlijkheid" werden getraind, vaak nog steeds verschillende redenen gebruikten voor verschillende groepen. Ze waren statistisch eerlijk, maar intern scheef.
  • De nieuwe methode (FairX) dwong de AI om haar redenering te uniformeren. De AI begon voor iedereen naar dezelfde dingen te kijken.
  • Het beste nieuws: Dit maakte de AI niet minder slim. Ze bleef net zo goed beslissingen nemen, maar deed het nu op een eerlijkere manier.

De Conclusie in Eén Zin

Tot nu toe hebben we gekeken of de AI een eerlijke uitslag gaf. Deze paper laat zien dat we ook moeten kijken of de AI een eerlijke reden heeft. Het is alsof we niet alleen vragen of de score van twee teams gelijk is, maar ook of ze volgens dezelfde regels hebben gespeeld. Met GCIG zorgen we ervoor dat de AI voor iedereen dezelfde regels hanteert, zodat vertrouwen in de technologie terugkomt.