Logic Explanation of AI Classifiers by Categorical Explaining Functors

Dit paper introduceert een theoretisch onderbouwde aanpak voor uitlegbare kunstmatige intelligentie die, met behulp van een verklarende functor uit de categorietheorie, de consistentie en trouw van gegenereerde logica-gebaseerde verklaringen ten opzichte van het onderliggende model garandeert.

Stefano Fioravanti, Francesco Giannini, Paolo Frazzetto, Fabio Zanasi, Pietro Barbiero

Gepubliceerd 2026-03-11
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, maar mysterieuze robot hebt die beslissingen neemt. Bijvoorbeeld: "Is dit een hond of een kat?" De robot kijkt naar een foto en zegt: "Kat!" Maar als je vraagt: "Waarom?", dan haalt de robot zijn schouders op. Hij is een "zwarte doos" (opaque model). Hij weet het antwoord, maar kan het niet uitleggen.

In het vakgebied Explainable AI (XAI) proberen we deze robots een mond te geven. Meestal doen we dit door achteraf (post-hoc) te raden welke onderdelen van de foto belangrijk waren. Maar hier zit een groot probleem: de uitleg klopt vaak niet met hoe de robot echt denkt.

Dit artikel, geschreven door een team van onderzoekers uit Italië en het VK, komt met een slimme oplossing gebaseerd op wiskunde (specifiek Categorie-theorie). Laten we dit uitleggen met een paar simpele metaforen.

1. Het Probleem: De Verkeerde Vertaler

Stel je voor dat de robot werkt met zachte, vage getallen (zoals "iets meer dan half vol"). Maar de mens wil een harde, duidelijke uitleg ("Ja" of "Nee").

De onderzoekers geven een voorbeeld:

  • De robot zegt: "Als de input 0,2 en 0,2 is, is het resultaat 0,4 (Nee)."
  • Maar als de input 0,2 en 0,4 is, is het resultaat 0,6 (Ja).
  • Een simpele, slordige vertaler (een "naïeve" uitleg) kijkt alleen naar de drempel van 0,5. Hij ziet bij beide gevallen "0" en "0" en concludeert: "Ah, het is altijd Nee!"
  • Het probleem: Bij de tweede situatie is het resultaat eigenlijk Ja, maar de uitleg zegt Nee. De uitleg is onbetrouwbaar en tegenstrijdig. Het is alsof je een vertaler hebt die soms "ja" vertaalt als "nee", afhankelijk van de stemming.

Bij complexe neurale netwerken (die uit vele lagen bestaan) wordt dit nog erger. Als je elke laag apart uitlegt en die uitleggen samenvoegt, krijg je vaak een totaalverhaal dat niet klopt met wat de robot als geheel doet.

2. De Oplossing: De "Logische Architect" (De Functor)

De auteurs gebruiken een wiskundig gereedschap genaamd een Functor.

Laten we dit vergelijken met een architect die een gebouw vertaalt naar een plattegrond:

  • Het Gebouw (De AI): Een complex, 3D-gebouw met trappen, liften en muren (de neurale netwerken).
  • De Plattegrond (De Uitleg): Een 2D-tekening die je kunt begrijpen.

De meeste huidige methoden zijn alsof iemand snel een schets maakt van het gebouw. Die schets ziet er misschien mooi uit, maar de deuren zitten op de verkeerde plek of de trappen leiden nergens naartoe.

De Functor in dit artikel is een super-architect. Deze architect heeft een speciale regel: "Wat ook gebeurt in het echte gebouw, moet logisch gezien exact hetzelfde gebeuren op de plattegrond."

  • Als je in het gebouw van de eerste naar de tweede verdieping gaat, moet je op de plattegrond ook van vak A naar vak B gaan.
  • Als de architect twee gebouwen aan elkaar bouwt (compositie), moet de plattegrond van het nieuwe gebouw exact overeenkomen met het samenvoegen van de twee oude plattegronden.

Dit zorgt ervoor dat de uitleg altijd consistent is met de werking van de robot. Geen meer "ja" zeggen terwijl de robot "nee" bedoelt.

3. Wat doen ze precies? (De δ-COH methode)

Niet alle robots zijn makkelijk te vertalen. Sommige zijn gewoon te chaotisch.

  • De auteurs zeggen: "Oké, we gaan alleen die robots uitleggen die zich netjes gedragen (de zogenaamde δ-coherente functies)."
  • Voor robots die zich niet netjes gedragen, hebben ze een truc bedacht: ze "repareren" de robot of voegen een extra knop toe aan de uitleg.
    • Analogie: Stel je voor dat een robot soms twijfelt. In plaats van een vage uitleg te geven, zeggen ze: "Als de robot twijfelt, voeg dan een extra vraag toe: 'Weet je het zeker?' (de 'nc' feature in het artikel). Dan wordt de uitleg weer perfect logisch."

4. Wat laten ze zien? (De Experimenten)

Ze hebben dit getest op twee scenario's:

  1. Een logische puzzel (XOR): Hier werkte het perfect. De robot was al logisch, en de "architect" gaf een perfecte, foutloze uitleg.
  2. Een moeilijke, vage puzzel (Fuzzy OR): Hier faalden de oude methoden. De uitleg was vaak onwaar. Maar met hun nieuwe "reparatie-methode" (de uitgebreide functor) kregen ze weer een betrouwbare uitleg, zelfs in de moeilijke gebieden waar de robot twijfelde.

Samenvatting in één zin

Dit artikel introduceert een wiskundige methode die ervoor zorgt dat de uitleg van een AI-robot nooit in tegenspraak is met de robot zelf, door de uitleg te behandelen als een logisch bouwwerk dat exact dezelfde regels volgt als het origineel.

Waarom is dit belangrijk?
Voor nu zijn veel AI-uitleggers slechts "schattingen". Met deze methode krijgen we voor het eerst een garantie dat de uitleg waarheidgetrouw is. Dit is cruciaal als we AI gebruiken in belangrijke situaties, zoals in de zorg of justitie, waar we niet kunnen riskeren dat de uitleg liegt.