Logic Explanation of AI Classifiers by Categorical Explaining Functors

Cet article propose une approche théorique fondée sur la théorie des catégories, utilisant un « foncteur d'explication » pour garantir la cohérence et la fidélité des règles logiques extraites par les méthodes d'IA explicable, comblant ainsi le fossé entre les explications générées et le raisonnement réel des modèles opaques.

Stefano Fioravanti, Francesco Giannini, Paolo Frazzetto, Fabio Zanasi, Pietro Barbiero

Publié 2026-03-11
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

🧠 Le Dilemme de l'IA : "Je sais le faire, mais je ne sais pas l'expliquer"

Imaginez que vous avez un chef cuisinier génial (c'est votre Intelligence Artificielle ou IA). Il prépare des plats incroyables et gagne des concours. Mais il y a un problème : il est muet. Quand vous lui demandez "Pourquoi as-tu mis du sel ici ?", il ne répond que par des gestes mystérieux ou des chiffres incompréhensibles.

Pour comprendre son travail, des experts (les chercheurs en XAI) essaient de deviner ses recettes en observant ses plats. C'est ce qu'on appelle les méthodes "post-hoc" (après coup).

  • Le problème : Parfois, ces experts se trompent. Ils disent : "Ah, il a mis du sel parce qu'il y avait du poivre !", alors que le chef a en fait mis du sel pour une autre raison. Ou pire, ils donnent deux explications contradictoires pour deux plats presque identiques. C'est comme si le chef changeait de recette sans prévenir, et que l'explication ne collait plus à la réalité.

🧩 La Solution : Des "Traducteurs" Mathématiques Rigoureux

Les auteurs de ce papier (Stefano, Francesco, et leurs collègues) disent : "Arrêtons de deviner au hasard ! Nous avons besoin d'une méthode mathématique qui garantit que l'explication est toujours fidèle à la pensée du chef."

Pour cela, ils utilisent une branche des mathématiques appelée Théorie des Catégories.

  • L'analogie : Imaginez que la Théorie des Catégories est comme un système de rails de train. Si vous mettez un wagon (une explication) sur les rails, il est garanti d'arriver à destination sans dérailler, même si le train passe par plusieurs gares (plusieurs couches de l'IA).

🛠️ Le Secret : Le "Foncteur Explicatif"

Le cœur de leur découverte est un outil qu'ils appellent un "Foncteur Explicatif".

  1. Le monde flou (L'IA) : L'IA travaille avec des nombres précis et flous (comme 0,73 ou 0,42). C'est le monde des "fonctions floues".
  2. Le monde logique (L'Humain) : Nous, humains, pensons en règles claires : "Si A et B, alors C". C'est le monde des "fonctions booléennes" (Vrai/Faux).

Le problème, c'est que passer du monde flou au monde logique est comme essayer de traduire un poème complexe en une phrase simple : on perd souvent le sens ou on invente des choses.

Leur solution : Ils ont créé un "traducteur spécial" (le foncteur) qui ne se contente pas de traduire mot à mot. Il vérifie que la structure logique est préservée.

  • L'analogie du pont : Imaginez un pont entre deux rives. Si vous marchez sur le pont, vous ne tombez pas. Ce "foncteur" est un pont mathématique solide. Il garantit que si vous combinez deux explications simples (comme deux pièces de Lego), le résultat final correspondra exactement au comportement global de l'IA.

🚧 Le Problème des "Règles Cassées"

Les chercheurs ont remarqué que certaines règles de l'IA sont "cassées" (incohérentes).

  • Exemple simple : Imaginez une règle qui dit "Si la température est supérieure à 0,5, il fait chaud".
    • Cas A : Température = 0,49. Règle : "Pas chaud".
    • Cas B : Température = 0,51. Règle : "Chaud".
    • Mais si l'IA a une petite erreur de calcul et que 0,49 devient 0,50, la règle change brusquement. C'est incohérent.

Les auteurs ont inventé une méthode pour "réparer" ces règles cassées avant de les expliquer.

  • L'analogie du mécanicien : Si une pièce de voiture ne tourne pas bien, au lieu de dire "c'est la faute du moteur", on ajoute un petit correctif (une pièce supplémentaire) pour que tout tourne rond, puis on explique le fonctionnement du moteur réparé.

🧪 Les Résultats : Ça marche !

Ils ont testé leur méthode sur des "IA de synthèse" (des robots factices créés pour l'expérience).

  • Sans leur méthode : Les explications étaient souvent fausses ou contradictoires (comme dire "Il pleut" et "Il fait beau" en même temps pour le même ciel).
  • Avec leur méthode : Les explications étaient parfaitement cohérentes. Si l'IA prenait une décision, l'explication logique correspondait exactement à la raison interne de cette décision.

🌟 En Résumé

Ce papier propose une nouvelle façon de rendre l'IA compréhensible :

  1. Arrêter de deviner : Ne plus se fier à des approximations approximatives.
  2. Utiliser des maths solides : Utiliser la théorie des catégories pour créer un lien infaillible entre la "boîte noire" de l'IA et nos explications humaines.
  3. Garantir la vérité : S'assurer que l'histoire qu'on raconte sur l'IA est exactement ce que l'IA a fait, sans contradictions ni mensonges involontaires.

C'est comme passer d'un traducteur automatique qui fait des erreurs à un interprète professionnel certifié qui garantit que chaque mot dit en français correspond exactement à la pensée originale en japonais.