Aligned explanations in neural networks

Cet article propose les PiNets, un cadre d'apprentissage profond fondé sur le principe de lisibilité du modèle, qui garantit par conception que les explications des prédictions sont alignées avec le processus de décision réel du réseau, offrant ainsi des justifications fidèles, robustes et significatives.

Corentin Lobet, Francesca Chiaromonte

Publié 2026-03-03
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🎭 Le Problème : L'Artiste qui peint en blanc

Imaginez que vous avez un chef cuisinier très doué (c'est l'intelligence artificielle ou le "réseau de neurones"). Ce chef prépare des plats incroyables (il fait de bonnes prédictions). Mais quand vous lui demandez : "Pourquoi as-tu mis cette épice ?", il vous répond : "Eh bien, parce que c'est joli, et puis le plat a bon goût, donc c'est logique."

C'est ce que les chercheurs appellent une rationalisation. Le chef ne vous dit pas la vraie raison pour laquelle il a cuisiné ainsi ; il invente une excuse après coup pour justifier son travail. En intelligence artificielle, c'est comme si on "peignait le tableau en blanc" : on donne l'illusion d'une explication claire, mais on cache le vrai mécanisme.

Les méthodes actuelles pour expliquer les IA (comme le "Grad-CAM") sont souvent comme des détectives qui regardent le plat fini et essaient de deviner les ingrédients. C'est utile, mais ce n'est pas la vérité absolue sur ce qui s'est passé dans la casserole.

💡 La Solution : Le "PiNet" (Le Chef Transparent)

Les auteurs de ce papier, Corentin Lobet et Francesca Chiaromonte, proposent une nouvelle façon de construire les chefs : les PiNets (Pointwise-interpretable Networks).

L'idée est simple : au lieu de faire le plat puis d'essayer de deviner les ingrédients, on oblige le chef à écrire la recette avant de cuisiner.

Voici comment ça marche, étape par étape, avec une analogie :

1. La "Double Regard" (Le Second Look)

Imaginez que le chef a deux yeux :

  • Le premier œil (l'Encodeur) : Il regarde les ingrédients bruts (les légumes, la viande) et les transforme en une idée complexe de ce qu'il va faire. C'est comme si le chef disait : "Je vois des tomates et du basilic, je vais faire une sauce."
  • Le deuxième œil (le Décodeur) : C'est ici que la magie opère. Avant de mettre les ingrédients dans la casserole, le chef doit pointer du doigt exactement quels ingrédients il va utiliser et dans quelle quantité. Il dit : "Je vais utiliser 3 tomates et 2 feuilles de basilic."

C'est ce qu'ils appellent le "Second Look" (le deuxième regard). Le modèle doit regarder les données une deuxième fois, non pas pour cuisiner, mais pour expliquer ce qu'il va cuisiner.

2. La Recette Linéaire (La Simplicité)

Dans un PiNet, la décision finale est très simple :

Prédiction = (Ce que je vais utiliser) × (La quantité)

C'est comme une addition simple. Si le modèle dit "Je vais utiliser la tomate", alors la tomate compte pour la décision. S'il ne l'utilise pas, elle ne compte pas. Pas de magie noire, pas de formules compliquées cachées. C'est aligné : l'explication est la recette.

🏆 Les 4 Critères de Confiance (MARS)

Pour savoir si un chef est vraiment honnête, les auteurs utilisent un système de notation appelé MARS (comme le bonbon, mais pour la confiance) :

  1. M (Meaningful / Significatif) : La recette explique-t-elle vraiment le plat ? Si le plat est un gâteau au chocolat, la recette doit mentionner le chocolat, pas le sel.
  2. A (Aligned / Aligné) : La recette est-elle la vraie raison du plat ? (C'est le cœur de leur papier : pas d'excuses après coup).
  3. R (Robust / Robuste) : Si on change un peu l'ambiance (par exemple, on enlève un décor inutile), le chef change-t-il encore sa recette ? Un bon chef ne doit pas dépendre d'un détail accidentel (comme un chat dans la cuisine) pour décider de faire un gâteau.
  4. S (Sufficient / Suffisant) : Si on donne à un autre chef uniquement la liste des ingrédients indiqués dans la recette, peut-il reproduire le plat ? Si oui, l'explication est suffisante.

🧪 Les Résultats : Ça marche !

Les chercheurs ont testé leurs "chefs" (les PiNets) sur deux types de tâches :

  1. Des formes géométriques (ToyShapes) :

    • Ils ont demandé au modèle de repérer des triangles dans des images.
    • Résultat : Les PiNets ont appris à pointer exactement les triangles. Même sans qu'on leur dise "c'est un triangle", ils ont compris qu'ils devaient se concentrer sur les formes pour être justes. Les explications étaient claires et précises.
  2. La cartographie des inondations (Flood Mapping) :

    • Ils ont demandé au modèle de repérer les zones inondées sur des images satellites.
    • Résultat : Le modèle a réussi à dire était l'eau, et sa "recette" (la carte d'explication) correspondait très bien à la réalité, même s'il n'avait pas eu de leçons détaillées sur chaque pixel.

🚀 Pourquoi c'est important ?

Ce papier nous dit : "Ne faites pas confiance à une IA qui invente des excuses. Construisez-la pour qu'elle soit obligée de donner sa recette avant de cuisiner."

  • Avantage : On peut faire confiance aux décisions de l'IA (par exemple, pour un diagnostic médical ou une décision bancaire) parce qu'on sait exactement pourquoi elle a pris cette décision.
  • Flexibilité : On peut utiliser ces modèles pour des images, du texte, ou des sons. On peut même leur demander d'expliquer les choses différemment de la façon dont ils les voient (par exemple, analyser une image brute mais expliquer en termes de "formes" ou de "couleurs").

En résumé : Les PiNets sont comme des architectes qui vous montrent les plans de la maison pendant qu'ils la construisent, et non pas après coup en essayant de justifier pourquoi le toit est penché. C'est plus transparent, plus fiable, et ça permet de construire des systèmes d'intelligence artificielle dignes de confiance.