Measuring the Fragility of Trust: Devising Credibility Index via Explanation Stability (CIES) for Business Decision Support Systems

Cet article présente le CIES, un indice mathématique mesurant la stabilité des explications des modèles d'IA pour évaluer la fiabilité des systèmes d'aide à la décision commerciale face aux perturbations réalistes des données.

Alin-Gabriel Vaduva, Simona-Vasilica Oprea, Adela Bara

Publié 2026-03-06
📖 6 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ Le Détective de la Confiance : Comment savoir si l'IA ne nous raconte pas n'importe quoi ?

Imaginez que vous êtes un banquier. Un algorithme d'intelligence artificielle (IA) vous dit : « Refusez ce prêt ».
Vous demandez : « Pourquoi ? »
L'IA répond : « Parce que le client a un faible revenu. »

C'est bien. Mais que se passe-t-il si vous changez le revenu du client de seulement 50 euros (une erreur de saisie, une approximation) ?

  • Scénario A (IA stable) : L'IA dit toujours « Refusez-le », et la raison reste « Faible revenu ». C'est fiable.
  • Scénario B (IA fragile) : L'IA dit toujours « Refusez-le », mais soudain, la raison devient « Il a un mauvais historique de téléphone ».

Dans le Scénario B, l'IA a donné la même réponse, mais sa raison a changé pour une toute petite variation. C'est comme si un détective changeait de suspect juste parce qu'il a éternué. C'est dangereux ! Si vous ne pouvez pas faire confiance à la raison, vous ne pouvez pas faire confiance à la décision.

C'est exactement ce que les auteurs de cet article ont voulu mesurer avec leur nouvel outil appelé CIES.


🎯 Le Problème : Les Explications "Fragiles"

Aujourd'hui, on utilise beaucoup d'IA pour prendre des décisions importantes (emprunts, embauches, diagnostics médicaux). Pour être transparents, ces systèmes utilisent des outils (comme SHAP ou LIME) pour expliquer leurs choix.

Mais il y a un problème caché : ces explications sont souvent fragiles.
Si on change un tout petit peu les données d'entrée (comme arrondir un chiffre), l'explication peut basculer complètement.

  • Hier, le facteur principal était "L'âge".
  • Aujourd'hui, avec un tout petit changement, le facteur principal devient "La couleur des yeux" (ce qui est absurde).

Les chercheurs se sont dit : « On mesure toujours la précision de l'IA (est-ce qu'elle a raison ?), mais on ne mesure jamais la stabilité de ses explications (est-ce qu'elle reste cohérente ?). »


🛠️ La Solution : Le "CIES" (L'Indice de Crédibilité)

Les auteurs ont créé un nouveau mètre, le CIES (Credibility Index via Explanation Stability). Voici comment il fonctionne, avec une analogie simple :

1. L'Analogie du "Chef d'Orchestre"

Imaginez que l'IA est un chef d'orchestre qui explique pourquoi une symphonie est belle.

  • Les facteurs importants (le revenu, l'âge) sont les violons solistes.
  • Les facteurs secondaires (la couleur du papier, l'heure) sont les percussions lointaines.

Si vous changez légèrement le tempo (le bruit dans les données), un bon chef doit toujours dire : « C'est parce que les violons sont magnifiques ».
Un mauvais chef dira : « Ah, en fait, c'est à cause des percussions ! » alors que les violons sont toujours là.

Le CIES est un juge qui écoute le chef. Il dit :

  • Si le chef change de raison pour les violons (les facteurs importants) à cause d'un petit bruit ➔ Note basse (Méfiance !).
  • Si le chef change de raison pour les percussions (facteurs mineurs) ➔ Note moyenne (Ce n'est pas grave).
  • Si le chef reste cohérent sur les violons ➔ Note haute (Crédible !).

2. Comment ça marche techniquement (en version simple) ?

  1. On crée du "bruit" : On prend les données d'un client et on y ajoute un peu de "poussière numérique" (comme une erreur de saisie ou un arrondi).
  2. On regarde la réaction : On demande à l'IA de réexpliquer sa décision avec ces données un peu "sales".
  3. On compare : On regarde si les raisons principales ont changé.
  4. On calcule le score :
    • 100 % (1,0) : L'explication est parfaite et ne bouge pas d'un millimètre.
    • 0 % (0,0) : L'explication a complètement changé de sens pour un rien. C'est une arnaque.

🧪 Ce qu'ils ont découvert (Les Résultats)

Les chercheurs ont testé cet outil sur trois domaines réels :

  1. Les télécoms (Qui va quitter son fournisseur ?).
  2. La banque (Qui va faire défaut sur un prêt ?).
  3. Les RH (Qui va démissionner ?).

Ils ont comparé plusieurs types d'IA (Random Forest, XGBoost, CatBoost, etc.) et ont trouvé des choses surprenantes :

  • Toutes les IA ne se valent pas : Certaines IA (comme Random Forest et CatBoost) sont comme des vieux chênes : elles résistent bien au vent. Leurs explications restent stables. D'autres (comme LightGBM) sont comme des roseaux : elles plient et changent d'explication pour un rien.
  • Le remède peut être pire que le mal : Parfois, on utilise une technique appelée SMOTE pour aider l'IA à mieux voir les cas rares (comme les faillites). Les chercheurs ont découvert que cela améliore parfois la précision, mais détruit la stabilité des explications. L'IA devient plus "intelligente" mais moins "honnête" dans ses raisons.
  • La précision ne garantit pas la confiance : Une IA peut avoir un score de précision de 90 % (elle a raison 9 fois sur 10) mais un score de crédibilité de 0 %. C'est une boîte noire dangereuse.

💡 Pourquoi c'est important pour vous ?

Imaginez que vous utilisez une application pour demander un prêt.

  • Sans CIES : L'IA vous dit "Non" parce que vous avez un mauvais historique. Vous acceptez, mais si vous changez un chiffre, elle vous dira "Non" parce que vous habitez trop loin. Vous ne savez plus qui croire.
  • Avec CIES : L'application pourrait afficher un avertissement : ⚠️ "Attention : L'explication de ce refus est fragile. Si vos données changent légèrement, la raison pourrait changer. Soyez prudent."

C'est ce que les auteurs appellent un "Système d'alerte de crédibilité".

🏁 En résumé

Ce papier nous dit que faire confiance à une IA ne suffit pas. Il faut aussi vérifier si ses raisons sont solides.
Le CIES est comme un test de résistance pour les explications de l'IA. Il nous aide à choisir les modèles d'IA qui ne sont pas seulement précis, mais aussi fiables et cohérents, même quand les données ne sont pas parfaites (ce qui est toujours le cas dans la vraie vie).

C'est un pas de géant pour rendre l'IA plus transparente et plus sûre pour les entreprises et les citoyens.