Abductive Reasoning with Syllogistic Forms in Large Language Models

Cet article examine la capacité des grands modèles de langage à effectuer un raisonnement abductif, défini comme l'inverse du syllogisme, afin de déterminer s'ils présentent des biais similaires à ceux des humains et d'identifier des pistes pour améliorer leur raisonnement contextuel au-delà de la déduction formelle.

Hirohiko Abe, Risako Ando, Takanobu Morishita Kentaro Ozeki, Koji Mineshima, Mitsuhiro Okada

Publié 2026-03-09
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ Les Détectives de l'IA : Quand les Robots se trompent de logique

Imaginez que vous avez un super-ordinateur (une "Intelligence Artificielle" ou IA) qui a lu presque tous les livres, articles et sites web du monde. On lui demande de résoudre des énigmes. Mais il y a un problème : ce robot est très fort pour faire des calculs stricts, mais il a du mal à comprendre le monde tel qu'il est vraiment, avec ses incertitudes.

C'est exactement ce que cette équipe de chercheurs de l'Université Keio a voulu tester. Ils ont demandé à ces IA de jouer à deux jeux de logique différents : la Déduction et l'Abduction.

1. Les deux types de jeux de logique

Pour bien comprendre, prenons l'exemple d'un train en retard.

  • Le jeu de la Déduction (Le Mathématicien Rigide)
    C'est la logique "si... alors..." stricte.

    • Règle : Si le feu rouge est cassé, le train est en retard.
    • Observation : Le feu rouge est cassé.
    • Conclusion (Déduction) : Donc, le train est en retard.
      C'est comme un calcul mathématique : si A est vrai, B est forcément vrai. C'est ce que les écoles enseignent.
  • Le jeu de l'Abduction (Le Détective Intuitif)
    C'est la logique de l'explication. C'est ce que nous faisons tous les jours quand on cherche la cause d'un événement.

    • Observation : Le train est en retard.
    • Règle : Si le feu rouge est cassé, le train est en retard.
    • Hypothèse (Abduction) : "Peut-être que le feu rouge est cassé ?"
      Attention ! Ce n'est pas une certitude. Le train pourrait être en retard pour une autre raison (une panne de moteur, un passager malade...). L'abduction, c'est deviner la meilleure explication possible à partir d'indices incomplets. C'est de l'inférence, pas du calcul.

2. Le test : Les robots sont-ils de bons détectives ?

Les chercheurs ont créé un jeu de 216 énigmes basées sur des syllogismes (des petits raisonnements logiques) pour voir comment les IA (comme GPT-4 ou Llama) réagissaient.

Ils ont posé deux types de questions :

  1. Déduction : "Voici les faits, quelle est la conclusion certaine ?"
  2. Abduction : "Voici un fait étrange et une règle, quelle est l'explication la plus probable ?"

Le résultat surprenant :
Les IA sont excellentes pour la Déduction (surtout si on leur donne quelques exemples avant). Mais elles sont très mauvaises pour l'Abduction.

  • L'analogie du robot aveugle : Imaginez un robot qui a lu des millions de manuels de mathématiques. Si on lui demande de résoudre une équation, il est parfait. Mais si on lui demande : "Pourquoi cette pomme est-elle rouge ?" et qu'il doit deviner si c'est parce qu'elle est mûre ou parce qu'elle a été peinte, il panique. Il essaie de faire un calcul mathématique là où il faudrait de l'intuition.

3. Le piège de nos propres croyances (Le "Biais de Croyance")

L'article révèle quelque chose de fascinant : les IA ont les mêmes défauts que les humains.

En psychologie, on sait que les humains ont du mal à accepter une logique qui contredit ce qu'ils croient être vrai.

  • Exemple : Si on dit "Tous les chats sont verts" (ce qui est faux dans la réalité), et "Félix est un chat", un humain aura du mal à conclure "Félix est vert" car cela heurte son bon sens.

Les chercheurs ont découvert que les IA font exactement la même chose !

  • Si l'énigme est logique mais "bizarre" (contre-intuitive), l'IA a tendance à dire "Non, ça ne marche pas", même si la logique est parfaite.
  • Si l'énigme est logique et "normale" (conforme à nos croyances), l'IA réussit mieux.

C'est comme si l'IA avait développé une "opinion" sur le monde, et qu'elle refusait de suivre la logique pure quand celle-ci contredit son "bon sens" appris dans ses données d'entraînement.

4. Pourquoi est-ce important ?

Pourquoi se soucier de savoir si un robot est bon pour deviner des explications ?

  • L'IA Explicable (XAI) : Aujourd'hui, on veut que les IA nous disent pourquoi elles prennent une décision (par exemple, pourquoi un prêt bancaire a été refusé). Pour cela, elles doivent maîtriser l'abduction (trouver la cause), pas juste la déduction (appliquer une règle).
  • Le fossé Humain-Machine : Les humains sont naturellement doués pour l'abduction (nous cherchons des causes tout le temps). Les IA, elles, sont entraînées sur des textes qui ressemblent plus à de la déduction. Tant qu'elles ne sauront pas "deviner" intelligemment comme nous, elles resteront limitées dans les tâches complexes de la vie réelle.

En résumé

Cette étude nous dit : Ne vous attendez pas à ce que votre IA soit un génie de la logique intuitive. Elle est très forte pour suivre des règles strictes (Déduction), mais elle trébuche quand il faut inventer une explication plausible (Abduction). De plus, elle hérite de nos propres préjugés : elle préfère les réponses qui ont du sens pour nous, même si elles sont logiquement fausses.

C'est un rappel important : pour que l'IA devienne vraiment intelligente, elle ne doit pas seulement "calculer", elle doit apprendre à "comprendre" et à "expliquer" le monde, un peu comme un détective humain.