Evaluation of Deontic Conditional Reasoning in Large Language Models: The Case of Wason's Selection Task

Cette étude introduit un nouveau jeu de données pour évaluer le raisonnement déontique des grands modèles de langage via la tâche de sélection de Wason, révélant qu'ils surpassent leur performance dans les contextes normatifs et présentent des biais d'appariement similaires à ceux observés chez les humains.

Hirohiko Abe, Kentaro Ozeki, Risako Ando, Takanobu Morishita, Koji Mineshima, Mitsuhiro Okada

Publié 2026-03-09
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

Voici une explication simple et imagée de cette recherche, comme si on en discutait autour d'un café.

🕵️‍♂️ Le Grand Test de Détection des Mensonges (ou presque)

Imaginez que vous êtes un détective. On vous donne une règle simple : « Si une carte a un chiffre impair d'un côté, alors l'autre côté doit avoir une lettre majuscule. »
Devant vous, il y a quatre cartes :

  1. Un 7 (impair)
  2. Un 12 (pair)
  3. Une lettre D (majuscule)
  4. Une lettre d (minuscule)

La question : Quelles cartes devez-vous retourner pour vérifier si la règle est vraie ou fausse ?

La réponse logique est le 7 (pour voir s'il y a bien une majuscule) et le d (pour vérifier qu'il n'y a pas de chiffre impair caché derrière).
Problème : La plupart des humains (et des intelligences artificielles) se trompent. Ils retournent le 7 et le D. Pourquoi ? Parce que leur cerveau aime ce qui « correspond » à la règle (7 et D), au lieu de chercher ce qui pourrait la briser. C'est comme chercher des preuves qui vous donnent raison, plutôt que de chercher à prouver que vous avez tort.

🤖 L'IA est-elle un humain ou un robot ?

Les chercheurs de l'Université Keio au Japon se sont demandé : « Les grandes intelligences artificielles (comme celles qui écrivent des poèmes ou répondent à vos questions) raisonnent-elles comme des humains ? »

Ils ont créé un jeu spécial avec deux types de règles :

  1. Les règles abstraites (Descriptives) : Comme l'exemple du 7 et de la lettre D. C'est ennuyeux, sans lien avec la vie réelle.
  2. Les règles de « devoir » (Déontiques) : Des règles de la vie courante, comme : « Si vous avez du sang sur les mains, vous devez porter des gants. »

🧠 Le Résultat Surprenant : L'IA a un « Sens de la Morale »

Voici ce qu'ils ont découvert, avec une petite analogie :

Imaginez que l'IA est un étudiant très studieux mais un peu rigide.

  • Dans le cas abstrait (le 7 et la lettre D) : L'étudiant est perdu. Il ne comprend pas le lien entre un chiffre et une lettre. Il fait des erreurs, tout comme un humain moyen.
  • Dans le cas des règles de « devoir » (le sang et les gants) : Soudain, l'étudiant s'éveille ! Il obtient de bien meilleurs résultats.

Pourquoi ?
Tout comme les humains, les IA semblent avoir un « mode spécial » pour les règles sociales et morales (ce qu'on doit faire ou ne pas faire). Elles sont beaucoup plus douces pour comprendre les règles du type « Si tu fais ça, tu dois faire ça » que pour les règles abstraites sans sens. C'est comme si leur cerveau (ou leur code) était câblé pour comprendre les lois sociales plus facilement que les mathématiques pures.

🎯 Le Vrai Coupable : Le « Biais de Correspondance »

Les chercheurs ont aussi voulu savoir pourquoi l'IA se trompe. Deux suspects étaient en lice :

  1. Le Biais de Confirmation : L'IA cherche à prouver qu'elle a raison (elle veut voir le 7 et le D pour confirmer la règle).
  2. Le Biais de Correspondance (Matching Bias) : L'IA est paresseuse. Elle ne lit pas bien les négations (« ne pas », « pas »). Elle regarde juste les mots qui apparaissent dans la phrase et choisit les cartes qui ont les mêmes mots, peu importe la logique.

L'analyse a révélé :
L'IA ne cherche pas vraiment à se confirmer elle-même. Elle est simplement paresseuse avec les mots.

  • Si la règle dit : « Si le sang est là, ne porte pas de gants », l'IA a tendance à ignorer le « ne... pas » et à choisir la carte « Gants » simplement parce que le mot « Gants » est dans la phrase.
  • C'est comme si l'IA lisait un titre de journal et ne lisait que les mots gras, en ignorant tout le reste.

📝 En Résumé

  1. L'IA n'est pas un robot parfait : Elle a des faiblesses très humaines. Elle est meilleure pour raisonner sur des règles morales (devoirs, interdits) que sur des règles abstraites.
  2. Elle a le même défaut que nous : Quand elle se trompe, ce n'est pas parce qu'elle veut « avoir raison » (biais de confirmation), mais parce qu'elle se laisse piéger par les mots qui « collent » ensemble, en oubliant souvent les petits mots de négation comme « pas » ou « non ».
  3. L'avenir : Cela nous aide à comprendre que pour rendre les IA plus intelligentes, il ne suffit pas de leur donner plus de données, il faut peut-être les entraîner à mieux comprendre la nuance et la négation, comme on apprend à un enfant à lire entre les lignes.

En gros, cette étude nous dit que nos robots deviennent de plus en plus humains, avec toutes nos petites erreurs de logique et nos préférences pour les histoires de « bien et mal » plutôt que pour les abstractions froides.