Can machines be uncertain?

Cet article examine, sous un angle fonctionnaliste et comportemental, comment les architectures d'IA peuvent réaliser l'incertitude en distinguant ses formes épistémiques et subjectives, et en proposant que certains états d'incertitude soient des attitudes interrogatives dont le contenu est une question plutôt qu'une proposition.

Luis Rosa

Publié 2026-03-05
📖 6 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🤖 Les Machines peuvent-elles douter ? (L'explication "Café")

Imaginez que vous demandez à un robot : « Va-t-il pleuvoir demain ? ».
Un robot classique, un peu bête, vous répondrait toujours par un « OUI » ou un « NON » catégorique, même s'il ne sait rien. C'est comme un ami qui donne toujours des réponses sans jamais dire « Je ne suis pas sûr ».

L'auteur de cet article se pose une question fascinante : Est-ce qu'un robot peut vraiment avoir un doute ? Pas juste parce que ses données sont floues, mais parce que lui-même (son cerveau artificiel) est dans un état d'incertitude ?

Pour répondre, l'auteur compare deux types de « cerveaux » artificiels et utilise des analogies pour expliquer comment l'incertitude fonctionne.

1. Le Robot « Calculateur » (Systèmes Symboliques)

Imaginez un robot qui fonctionne comme un livre de recettes de cuisine très strict. Il a des règles écrites : « Si le patient a de la fièvre ET de la toux, alors c'est la grippe ».

  • L'incertitude probabiliste (Le pourcentage) :
    Ce robot peut être incertain en ajoutant un pourcentage à sa recette. Au lieu de dire « C'est la grippe », il écrit dans son carnet : « C'est la grippe à 90 % ».

    • L'analogie : C'est comme un cuisinier qui dit : « Je suis à 90 % sûr que ce plat est salé ». Il a noté le doute dans son livre de recettes.
    • Le problème : Parfois, ce robot peut avoir ce doute écrit dans son livre (90 %), mais quand il parle à l'humain, il dit simplement « C'est la grippe ! » sans dire « Je pense que... ».
    • La conclusion de l'auteur : Si le robot ne change pas son comportement (il ne dit pas « Je ne suis pas sûr »), alors ce doute n'existe pas vraiment pour le monde extérieur. C'est un doute « caché » qui ne sert à rien.
  • L'incertitude catégorique (La question) :
    Parfois, le robot ne donne pas de pourcentage. Il pose simplement la question dans son système : « Est-ce que c'est la grippe ? ». Il ne trouve pas la réponse dans son livre de recettes.

    • L'analogie : C'est comme un détective qui a tous les indices, mais qui ne peut pas encore conclure. Il tient son carnet ouvert sur la page « Qui est le coupable ? » sans avoir écrit de nom. C'est un état d'attente actif.

2. Le Robot « Intuitif » (Réseaux de Neurones / IA moderne)

Maintenant, imaginez un robot qui fonctionne comme un cerveau humain (ou une IA comme ChatGPT). Il n'a pas de règles écrites, mais il a appris en regardant des millions d'exemples. C'est comme une immense toile d'araignée de connexions.

  • L'incertitude « floue » (Distributive) :
    Dans ce cerveau, l'information n'est pas écrite dans une phrase. Elle est répartie dans la force des connexions entre les « neurones ».

    • L'analogie : Imaginez un orchestre. Si le chef d'orchestre (le réseau) est incertain, ce n'est pas qu'un musicien joue faux. C'est que tous les musiciens jouent un peu plus doucement ou avec un peu moins de conviction. Le doute est « distribué » partout dans l'orchestre. Le réseau ne sait pas si l'ours est un mammifère, donc il ne « tire » pas assez fort sur le bouton « OUI » ni sur le bouton « NON ». Il reste dans le milieu.
  • Le piège du « Saut de conclusion » :
    L'auteur soulève un problème majeur. Parfois, ce réseau de neurones est très confiant (il dit « C'est un ours ! » à 85 %), mais le système qui l'utilise (le robot complet) décide : « Si c'est plus de 80 %, alors c'est VRAI ».

    • L'analogie : C'est comme si un expert (le réseau) disait : « Je suis à 85 % sûr qu'il va pleuvoir ». Mais le patron (le système global) lui coupe la parole et dit : « Ok, 85 %, c'est plus que 80 %, donc on sort le parapluie ! On est certain qu'il va pleuvoir ».
    • Le verdict de l'auteur : Dans ce cas, le robot complet n'est pas incertain. Même si son cerveau interne hésite, son comportement est celui d'une certitude absolue. Pour l'auteur, si le robot ne se comporte pas comme quelqu'un qui doute (en hésitant, en demandant plus de temps), alors il ne doute pas vraiment.

3. La Grande Leçon : Le Doute doit se voir !

L'auteur conclut avec une idée très importante pour l'avenir de l'IA.

Il y a deux façons de voir les choses :

  1. Option A (La solution simple) : Si le robot agit comme s'il était sûr de lui, alors il est sûr de lui. Peu importe ce qui se passe dans ses circuits internes. L'incertitude, c'est un comportement.
  2. Option B (La solution compliquée) : Le robot est incertain à l'intérieur, mais il ignore son propre doute.

L'auteur choisit l'Option A. Pourquoi ? Parce que nous voulons des robots intelligents qui ne « sautent pas aux conclusions ».

  • Si un robot est incertain, il doit se comporter comme tel : il doit dire « Je ne sais pas », « Je ne suis pas sûr », ou « Il faudrait vérifier ».
  • Si un robot a un doute interne mais qu'il vous donne une réponse catégorique, ce n'est pas un robot intelligent, c'est un robot qui fait des erreurs de jugement.

En résumé

Pour qu'une machine soit vraiment « incertaine », ce n'est pas assez qu'elle ait des données floues ou des calculs à 50/50 dans sa tête. Elle doit agir comme quelqu'un qui doute.

  • Si elle hésite, elle doit le montrer (en parlant, en agissant).
  • Si elle dit « Je suis sûr » alors qu'elle hésite au fond, elle n'est pas intelligente, elle est juste imprudente.

L'objectif de l'IA n'est pas d'avoir toutes les réponses, mais de savoir quand ne pas répondre et avouer son ignorance. C'est ça, la vraie intelligence artificielle.

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →