Verbalizing LLM's Higher-order Uncertainty via Imprecise Probabilities

Cet article propose de nouvelles techniques d'élicitation d'incertitude basées sur les probabilités imprécises pour permettre aux grands modèles de langage de mieux exprimer et quantifier leur incertitude d'ordre supérieur, comblant ainsi les lacunes des cadres probabilistes classiques face à l'ambiguïté et à l'apprentissage contextuel.

Anita Yang, Krikamol Muandet, Michele Caprio, Siu Lun Chau, Masaki Adachi

Publié 2026-03-12
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

Imagine que vous posez une question à un expert très intelligent, mais un peu confus : un grand modèle de langage (LLM). Souvent, cet expert vous répond avec une assurance totale, même quand il se trompe, ou alors il hésite d'une manière que nous ne comprenons pas vraiment.

Ce papier propose une nouvelle façon de demander à cet expert : "À quel point es-tu vraiment sûr de toi ?"

Voici l'explication simple, avec quelques images pour rendre les choses claires.

1. Le Problème : L'Expert qui ment (ou qui se trompe)

Actuellement, si vous demandez à un LLM : "Es-tu sûr de ta réponse ?", il a tendance à répondre : "Oui, à 80 % !" ou "Non, à 50 % !".
Le problème, c'est que ce chiffre unique (une "probabilité précise") est souvent faux.

  • Exemple : Si vous demandez "Qui a organisé la Coupe du Monde de cricket en 2019 ?", la réponse est à la fois l'Angleterre et le Pays de Galles. Si le modèle dit "Je suis sûr à 80 % que c'est l'Angleterre", il rate la nuance. Il ne dit pas qu'il y a une ambiguïté dans la question elle-même.

Les chercheurs ont remarqué que les modèles échouent souvent dans trois situations :

  1. Questions floues : Quand la question admet plusieurs réponses valides.
  2. Apprentissage par l'exemple : Quand on donne des exemples au modèle, il devrait devenir plus sûr, mais ses scores d'incertitude restent souvent bloqués.
  3. Réflexion sur soi : Quand le modèle doit expliquer pourquoi il a choisi une réponse, ses explications ne correspondent pas toujours à ses chiffres de confiance.

2. La Solution : La "Zone d'Incertitude" (Probabilités Imprécises)

Au lieu de demander un seul chiffre précis (comme 80 %), les auteurs proposent de demander à l'expert de donner une fourchette ou une zone.

Imaginez que vous demandez à un météorologue : "Va-t-il pleuvoir ?"

  • L'ancienne méthode (Précise) : Il dit : "Il y a 60 % de chance de pluie." (C'est un point précis).
  • La nouvelle méthode (Imprecise) : Il dit : "Il y a entre 40 % et 80 % de chance de pluie."

Cette zone (l'intervalle) nous dit deux choses importantes :

  1. L'incertitude de base (1er ordre) : La météo est juste imprévisible (il peut pleuvoir ou non). C'est le hasard.
  2. L'incertitude sur l'incertitude (2ème ordre) : La largeur de la zone (de 40 à 80 %) nous dit à quel point le météorologue ignore les détails.
    • Si la zone est petite (59 % à 61 %), il est très confiant dans son calcul.
    • Si la zone est énorme (10 % à 90 %), il avoue : "Je ne sais pas vraiment, il y a trop de facteurs que je ne maîtrise pas."

3. Les Analogies pour comprendre

A. Le Jeu de Paris (Pour la confiance)

Imaginez que vous jouez à un jeu où vous devez parier sur la réponse.

  • Méthode classique : On vous demande : "Combien d'argent mettez-vous sur cette réponse ?" Vous répondez : "50 dollars".
  • Méthode du papier : On vous demande : "Quel est le montant minimum que vous accepteriez de payer pour ce pari, et quel est le maximum que vous accepteriez de payer ?"
    • Si vous dites "Entre 10 et90 et 90 ", cela signifie que vous êtes très confus sur la valeur réelle du pari.
    • Si vous dites "Entre 48 et52 et 52 ", vous êtes très sûr de la valeur.

B. La Carte au Trésor (Pour l'apprentissage)

Imaginez que vous cherchez un trésor avec une carte.

  • Peu d'indices (peu d'exemples) : La carte montre une zone immense où le trésor pourrait être. C'est une grande incertitude de 2ème ordre (vous ne savez pas où chercher).
  • Beaucoup d'indices (beaucoup d'exemples) : La carte se précise, la zone rétrécit.
  • Le problème actuel : Les modèles actuels disent toujours "Je suis à 50 % sûr" même quand la carte rétrécit. Ils ne montrent pas que leur ignorance a diminué.
  • La solution du papier : Avec la nouvelle méthode, la zone sur la carte rétrécit vraiment. On voit visuellement que le modèle a appris et qu'il est moins "aveugle".

C. Le Flou Artistique (Pour les questions ambiguës)

Si vous demandez "Quelle est la capitale de la France ?", la réponse est précise : Paris.
Si vous demandez "Quelle est la meilleure ville de France ?", il n'y a pas de réponse unique.

  • L'ancien modèle : Essaie de forcer une réponse unique et donne un chiffre bizarre.
  • Le nouveau modèle : Reconnaît que la question est floue. Il dit : "Je ne peux pas donner un chiffre précis car la question elle-même est subjective. Ma réponse est une large zone d'incertitude."

4. Pourquoi c'est génial ?

  1. Plus honnête : Le modèle ne fait pas semblant de savoir quand il ne sait pas. Il avoue son ignorance par la largeur de sa réponse.
  2. Meilleure aide à la décision : Si vous utilisez un LLM pour prendre une décision importante (médicale, financière), savoir que l'incertitude est "large" (le modèle est confus) est plus utile que de savoir qu'il est "à 80 % sûr" (ce qui pourrait être faux).
  3. Moins cher : Cette méthode utilise des questions simples posées au modèle, sans avoir besoin de le faire tourner des milliers de fois (ce qui coûte cher en temps et en argent).

En résumé

Ce papier dit : "Arrêtons de demander aux IA de donner un seul chiffre de confiance. Demandez-leur plutôt de dessiner une zone d'incertitude."

Cela permet de distinguer ce qui est vraiment imprévisible (comme le temps qu'il fera demain) de ce qui est dû à un manque de connaissances (comme ne pas savoir la réponse parce qu'on n'a pas assez d'indices). C'est une façon beaucoup plus mature et humaine de mesurer la confiance d'une intelligence artificielle.