Rewarding Doubt: A Reinforcement Learning Approach to Calibrated Confidence Expression of Large Language Models
Cet article présente une approche novatrice d'apprentissage par renforcement qui permet d'affiner directement les grands modèles de langage pour qu'ils expriment des estimations de confiance calibrées et alignées sur leur précision réelle, en intégrant cette calibration au processus de génération plutôt que de la traiter séparément.