Calibrating Verbalized Confidence with Self-Generated Distractors
Cet article propose DINCO, une méthode qui améliore la calibration des scores de confiance verbalisés des grands modèles de langage en normalisant ces scores par rapport à des distracteurs auto-générés et en intégrant la cohérence entre un générateur et un validateur, réduisant ainsi le surconfiance et surpassant les approches basées sur la simple auto-cohérence.