From Entropy to Calibrated Uncertainty: Training Language Models to Reason About Uncertainty
Dit artikel introduceert een drie-staps pipeline die grote taalmodellen post-train om via versterkingsleer efficiënte, goed gekalibreerde en interpreteerbare onzekerheidsschattingen te genereren, wat een verbetering biedt ten opzichte van bestaande, rekenintensieve methoden.