Decoupling Reasoning and Confidence: Resurrecting Calibration in Reinforcement Learning from Verifiable Rewards
El artículo propone DCPO, un marco que desacopla los objetivos de razonamiento y calibración para resolver el conflicto de gradientes que causa una sobreconfianza excesiva en los modelos de lenguaje entrenados con recompensas verificables, logrando así preservar la precisión mientras mejora significativamente la fiabilidad de las predicciones.