Uncertainty-aware Language Guidance for Concept Bottleneck Models
Questo lavoro propone un nuovo metodo di Concept Bottleneck Models (CBM) che quantifica rigorosamente l'incertezza delle annotazioni dei concetti fornite dai Large Language Models e la integra nel processo di apprendimento per mitigare i rischi di allucinazione e migliorare l'affidabilità del modello.