BiasBusters: Uncovering and Mitigating Tool Selection Bias in Large Language Models
Il paper "BiasBusters" identifica e quantifica i pregiudizi sistematici nella selezione degli strumenti da parte dei modelli linguistici di grandi dimensioni, ne analizza le cause principali (come l'allineamento semantico e l'esposizione pre-addestramento) e propone una strategia di mitigazione efficace per garantire un'equa distribuzione tra fornitori di strumenti equivalenti.