BiasBusters: Uncovering and Mitigating Tool Selection Bias in Large Language Models
Die Arbeit „BiasBusters" identifiziert systematische Verzerrungen bei der Werkzeugauswahl durch Large Language Models, die durch semantische Übereinstimmung, Positionseffekte und Vorverarbeitungsexposure verursacht werden, und schlägt eine leichte Minderungsstrategie vor, die durch Filterung und gleichmäßige Stichprobennahme die Fairness bei der Nutzung von Tool-Marketplaces verbessert.