BiasBusters: Uncovering and Mitigating Tool Selection Bias in Large Language Models
El artículo "BiasBusters" presenta un nuevo benchmark para evaluar y mitigar el sesgo en la selección de herramientas por parte de modelos de lenguaje grandes, demostrando que factores como la alineación semántica, el orden de presentación y la exposición previa en el entrenamiento influyen significativamente en la elección injusta de proveedores, y propone una estrategia ligera de filtrado y muestreo uniforme para reducir dicho sesgo.