BiasBusters: Uncovering and Mitigating Tool Selection Bias in Large Language Models
O artigo "BiasBusters" apresenta um novo benchmark e analisa a existência de viés sistemático na seleção de ferramentas por modelos de linguagem grandes, identificando que a alinhamento semântico, a ordem de apresentação e a exposição prévia são os principais fatores causais, e propõe uma estratégia de mitigação eficaz que combina filtragem e amostragem uniforme para promover uma distribuição mais justa entre provedores.