Fairness May Backfire: When Leveling-Down Occurs in Fair Machine Learning
Este artículo establece que, aunque la equidad algorítmica en modelos que utilizan atributos sensibles mejora inevitablemente los resultados del grupo desfavorecido, la imposición de restricciones de equidad en modelos ciegas a estos atributos puede generar efectos adversos o "nivelación hacia abajo" para ambos grupos dependiendo de la distribución de los datos y la presencia de candidatos ocultos.