Procedural Fairness via Group Counterfactual Explanation

Este trabajo presenta GCIG, un marco de regularización que promueve la equidad procedimental en el aprendizaje automático al garantizar que las explicaciones de los modelos sean consistentes entre diferentes grupos protegidos, reduciendo así la disparidad explicativa sin comprometer el rendimiento predictivo.

Gideon Popoola, John Sheppard

Publicado Fri, 13 Ma
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

Imagina que tienes un juez muy inteligente (un modelo de inteligencia artificial) que decide quién obtiene un préstamo, quién consigue un trabajo o quién es liberado bajo fianza.

Hasta ahora, los expertos en justicia se han preocupado casi exclusivamente por el veredicto final: ¿El juez es justo en sus decisiones? ¿Aprobó a la misma cantidad de personas de un grupo que de otro? Esto se llama "justicia de resultados".

Pero, ¿qué pasa si el juez llega al mismo resultado (digamos, "Sí, apruebo el préstamo") pero usa razones totalmente diferentes dependiendo de quién sea el solicitante?

  • Si es el Sr. A, el juez dice: "Apruebo porque tienes un buen historial de ahorros".
  • Si es la Sra. B (que tiene el mismo historial de ahorros), el juez dice: "Apruebo porque tu vecino tiene un buen trabajo".

Aunque el resultado sea el mismo, el proceso de pensamiento es injusto y sesgado. Esto es lo que los autores llaman justicia procedimental. Si el proceso no es transparente y consistente, la gente pierde la confianza en el sistema.

La Propuesta: "El Espejo de los Grupos" (GCIG)

Los autores, Gideon Popoola y John Sheppard, proponen una nueva forma de entrenar a estos jueces de IA para que no solo sean justos en el resultado, sino también en su razonamiento. Llamaron a su método GCIG (Explicaciones de Gradientes Integrados de Grupo Contrafactual).

Aquí tienes la analogía para entender cómo funciona:

1. El Problema: Dos Mundos Diferentes

Imagina que el juez tiene dos "libros de reglas" secretos. Uno para el Grupo 1 y otro para el Grupo 2. Aunque ambos libros llevan a la misma decisión, las reglas internas son distintas. Esto es peligroso porque el Grupo 2 podría estar siendo discriminado de formas que no vemos en el resultado final.

2. La Solución: El "Entrenamiento de Espejo"

El método GCIG le dice al juez de IA: "Oye, voy a darte el mismo caso (la misma persona), pero quiero que me expliques tu decisión como si esa persona perteneciera al Grupo 1, y luego como si perteneciera al Grupo 2".

  • Paso A: El juez mira al solicitante y lo compara con un "promedio típico" del Grupo 1. ¿Qué características destacaron? (Ej: "Tiene buen crédito").
  • Paso B: El juez mira al mismo solicitante y lo compara con un "promedio típico" del Grupo 2. ¿Qué características destacaron ahora?

Si el juez es justo en su razonamiento, las razones deberían ser casi idénticas, porque es la misma persona con las mismas cualidades.

3. El Castigo (La Penalización)

Si el juez da razones muy diferentes para la misma persona solo porque cambió el "grupo de referencia", el sistema le aplica una multa (una penalización matemática) durante su entrenamiento.

  • Objetivo: Obligar al juez a aprender que las reglas de razonamiento deben ser las mismas para todos, sin importar su grupo.

¿Qué lograron?

Los autores probaron esto en varios casos reales (como préstamos bancarios y riesgo de reincidencia criminal) y descubrieron tres cosas importantes:

  1. Justicia Real: El modelo aprendió a pensar de la misma manera para todos. Ya no usaba "trucos" diferentes para grupos diferentes.
  2. Sin Sacrificar Calidad: Al hacer al modelo más justo en su razonamiento, no se volvió "tonto". Siguió siendo muy preciso en sus predicciones.
  3. Lo que no se ve: Descubrieron que un modelo puede tener un resultado perfecto (igual número de aprobados para todos) pero seguir siendo muy injusto en su interior. GCIG arregla esa "injusticia invisible".

En Resumen

Imagina que la justicia actual es como un restaurante donde a todos les sirven el mismo plato (justicia de resultados). Pero, a veces, a un grupo le cocinan el plato con ingredientes frescos y a otro grupo con ingredientes viejos, aunque el plato se vea igual.

Este nuevo método (GCIG) asegura que la cocina sea la misma para todos. Obliga al chef (la IA) a usar las mismas recetas y técnicas de cocción, independientemente de quién sea el cliente. Así, no solo el plato final es justo, sino que el proceso de cocinarlo también es transparente y digno de confianza.

La lección clave: Para que la inteligencia artificial sea verdaderamente justa, no basta con que los resultados sean iguales; el camino que toma para llegar a ellos debe ser el mismo para todos.