Measuring Perceptions of Fairness in AI Systems: The Effects of Infra-marginality

Este estudio demuestra que las percepciones humanas de equidad en sistemas de IA médica no se basan únicamente en la paridad estadística, sino que dependen crucialmente de la disponibilidad de datos y de las creencias sobre las causas subyacentes de las disparidades entre grupos demográficos.

Schrasing Tong, Minseok Jung, Ilaria Liccardi, Lalana Kagal

Publicado Mon, 09 Ma
📖 6 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

🍎 La Manzana, la Naranja y la "Justicia" de la IA

Imagina que eres el juez de un concurso de cocina. Tienes dos equipos: el Equipo A y el Equipo B. Tu trabajo es decidir qué receta es la más "justa" y equitativa.

El problema es que el Equipo A ha estado cocinando en una cocina moderna con ingredientes frescos y 100 recetas de práctica. El Equipo B, por otro lado, ha estado cocinando en una cocina vieja con ingredientes que se están acabando y solo ha practicado con 5 recetas.

Si el Equipo A hace un pastel perfecto y el Equipo B hace un pastel un poco quemado, ¿quién tiene la culpa? ¿El equipo? ¿La receta? ¿O la cocina?

Este es el dilema central de un nuevo estudio realizado por investigadores del MIT sobre la Inteligencia Artificial (IA) y cómo la gente percibe la justicia.

🧩 El Problema: "Infra-marginalidad" (La Trampa de los Promedios)

En el mundo de la IA, a menudo queremos que los algoritmos sean "justos". La forma más común de medir esto es exigir paridad estadística: que el algoritmo acierte el mismo porcentaje de veces para todos los grupos (por ejemplo, que acierte el 90% de las veces tanto para hombres como para mujeres, o para diferentes razas).

Pero los investigadores descubrieron algo sorprendente: la gente no siempre quiere que las cosas sean iguales si las circunstancias no son iguales.

A esto lo llaman el problema de la "infra-marginalidad". Es una palabra compleja que significa, básicamente: "A veces, las diferencias en los resultados no son por discriminación, sino porque los grupos partían de situaciones diferentes".

🏥 El Experimento: El Hospital Virtual

Los investigadores hicieron un estudio con 85 personas. Les presentaron un escenario hipotético:

"Imagina un sistema de IA que diagnostica cáncer. Se entrenó con datos de dos grupos raciales (Grupo A y Grupo B)."

Les mostraron tres opciones de cómo podría funcionar el sistema final y les preguntaron: ¿Cuál es el más justo?

  1. Opción 1 (El Igualador Extremo): El sistema acierta el 90% de las veces para ambos grupos (el nivel más alto posible).
  2. Opción 2 (El Compromiso): El sistema acierta el 85% de las veces para ambos grupos (un promedio).
  3. Opción 3 (El Realista): El sistema acierta al nivel que cada grupo tenía naturalmente (por ejemplo, 90% para el Grupo A y 80% para el Grupo B).

La Magia del Estudio:
Les dieron pistas sobre por qué existían esas diferencias:

  • Escenario A: Les dijeron que el Grupo A tenía muchos más datos de entrenamiento (3 veces más) que el Grupo B.
  • Escenario B: Les dijeron que el Grupo A tenía menos datos que el Grupo B.
  • Escenario C: No les dijeron nada sobre los datos.

🎭 Lo que Descubrieron (Las Sorpresas)

Aquí es donde la gente se sorprendió a los propios científicos:

  1. Cuando no sabían nada: Si no les decían por qué había diferencias, la gente quería igualdad total (Opción 1 o 2). Pensaban: "Si no hay excusa, debe ser injusto que uno acierte más que el otro".
  2. Cuando sabían que había más datos: Cuando les dijeron que el Grupo A tenía muchos más datos (y por eso acertaba más), la gente pensó: "Ah, tiene sentido. Tienen más información, así que es justo que rindan mejor". En este caso, preferían la Opción 3 (mantener las diferencias) en lugar de forzar una igualdad artificial.
  3. La intuición humana: La gente no es tonta. Si un grupo tiene menos datos (como el Equipo B con la cocina vieja), la gente entiende que es más difícil que acierte. Si obligas al sistema a tener el mismo rendimiento que el grupo privilegiado, la gente lo ve como injusto porque está ignorando la realidad.

🚕 La Analogía del Taxi

Imagina que dos taxis compiten en una carrera:

  • Taxi A tiene un motor nuevo y un GPS perfecto.
  • Taxi B tiene un motor viejo y el GPS falla a veces.

Si el juez (la IA) obliga al Taxi B a ir a la misma velocidad que el Taxi A, el Taxi B se romperá o se saldrá de la carretera.

  • La justicia estricta (Paridad): "¡Ambos deben llegar al mismo tiempo!" (Esto es imposible y peligroso).
  • La justicia contextual (Infra-marginalidad): "El Taxi A llegará más rápido porque tiene mejor equipo. El Taxi B llegará más lento, pero eso es justo porque sus condiciones son peores".

El estudio dice que la gente prefiere la segunda opción cuando entiende el contexto.

💡 ¿Por qué es importante esto?

Hoy en día, muchas empresas y gobiernos usan reglas matemáticas rígidas para decir si una IA es justa. Dicen: "Si la tasa de error es diferente entre grupos, ¡la IA es racista!".

Pero este estudio nos dice: Ojo, no siempre es racismo. A veces es solo que los datos son diferentes.

Si forzamos a la IA a ser "igual" cuando las realidades son diferentes, podemos:

  1. Hacer daño: Por ejemplo, en medicina, si forzamos a un sistema a diagnosticar igual a todos, podríamos dar falsos positivos a un grupo que es más difícil de diagnosticar, o negar tratamientos a otro.
  2. Perder la confianza: Si la gente ve que la IA ignora las diferencias reales (como la falta de datos en comunidades pobres), dejarán de confiar en ella.

🏁 Conclusión: La Justicia no es una Fórmula Matemática

La lección principal es que la justicia no es solo un número. No basta con que dos grupos tengan el mismo resultado estadístico.

Para que una IA sea realmente justa, los diseñadores deben:

  • Entender por qué existen las diferencias (¿es por falta de datos? ¿es por dificultad inherente?).
  • No forzar la igualdad a toda costa si eso significa ignorar la realidad.
  • Explicar a la gente: "Este sistema funciona así porque los datos de este grupo eran diferentes, no porque sea injusto".

En resumen: La verdadera justicia a veces significa aceptar que no todos parten de la misma línea de salida, y que el sistema debe adaptarse a eso, en lugar de intentar borrar las diferencias con una regla rígida.