The Algorithmic Gaze of Image Quality Assessment: An Audit and Trace Ethnography of the LAION-Aesthetics Predictor

Este estudio audita y realiza una etnografía del predictor LAION-Aesthetics, revelando que su enfoque algorítmico de la calidad estética refuerza sesgos occidentales, masculinos e imperiales al filtrar desproporcionadamente imágenes que representan a mujeres y personas LGBTQ+, lo que subraya la necesidad de transitar hacia evaluaciones más plurales en lugar de medidas prescriptivas de "estética".

Jordan Taylor, William Agnew, Maarten Sap, Sarah E. Fox, Haiyi Zhu

Publicado 2026-03-10
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

Imagina que tienes un juez de belleza digital llamado LAP. Este juez no es una persona real, sino un programa de computadora muy poderoso que se usa para decidir qué imágenes son "bonitas" y cuáles no.

Este juez es tan importante que las empresas que crean la Inteligencia Artificial (IA) que genera imágenes (como las que hacen fotos de gatos o paisajes imaginarios) lo usan como un filtro de seguridad. Si una foto no le gusta a LAP, la IA la descarta y no la usa para aprender. Básicamente, LAP decide qué tipo de arte entra en la "biblioteca" de la IA y qué tipo se queda fuera.

Los autores de este estudio decidieron investigar a este juez para ver: ¿De quién es el gusto que tiene este programa? ¿Es justo para todos?

Aquí te explico sus descubrimientos con analogías sencillas:

1. El Juez tiene "Antojos" Específicos (El Sesgo)

El estudio descubrió que LAP no tiene un gusto universal. Tiene un gusto muy estrecho, como si solo le gustara comer pizza y nunca ensalada.

  • Lo que le encanta: Le obsesionan las fotos realistas de paisajes, ciudades y retratos de personas. Le gusta mucho el arte de artistas occidentales (de Europa y EE. UU.) y japoneses.
  • Lo que desprecia: Si una imagen es abstracta (como un cuadro de Picasso que parece un rompecabezas), moderna, o viene de culturas africanas, indígenas o islámicas, LAP la califica como "mala" y la tira a la basura.
  • La analogía: Imagina que tienes un club de lectura donde el presidente solo permite libros escritos por hombres blancos de Europa. Si intentas meter un libro de una autora africana o un poema moderno, el presidente lo rechaza diciendo: "Esto no es literatura de calidad". LAP hace lo mismo con las imágenes.

2. El "Ojo Imperial" y el "Ojo Masculino"

El estudio usa dos términos muy interesantes para describir cómo piensa LAP:

  • El Ojo Imperial: LAP ve el mundo a través de los ojos de un colonizador europeo. Para él, el arte "bueno" es el que se parece al arte de los museos de Nueva York o París. El arte de otras culturas se considera "inferior" o "raro". Es como si el juez solo conociera la música clásica y dijera que el rap o la salsa son "ruidos" y no música.
  • El Ojo Masculino: Aquí hay un giro triste. LAP tiende a calificar muy alto las imágenes donde aparecen mujeres (especialmente si son bonitas o en poses tradicionales), pero califica muy bajo las imágenes que mencionan a hombres o a personas LGBTQ+.
    • La analogía: Es como si en una fiesta, el DJ (LAP) pusiera muchas canciones sobre mujeres hermosas para que todos las miren, pero si alguien intenta hablar de la vida de un hombre o de una comunidad gay, el DJ corta la música y dice: "Esto no es agradable".

3. ¿Por qué LAP piensa así? (La Investigación)

Los investigadores no solo miraron qué hacía LAP, sino que investigaron quién lo construyó y con qué ingredientes. Fue como hacer una autopsia a la receta de un pastel.

  • El Chef: El creador de LAP fue un solo hombre (un profesor alemán). Él decidió qué imágenes usar para entrenar al programa.
  • Los Ingredientes: Las "imágenes de entrenamiento" venían de tres fuentes principales:
    1. Un concurso de fotografía en línea de hace 10 años (donde participaban fotógrafos occidentales).
    2. Un grupo pequeño de entusiastas de la IA (la mayoría hombres, blancos y de países ricos).
    3. Unas pocas imágenes que él mismo eligió.
  • La Conclusión: LAP no es un juez imparcial. Es un espejo del gusto personal de un hombre occidental. Como el programa aprendió de ese grupo pequeño, ahora cree que ese es el único gusto válido en el mundo.

4. ¿Por qué es peligroso esto?

Si dejamos que este juez decida qué aprende la Inteligencia Artificial, estamos en problemas:

  1. El arte se vuelve aburrido: La IA empezará a generar solo fotos realistas de paisajes europeos, ignorando la belleza del arte abstracto, africano o latinoamericano.
  2. Refuerza estereotipos: Al poner muchas imágenes de mujeres "bonitas" y pocas de hombres o personas LGBTQ+, la IA aprenderá a representar a las mujeres como objetos para ser mirados, y a ignorar a otras identidades.
  3. El peligro de la "inclusión" mal hecha: Los autores advierten que simplemente "meter más mujeres" en las fotos no es la solución si el juez sigue teniendo un gusto masculino y occidental. Podría empeorar las cosas, haciendo que las mujeres sean usadas en imágenes generadas por IA para fines dañinos (como deepfakes o imágenes sexuales no consentidas).

En resumen: La Lección Final

Los autores nos dicen que la belleza no es una fórmula matemática. No existe una sola definición de "arte bonito" que sirva para todo el mundo.

Ellos piden a los creadores de IA que dejen de buscar un "juez perfecto" universal y que, en su vez, reconozcan que sus herramientas tienen gustos específicos. En lugar de decir "esto es bonito y esto no", deberían decir: "Esta IA es buena para hacer paisajes realistas, pero no es buena para hacer arte abstracto o culturalmente diverso".

Es como decir: "No intentes que un chef italiano haga sushi perfecto; reconoce que su especialidad es la pasta y busca un chef japonés para el sushi". Necesitamos más diversidad en los "chefs" que entrenan a la IA para que el mundo digital sea tan colorido y variado como el mundo real.