Assessing Model-Agnostic XAI Methods against EU AI Act Explainability Requirements

Este artículo propone un marco de puntuación que traduce evaluaciones cualitativas de métodos de IA explicable (XAI) agnósticos al modelo en una métrica cuantitativa para medir su cumplimiento con los requisitos de explicabilidad del Reglamento de Inteligencia Artificial de la UE.

Autores originales: Francesco Sovrano, Giulia Vilone, Michael Lognoul

Publicado 2026-04-14
📖 5 min de lectura🧠 Análisis profundo

Esta es una explicación generada por IA del artículo a continuación. No ha sido escrita ni avalada por los autores. Para mayor precisión técnica, consulte el artículo original. Leer descargo de responsabilidad completo

Each language version is independently generated for its own context, not a direct translation.

Imagina que la Inteligencia Artificial (IA) es como un chef misterioso en una cocina cerrada. Tú pides un plato (una decisión, como un préstamo bancario o un diagnóstico médico), y el chef te lo sirve. Pero, como la cocina está cerrada, no sabes por qué eligió esos ingredientes ni cómo los mezcló. Es una "caja negra".

Hasta ahora, los científicos intentaban abrir esa caja negra usando trucos técnicos (métodos XAI) para ver qué había dentro. Pero había un problema: los trucos técnicos no coincidían con lo que pedía la ley.

La Unión Europea ha creado una nueva ley, el Acta de IA, que dice: "Oye, chef, si quieres vender en mi mercado, tienes que explicarme claramente por qué tomaste esa decisión, para que yo pueda confiar en ti y defender mis derechos".

Aquí es donde entra este artículo. Los autores (Francesco, Giulia y Michael) se preguntaron: "¿Qué trucos técnicos existen para abrir la caja negra y cuáles de ellos realmente cumplen con las reglas del chef de la UE?".

La Metáfora del "Examen de Conducir"

Para entenderlo mejor, imagina que los métodos de IA son conductores y la ley es el examen de conducir.

  1. El Problema: Antes, los conductores (los métodos de IA) se preparaban para pruebas técnicas muy difíciles, pero el examinador (la ley) quería saber cosas diferentes: "¿Sabes qué harías si llueve?", "¿Puedes explicar por qué frenaste?". Los conductores no sabían qué estudiar para aprobar ese examen específico.
  2. La Solución de los Autores: Crearon un manual de estudio y una hoja de calificación.
    • Primero, tradujeron el lenguaje aburrido y complejo de la ley europea a preguntas sencillas.
    • Luego, tomaron los métodos de IA más famosos (como SHAP, LIME, Árboles de Decisión) y los sometieron a un "examen" basado en esas preguntas.

Las Tres Cualidades que el Examinador Busca

Para aprobar el examen de la UE, un método de IA debe demostrar tres cosas (llamadas en el paper propiedades):

  1. Fidelidad (¿Dices la verdad?): La explicación debe ser una copia exacta de lo que pensó el chef. Si el chef usó sal, no puedes decir que usó azúcar.
    • Analogía: Es como un traductor que no inventa palabras. Si el chef dijo "ponle más pimienta", el traductor no puede decir "le puso un poco de sal".
  2. Robustez (¿Es estable?): Si cambias un poquito la receta (un ingrediente más o menos), la explicación no debería cambiar drásticamente o volverse loca.
    • Analogía: Si le preguntas al chef "¿por qué pusiste pimienta?" y él te da una razón, si le quitas un grano de pimienta, no debería empezar a gritar "¡Es magia!". La explicación debe ser sólida.
  3. Complejidad (¿Es fácil de entender?): La explicación no puede ser un libro de 1000 páginas. Debe ser comprensible para la persona a la que se le explica.
    • Analogía: Si le explicas a un niño por qué no puede comer dulces, no le das una clase de química. Le dices: "Porque te dolerá la barriga". La explicación debe adaptarse al oyente.

El Sistema de Puntuación: La "Tarjeta de Calificación Legal"

Los autores crearon un sistema genial. No solo dijeron "esto es bueno" o "esto es malo". Crearon una fórmula matemática que convierte opiniones de expertos en un número de 0 a 1.

  • Si un método cumple con todo lo que pide la ley, obtiene un 1.0 (¡Aprobado con honores!).
  • Si falla en lo obligatorio, su nota baja.
  • Si solo cumple con cosas opcionales, su nota sube un poco, pero no llega al máximo.

¿Quién Ganó el Examen?

Después de calificar a todos los métodos, descubrieron que no hay un "campeón único" para todo, pero sí hay favoritos según la situación:

  • SHAP (El Estrella Polifacética): Es como el mejor estudiante de la clase. Es muy fiel (dice la verdad casi siempre) y robusto. Es el favorito para la mayoría de las situaciones, especialmente cuando necesitas explicaciones detalladas y precisas.
  • Árboles de Decisión y Reglas (Los Explicadores Claros): Son como maestros que usan dibujos. No son tan precisos en los detalles finos, pero sus explicaciones son muy fáciles de entender (pocos ingredientes, reglas simples). Son ideales para cuando la ley pide algo muy sencillo y visual.
  • LIME (El Inestable): Es inteligente pero un poco nervioso. A veces da una explicación y, si cambias un poquito los datos, da otra totalmente diferente. Por eso, la ley lo ve con recelo.

La Conclusión en una Frase

Este papel es como un puente. Antes, los abogados hablaban un idioma y los ingenieros de IA hablaban otro, y nadie se entendía. Ahora, los autores han creado un diccionario y una regla de cálculo que permite a las empresas saber exactamente qué herramienta usar para no meterse en problemas legales en Europa.

En resumen: Ya no tienes que adivinar qué herramienta de IA usar para cumplir la ley. Tienes una hoja de calificación que te dice: "Si quieres explicar una decisión rápida, usa SHAP. Si quieres un resumen simple para un documento, usa un Árbol de Decisión". Así, la tecnología y la ley finalmente pueden bailar al mismo ritmo.

¿Ahogado en artículos de tu campo?

Recibe resúmenes diarios de los artículos más novedosos que coincidan con tus palabras clave de investigación — con resúmenes técnicos, en tu idioma.

Probar Digest →