From Model Explanation to Data Misinterpretation: A Cautionary Analysis of Post Hoc Explainers in Business Research

Este estudio advierte que los explicadores post hoc como SHAP y LIME, aunque útiles para generar hipótesis exploratorias, no deben utilizarse para validar hipótesis en investigación empresarial debido a su falta de fiabilidad en la recuperación de relaciones causales reales, especialmente cuando existen correlaciones entre variables o el efecto Rashomon.

Tong Wang (Jeffrey), Ronilo Ragodos (Jeffrey), Lu Feng (Jeffrey), Yu (Jeffrey), Hu

Publicado 2026-03-10
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

Imagina que has construido un gigante robot de cocina (un modelo de Inteligencia Artificial) que es increíblemente bueno cocinando platos deliciosos (hacer predicciones). El robot sabe exactamente qué ingredientes poner para que el pastel salga perfecto, pero no te dice por qué lo hace; simplemente lo hace. Es una "caja negra".

Para entender cómo piensa el robot, los investigadores usan unas gafas mágicas llamadas SHAP y LIME. Estas gafas te muestran qué ingredientes (datos) parecen ser los más importantes para el robot en cada momento.

El problema, según este artículo, es que los investigadores están cometiendo un error grave: están confundiendo lo que el robot piensa con la realidad de la cocina.

Aquí te explico los puntos clave de la investigación usando analogías sencillas:

1. El Error: "El Robot no es la Realidad"

Imagina que el robot decide que el ingrediente secreto para un buen pastel es "un poco de sal". Las gafas mágicas te dicen: "¡Oye! El robot cree que la sal es lo más importante".

Muchos investigadores toman esta información y dicen: "¡Genial! La sal es lo que realmente hace que los pasteles sean buenos en la vida real". Y empiezan a poner sal en todos los pasteles de la tienda.

El peligro: El robot podría estar usando la sal solo porque, en los datos que le diste, la sal coincidía con los pasteles buenos por casualidad (quizás todos los pasteles buenos se cocinaron un día lluvioso y la sal se usaba más ese día). El robot aprendió un patrón falso. Si usas las gafas para decir "la sal es la causa real", te estás equivocando. Las gafas solo te dicen cómo piensa el robot, no cómo funciona el universo.

2. La Prueba: ¿Funcionan las Gafas?

Los autores del estudio hicieron un experimento gigante. Crearon una cocina de prueba donde sabían exactamente qué ingredientes hacían buenos los pasteles (la "verdad absoluta"). Luego, entrenaron robots y usaron las gafas SHAP y LIME para ver si acertaban.

El resultado fue alarmante:

  • A veces, las gafas acertaban.
  • Pero a menudo, fallaban estrepitosamente, incluso cuando el robot cocinaba pasteles perfectos.
  • Las gafas podían decir que el "azúcar" era lo más importante, cuando en realidad era la "harina".
  • Conclusión: Que el robot sea un chef estrella (tenga alta precisión) no significa que sus explicaciones (las gafas) sean verdaderas.

3. El Villano: El "Efecto Rashomon"

¿Por qué pasa esto? Aquí entra el concepto clave del papel: El Efecto Rashomon.

Imagina que hay un crimen (el resultado de los datos) y hay 100 testigos (100 modelos de IA diferentes). Todos los 100 testigos dicen lo mismo sobre qué pasó (todos predicen bien el resultado), pero cuentan historias totalmente diferentes sobre cómo pasó.

  • El Testigo A dice: "Fue el ladrón con sombrero".
  • El Testigo B dice: "Fue el ladrón con capa".
  • El Testigo C dice: "Fue el ladrón con gafas".

Todos aciertan en quién es el culpable, pero sus historias (explicaciones) son contradictorias.
En el mundo de los datos, esto significa que puedes tener muchos modelos diferentes que funcionan igual de bien, pero que usan ingredientes distintos para llegar a la misma conclusión. Si solo miras a un modelo (un solo testigo), su explicación podría ser solo una de las muchas historias posibles, y no necesariamente la verdad.

4. ¿Cómo saber si puedes confiar en las gafas?

El estudio propone una forma de detectar si las gafas te están mintiendo: La Acuerdo entre Testigos (Rashomon Agreement).

  • Escenario de peligro: Si tienes 100 robots que cocinan igual de bien, pero las gafas de uno dicen "usa sal" y las de otro dicen "usa pimienta", ¡cuidado! Significa que hay muchas formas de explicar los datos y ninguna es definitiva. No confíes en ninguna explicación.
  • Escenario seguro: Si los 100 robots dicen "¡Usa sal!" y las gafas de todos coinciden en que la sal es lo más importante, entonces es más probable que la sal sea realmente importante.

5. El Consejo Final: De "Juez" a "Detective"

El mensaje principal del artículo es cambiar la mentalidad:

  • No uses las gafas como Juez: No las uses para decir "¡Esto es la verdad científica!" o para validar hipótesis definitivas sobre cómo funciona el mundo.
  • Úsalas como Detective: Úsalas para generar ideas. "¡Oye, el robot cree que la sal es importante! ¿Podría ser que la sal tenga algo que ver? Vamos a investigar con métodos científicos más rigurosos (como experimentos reales o estadística clásica) para ver si es verdad".

En resumen:
Las herramientas SHAP y LIME son geniales para entender cómo piensa una máquina, pero son peligrosas si intentas usarlas para entender la realidad. Son como un mapa dibujado por un turista: puede ser útil para orientarse, pero no debes usarlo para construir un edificio. Si quieres saber la verdad sobre los datos, necesitas más que una explicación de una caja negra; necesitas verificar si todos los "testigos" (modelos) cuentan la misma historia.