Unintended Consequences: Updating Causal Models

El artículo examina cómo las creencias causales de un agente influyen en sus decisiones y cómo la retroalimentación resultante actualiza dichas creencias, proponiendo un estado estacionario donde las acciones óptimas basadas en sus creencias actuales pueden ser racionalizadas por los datos observados dentro del marco de ecuaciones estructurales.

Joseph Y. Halpern, Evan Piermont, Marie-Louise Vier\o

Publicado Wed, 11 Ma
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

Imagina que el mundo es un gigantesco tablero de videojuego y tú eres el jugador. Tu objetivo es ganar puntos (felicidad, dinero, éxito), pero hay un problema: no tienes el manual de instrucciones.

No sabes exactamente cómo funcionan las reglas del juego. Solo tienes tus propias suposiciones sobre cómo se conectan las cosas. Este artículo de Joseph Halpern, Evan Piermont y Marie-Louise Vierø es como un manual para entender por qué, a veces, incluso cuando intentamos aprender de nuestros errores, seguimos cometiendo los mismos o nos quedamos atrapados en una ilusión para siempre.

Aquí tienes la explicación sencilla, usando analogías:

1. El Mapa y el Territorio (El Modelo Causal)

Imagina que tienes un mapa mental de cómo funciona el mundo.

  • Si llueve, el suelo se moja.
  • Si tocas fuego, te quemas.
  • Si comes zanahorias, ves mejor.

Este mapa es tu "modelo causal". El problema es que a veces nuestro mapa está mal dibujado. Quizás crees que las zanahorias te dan superpoderes de vuelo (un error causal). El artículo estudia qué pasa cuando tu mapa está equivocado y tratas de navegar por el mundo real.

2. El Ciclo de "Acción -> Observación -> Aprendizaje"

Normalmente, funcionamos así:

  1. Creo algo (mi mapa dice que X causa Y).
  2. Actúo basándome en eso (hago X para conseguir Y).
  3. Observo qué pasa (¿Llegué a Y?).
  4. Actualizo mi mapa (Si no llegué a Y, cambio mi creencia).

El artículo pregunta: ¿Qué pasa si mi mapa es tan malo que nunca puedo corregirlo, o si me equivoco de forma que nunca me doy cuenta?

3. Dos Casos Extremos (Las Historias del Artículo)

Los autores usan dos historias divertidas para explicar dos tipos de problemas:

Caso A: El Gobernador y las Serpientes (El error que se corrige)

  • La historia: Un gobernador en la India colonial quería eliminar las cobras. Pensó: "Si pago por cabezas de cobra, la gente las matará y las cobras desaparecerán".
  • Su mapa: Pagar -> Más muertes -> Menos cobras.
  • La realidad: La gente empezó a criar cobras para cobrar la recompensa. Al final, había más cobras.
  • El resultado: El gobernador vio que había más cobras. Su mapa decía "menos cobras", pero la realidad gritaba "¡más cobras!". Como la realidad era tan diferente a su mapa, su mapa se rompió. Tuvo que admitir: "¡Oh, no! Mi lógica estaba mal".
  • Lección: A veces, la realidad es tan obvia que nos obliga a cambiar de opinión y aprender la verdad.

Caso B: La Tribu Aition y el Sol (La ilusión eterna)

  • La historia: Una tribu cree que si no hacen un ritual cada mañana, el sol no saldrá porque su dios es vengativo.
  • Su mapa: Ritual -> Sol sale. Sin Ritual -> Sol no sale.
  • La realidad: El sol sale cada día, sin importar lo que hagan.
  • El truco: Como el sol siempre sale, su mapa nunca se rompe. Cada mañana, al ver el sol, piensan: "¡Ves! Teníamos razón, el ritual funcionó".
  • El resultado: Nunca cambian su creencia. Aunque su lógica sea falsa (el sol saldría de todos modos), su acción (el ritual) siempre coincide con el resultado (salida del sol).
  • Lección: Puedes estar equivocado para siempre si tu error no te impide ver lo que esperas ver. Te quedas atrapado en un "estado estacionario" de ilusión.

4. El "Estado Estacionario" (El Punto de No Retorno)

Los autores definen un concepto llamado Estado Estacionario. Imagina que estás conduciendo un coche con los ojos vendados, guiado por un GPS que miente.

  • Si el GPS te dice "gira a la izquierda" y tú giras, y el coche sigue recto (porque el GPS mintió), te darás cuenta y cambiarás el GPS.
  • Pero, si el GPS te dice "gira a la izquierda" y tú giras, y por pura suerte el coche gira a la izquierda (aunque el GPS seguía mintiendo sobre la razón), pensarás: "¡Genial! Mi GPS es perfecto".

En un Estado Estacionario, tomas la decisión que crees que es la mejor según tu mapa, el mundo te da un resultado que coincide con tu mapa, y por lo tanto, nunca tienes una razón para cambiar tu mapa. Te quedas atrapado en un bucle infinito de decisiones subóptimas, pero que parecen perfectas para ti.

5. La "Ceguera Introspectiva" (El miedo a lo desconocido)

Hacia el final, el artículo habla de algo más profundo: la inconsciencia.
Imagina que estás jugando al ajedrez, pero no sabes que existe la pieza llamada "Alfil".

  • Si pierdes una partida, podrías pensar: "Perdí porque mi estrategia fue mala".
  • Pero nunca pensarás: "Perdí porque no conocía la existencia del Alfil".

El artículo sugiere que a veces, los agentes (personas) son conscientes de que podrían estar equivocados, pero no saben en qué están equivocados. Es como si supieran que hay un "monstruo bajo la cama", pero no saben si es un dragón, un gato o un fantasma. Esto hace que tomen decisiones extrañas: a veces eligen acciones que dan pocos puntos ahora, solo por la emoción de "descubrir algo nuevo" que podría cambiar todo su mundo, como un explorador buscando un tesoro que ni siquiera sabe que existe.

En Resumen

Este paper nos enseña que:

  1. No siempre aprendemos de los errores: A veces, nuestros errores nos confirman en nuestras creencias falsas (como la tribu del sol).
  2. La realidad a veces nos salva: Otras veces, la realidad es tan chocante que nos obliga a reinventar nuestra visión del mundo (como el gobernador de las serpientes).
  3. El peligro de la comodidad: Si tu forma de ver el mundo te da resultados "suficientemente buenos" y nunca te sorprende, nunca mejorarás. Te quedarás estancado en una versión imperfecta de la realidad.

Es una advertencia sobre cómo nuestras creencias pueden convertirse en jaulas invisibles, y por qué es tan difícil, a veces, ver la verdad cuando estamos demasiado cómodos en nuestras propias mentiras.