Not All Trust is the Same: Effects of Decision Workflow and Explanations in Human-AI Decision Making

Este estudio examina cómo el flujo de decisión, las explicaciones y la experiencia del usuario influyen en la confianza y el comportamiento de dependencia en la toma de decisiones asistida por IA, revelando que la configuración de dos pasos no reduce la sobreconfianza y que la confianza declarada y el comportamiento de dependencia son constructos distintos que deben evaluarse por separado.

Laura Spillner, Rachel Ringe, Robert Porzel, Rainer Malaka

Publicado 2026-03-06
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

¡Claro que sí! Imagina que estás en una cocina muy ocupada y tienes un chef robot (la Inteligencia Artificial) que te ayuda a decidir qué plato preparar para tus clientes. A veces el robot acierta de maravilla, pero otras veces, con mucha seguridad, te sugiere poner sal en un postre dulce.

El problema es: ¿Cuándo debes confiar en el robot y cuándo debes ignorarlo?

Este estudio de investigadores alemanes es como una prueba de cocina para ver cómo podemos confiar mejor en estos robots sin caer en dos trampas:

  1. Confiar demasiado (Overtrust): Poner sal en el postre porque el robot dijo que estaba bien.
  2. Confiar muy poco (Undertrust): Ignorar al robot cuando tiene razón y arruinar el plato por terquedad.

Aquí te explico los hallazgos principales usando analogías sencillas:

1. Dos tipos de "confianza" que no son lo mismo

El estudio descubrió algo muy importante: Lo que la gente dice que siente y lo que la gente hace en la realidad son dos cosas distintas.

  • La analogía: Imagina que le preguntas a un amigo: "¿Te gusta este restaurante?". Él te dice: "¡Me encanta, es el mejor del mundo!" (Confianza declarada). Pero luego, cuando llega la cuenta, él no deja propina y se va sin volver (Confianza conductual).
  • El hallazgo: Los investigadores vieron que las personas podían decir "confío mucho en el robot" en una encuesta, pero en la práctica, a veces lo ignoraban o lo seguían ciegamente sin pensar. Por eso, no basta con preguntar "¿te fías?"; hay que observar "¿qué haces?".

2. La trampa de la "fuerza cognitiva" (El método de 2 pasos)

Antes de este estudio, muchos pensaban que una buena forma de evitar confiar ciegamente en el robot era obligarlo a pensar primero.

  • El método 1 paso: El robot te da la respuesta inmediatamente.

  • El método 2 pasos: Primero tú tienes que decidir qué plato hacer, y luego el robot te da su sugerencia. La idea era que, al pensar tú primero, serías más crítico y no aceptarías tan fácilmente un error del robot.

  • La analogía: Es como si un profesor te dijera: "Resuelve este problema de matemáticas tú solo primero, y luego te daré la solución". Se pensaba que esto te haría más inteligente y menos propenso a copiar la respuesta incorrecta del profesor.

  • El resultado sorpresa: ¡No funcionó como esperaban! De hecho, en este experimento, el método de 2 pasos hizo que la gente confiara más en el robot cuando estaba equivocado.

    • ¿Por qué? Porque cuando la gente ya había gastado tiempo y esfuerzo pensando en su propia respuesta, se sentía más "abierta" a la sugerencia del robot después. Si el robot decía algo diferente, la gente tendía a cambiar su mente y seguir al robot, incluso si el robot estaba equivocado. Fue como si el esfuerzo previo los hiciera más vulnerables a la influencia del robot.

3. Las explicaciones no son mágicas (dependen del contexto)

El estudio también probó si darle al usuario una "explicación" (por ejemplo, el robot diciendo: "Te sugiero sal porque el cliente pidió algo salado") ayudaba a calibrar la confianza.

  • La analogía: Es como si el chef robot te dijera: "Ponle sal porque...".
  • El hallazgo: Las explicaciones no funcionan igual en todas las situaciones.
    • Si usabas el método de 2 pasos (pensar primero), las explicaciones hacían que la gente confiara más en el robot.
    • Si usabas el método de 1 paso (ver la respuesta de inmediato), las explicaciones a veces hacían que la gente confiara menos.
    • Lección: No puedes poner una "explicación" genérica en cualquier sistema y esperar que funcione. Depende de cómo esté diseñado el flujo de trabajo.

4. El conocimiento del experto importa

El estudio también miró a personas que sabían mucho del tema (expertos) y a personas que no.

  • La analogía: Un chef experto vs. un turista.
  • El hallazgo: Los expertos que se sentían seguros de sus conocimientos tendían a confiar más en el robot cuando usaban el método de 2 pasos. Es como si el proceso de "pensar primero" les hubiera dado la confianza necesaria para validar la sugerencia del robot.

¿Cuál es la conclusión final?

La idea de que "obligar a la gente a pensar antes de ver la IA" (el método de 2 pasos) es una solución mágica para evitar que confíen demasiado en la IA es falsa. De hecho, en este caso, hizo lo contrario.

El mensaje para el futuro:
Si estás diseñando una herramienta con Inteligencia Artificial:

  1. No confíes solo en lo que los usuarios dicen que sienten; mira lo que hacen.
  2. No hay una solución única ("talla única"). Lo que funciona para un experto en un sistema de 2 pasos puede no funcionar para un novato en un sistema de 1 paso.
  3. A veces, el método de 2 pasos es útil para entender cómo piensan los humanos, pero para el uso real, a veces es mejor un flujo más directo (1 paso) para evitar que la gente se deje llevar demasiado por la sugerencia del robot.

En resumen: La confianza no es un interruptor de encendido/apagado; es un equilibrio delicado que depende de cómo interactuamos con la máquina, no solo de la máquina en sí.