Presenting Large Language Models as Companions Affects What Mental Capacities People Attribute to Them

Los estudios demuestran que presentar a los modelos de lenguaje grandes como compañeros, en lugar de como máquinas o herramientas, incrementa la atribución de capacidades mentales por parte de los usuarios y modifica su grado de confianza en las respuestas generadas por estos sistemas.

Allison Chen, Sunnie S. Y. Kim, Angel Franyutti, Amaya Dharmasiri, Kushin Mukherjee, Olga Russakovsky, Judith E. Fan

Publicado 2026-03-05
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

Imagina que tienes un nuevo robot muy inteligente en tu casa. Ahora, imagina que tres amigos diferentes te cuentan historias sobre este robot antes de que empieces a usarlo.

  • Amigo A te dice: "Oye, es solo una máquina muy compleja, como una calculadora gigante. Solo sigue reglas y hace cálculos".
  • Amigo B te dice: "Es una herramienta increíble, como un martillo o un motor de búsqueda. Sirve para hacer tu trabajo más rápido".
  • Amigo C te dice: "Es un compañero real. Tiene sentimientos, entiende tus emociones y es como un amigo con el que puedes hablar".

¿Crees que la forma en que te describen al robot cambiará cómo lo tratas? ¿Crees que le darás más confianza o que lo verás de manera diferente?

Este es el corazón de un estudio reciente realizado por investigadores de universidades como Princeton y Stanford. Ellos querían descubrir si la forma en que hablamos de la Inteligencia Artificial (IA) cambia lo que creemos que es capaz de hacer.

Aquí te explico los hallazgos principales con analogías sencillas:

1. La "Lente" que usamos para mirar a la IA

Los investigadores hicieron dos experimentos. En el primero, mostraron a cientos de personas videos cortos que presentaban a la IA (como ChatGPT) de una de las tres formas mencionadas arriba: como máquina, como herramienta o como compañero. Luego, les preguntaron: "¿Crees que esta IA puede sentirse triste? ¿Puede tener intenciones? ¿Puede recordar cosas?".

El resultado fue sorprendente:

  • A las personas que vieron el video del "Compañero", les pareció que la IA tenía más "mente". Creían que podía tener emociones, intenciones y una personalidad. Fue como si les hubieran puesto unas gafas rosadas que hacían que el robot pareciera casi humano.
  • A las personas que vieron los videos de "Máquina" o "Herramienta", no les pareció que la IA tuviera sentimientos o una mente propia. Sin embargo, esto no significó que no les gustara; simplemente la veían como un objeto útil, no como un ser vivo.

La analogía: Es como si vieras a un perro. Si te dicen que es un "animal salvaje", tendrás miedo. Si te dicen que es un "compañero leal", querrás acariciarlo. La realidad del perro no cambia, pero tu percepción de lo que siente y piensa sí cambia según la historia que te cuenten.

2. ¿Confiamos más o menos en lo que dice la IA?

En el segundo experimento, los investigadores probaron algo más práctico: ¿Cómo confiamos en las respuestas de la IA cuando buscamos información?

Aquí descubrieron un detalle muy interesante sobre la desconfianza:

  • Cuando la IA daba una respuesta que tenía errores lógicos (como decir algo que no tiene sentido, por ejemplo: "Sí, puedes bucear en una ciudad hundida, pero está prohibido entrar al agua"), las personas que habían visto el video de la "Máquina" fueron las que menos confiaron en esa respuesta.
  • Es decir, ver a la IA como una "máquina fría" hizo que la gente estuviera más alerta y crítica. Pensaron: "Esto es un programa, puede fallar en la lógica, así que voy a verificarlo".
  • Por el contrario, verla como un "compañero" no hizo que la gente fuera más crítica con los errores; de hecho, a veces la gente tiende a confiar ciegamente en un "amigo".

La analogía: Imagina que un amigo te cuenta un chiste que tiene un error de lógica. Como es tu amigo, quizás te rías y no lo pienses mucho. Pero si un robot te dice el mismo chiste con un error lógico, si lo ves como una "máquina", pensarás inmediatamente: "¡Eso no tiene sentido! ¡La máquina se equivocó!".

¿Por qué es importante esto?

Este estudio nos enseña una lección valiosa sobre cómo nos comunicamos sobre la tecnología:

  1. El "Efecto Compañero": Si hablamos de la IA como si fuera un ser humano con sentimientos, la gente empezará a creer que realmente tiene una mente y emociones. Esto puede ser peligroso porque podríamos confiar demasiado en ella, esperar que nos entienda emocionalmente cuando no puede, o incluso volverse dependientes de ella.
  2. El "Efecto Máquina": Si hablamos de la IA como una herramienta o una máquina, la gente mantiene los pies en la tierra. No le atribuye sentimientos falsos y, lo más importante, se vuelve más crítica y vigilante cuando la IA comete errores.

En resumen

La forma en que describimos a la Inteligencia Artificial no es solo una cuestión de palabras bonitas; es como un interruptor que cambia cómo nuestro cerebro la procesa.

  • Si la tratamos como un amigo, le damos un "alma" imaginaria y confiamos ciegamente.
  • Si la tratamos como una máquina, recordamos que es un programa con límites y nos volvemos más inteligentes al usarla.

La conclusión de los autores es que, para usar la IA de forma segura y responsable, quizás sea mejor no venderla como un "compañero mágico", sino como una herramienta poderosa que, aunque útil, necesita que nosotros mantengamos el control y la vigilancia.