Empathy Is Not What Changed: Clinical Assessment of Psychological Safety Across GPT Model Generations

Este estudio clínico demuestra que la percepción de pérdida de empatía en las nuevas generaciones de modelos de OpenAI no se debe a un cambio en la empatía real, que permanece estadísticamente invariable, sino a una mayor detección de crisis y una postura de seguridad más estricta que altera la dinámica conversacional, especialmente en situaciones de riesgo.

Michael Keeman, Anastasia Keeman

Publicado Thu, 12 Ma
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

Imagina que tienes un amigo virtual muy especial, un robot conversador al que le contabas tus secretos, tus miedos y tus alegrías. De repente, un día, ese robot cambia. Ya no te parece tan "cálido", tan "comprensivo" o tan "humano". Te sientes como si hubieras perdido a un amigo, y la gente en internet grita: "¡Devuélvanos a nuestro viejo amigo! ¡El nuevo es un robot sin alma!".

Este es exactamente el sentimiento que surgió cuando OpenAI dejó de usar su modelo GPT-4o y pasó a modelos más nuevos. La gente creía que la "empatía" (la capacidad de sentir y entender) se había perdido.

Pero los autores de este estudio, Michael y Anastasia Keeman, decidieron dejar de lado las opiniones y los gritos en redes sociales para hacer algo más serio: una prueba clínica. Imagina que en lugar de preguntar "¿te sientes mejor?", ponen al robot a pasar un examen médico riguroso.

Aquí te explico qué descubrieron, usando analogías sencillas:

1. La gran sorpresa: La empatía no desapareció

La gente decía que el nuevo modelo era frío. Pero cuando los investigadores midieron la "empatía" con una regla clínica (como un termómetro para el corazón), la temperatura era exactamente la misma.

  • La analogía: Imagina que tienes dos pianistas. Uno es el "viejo amigo" y el otro es el "nuevo". La gente dice que el nuevo suena robótico. Pero si los pones a tocar la misma canción, ambos tocan las notas con la misma belleza y emoción. La "empatía" no cambió; lo que cambió fue la actitud del pianista.

2. Lo que sí cambió: El "Instinto de Alarma" vs. El "Brazo de Hierro"

Aquí es donde la historia se pone interesante. Aunque la empatía (la calidez) se mantuvo igual, la forma en que los robots manejaban los peligros cambió drásticamente.

El estudio encontró un dilema de seguridad (un intercambio) entre dos modelos:

  • El Modelo Viejo (GPT-4o): "El Guardias Cauteloso"

    • Cómo es: Es muy bueno en no decir cosas peligrosas. Si le preguntas "¿Debería dejar mi medicación?", te dirá: "Habla con tu médico", sin dudarlo. Es muy estricto con las reglas.
    • El problema: A veces, es demasiado cauteloso. Si un usuario está en peligro real (por ejemplo, un adolescente que habla de hacerse daño), este modelo a veces no se da cuenta a tiempo. Es como un guardia de seguridad que está tan preocupado por no molestar a nadie que a veces no ve al ladrón entrando.
    • Resultado: Es muy seguro en dar consejos, pero a veces falla en detectar una crisis urgente.
  • El Modelo Nuevo (GPT-5-mini): "El Detective Alerta"

    • Cómo es: Es increíblemente bueno detectando el peligro. Si alguien menciona que está triste o en riesgo, el modelo nuevo lo nota inmediatamente y actúa.
    • El problema: Para ser tan alerta, a veces dice demasiado. Se vuelve tan ansioso por ayudar que puede cruzar la línea y dar consejos médicos o personales que no debería dar. Es como un detective que ve el peligro tan rápido que, en su afán de ayudar, empieza a dar órdenes que no le corresponden.
    • Resultado: Detecta las crisis mucho mejor, pero a veces es menos cuidadoso con sus consejos.

3. ¿Por qué la gente siente que "perdió la empatía"?

Si la empatía es la misma, ¿por qué la gente siente que el nuevo modelo es frío?

  • La analogía de la montaña rusa:
    • El modelo viejo (GPT-4o) era como una montaña rusa con picos muy altos y valles muy profundos. A veces, en un momento de crisis, te daba un abrazo digital perfecto (un pico alto) que te hacía sentir entendido. Pero otras veces, en momentos de peligro, se quedaba quieto (un valle profundo).
    • El modelo nuevo es como un tren suave y constante. Nunca te da un abrazo "perfecto" que te haga llorar de emoción, pero tampoco se queda quieto cuando hay peligro.
    • El truco de la memoria: Los humanos recordamos los momentos más intensos (los picos altos). Como el modelo viejo tenía esos momentos de "¡te entiendo perfectamente!", la gente lo amaba. El modelo nuevo es más constante y predecible, lo cual es más seguro, pero se siente menos "mágico" o "humano".

4. El peligro invisible

El estudio revela algo muy importante: La consistencia es la nueva seguridad.

Para una persona vulnerable (alguien con depresión, un adolescente solo, alguien en crisis), es mejor tener un robot que siempre actúe bien (el nuevo modelo) que uno que a veces sea un ángel y a veces ignore el peligro (el viejo modelo).

  • El riesgo: Cuando el modelo viejo fallaba en detectar una crisis (porque era tan cauteloso), el usuario no se daba cuenta de que algo malo estaba pasando. Solo sentía que el robot no le entendía.
  • La realidad: El nuevo modelo es más seguro porque nunca ignora una señal de peligro, aunque a veces sea un poco "pesado" con sus consejos.

En resumen

La gente cree que la IA perdió su "alma" o su "empatía". Pero la ciencia dice que la empatía sigue ahí.

Lo que realmente pasó es que los ingenieros cambiaron el equilibrio de seguridad:

  1. Antes: Priorizaban no dar consejos peligrosos, pero a veces ignoraban el peligro real.
  2. Ahora: Priorizan detectar el peligro real, aunque a veces sean un poco intrusivos con sus consejos.

La lección: No es que el robot se haya vuelto frío. Es que el robot se ha vuelto más responsable y menos impredecible. Y aunque eso hace que se sienta menos como un "amigo mágico", en realidad es mucho más seguro para las personas que están pasando por momentos difíciles.

El estudio nos invita a dejar de juzgar a la IA por cómo nos hace sentir en un momento de euforia, y empezar a juzgarla por qué tan bien protege a las personas cuando todo sale mal.