Automated Coding of Communications in Collaborative Problem-solving Tasks Using ChatGPT

Este estudio demuestra que ChatGPT puede codificar eficazmente datos de comunicación en tareas de resolución colaborativa de problemas para la evaluación de habilidades del siglo XXI, aunque su rendimiento varía según el modelo, el marco de codificación y las características de la tarea, sin que los modelos más recientes de razonamiento ofrezcan necesariamente mejores resultados.

Jiangang Hao, Wenju Cui, Patrick Kyllonen, Emily Kerzabi, Lei Liu, Michael Flor

Publicado 2026-03-04
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

¡Hola! Imagina que este artículo es como una receta de cocina para enseñarle a un robot muy inteligente (ChatGPT) cómo leer las conversaciones de un grupo de personas que están resolviendo un problema juntos.

Aquí te explico la historia, paso a paso, usando analogías sencillas:

🧩 El Gran Problema: El "Cuello de Botella"

Imagina que tienes un equipo de 100 personas trabajando en un proyecto. Todos están hablando por chat. Para saber si son buenos trabajando en equipo, un humano tiene que leer cada mensaje y ponerle una "etiqueta" (por ejemplo: "¡Están compartiendo ideas!", "¡Están peleando!", "¡Están organizándose!").

El problema es que leer y etiquetar todo esto a mano es como intentar pintar un mural gigante con un pincel muy fino: toma muchísimo tiempo, es caro y agota a las personas. Los investigadores querían saber: "¿Podemos pedirle a una Inteligencia Artificial (IA) que haga este trabajo aburrido por nosotros?"

🤖 La Prueba: ¿Puede el Robot Hacerlo?

Los autores del estudio (de ETS, un instituto de investigación educativo) decidieron poner a prueba a varios "robots" de ChatGPT (versiones GPT-4, GPT-4o y las nuevas versiones de "razonamiento").

Les dieron una tarea sencilla: "Lee estos chats y dime qué están haciendo los estudiantes".

Los resultados fueron sorprendentes:

  1. El robot sí puede trabajar: En muchos casos, el ChatGPT etiquetó las conversaciones tan bien como un humano experto. ¡Es como si el robot hubiera aprendido a leer el "lenguaje del equipo" muy rápido!
  2. Más inteligente no siempre es mejor: Pensarían que los modelos más nuevos y "pensadores" (como GPT-o1) serían mejores. Pero no fue así. A veces, el modelo "estándar" (GPT-4o) funcionó igual de bien o incluso mejor. Analogía: No necesitas un Ferrari para ir a la tienda de la esquina; a veces un coche normal es más rápido y eficiente.
  3. El idioma importa: Si el chat era sobre temas muy técnicos (como volcanes o química), el robot se confundía un poco más, especialmente si el "manual de instrucciones" (el marco de codificación) era muy teórico y difícil de entender. Pero si el chat era sobre decisiones generales (como elegir un apartamento), el robot fue un maestro.

📚 El Secreto: Las Instrucciones (Los "Prompts")

Aquí viene la parte más interesante. Para que el robot funcione, hay que darle instrucciones muy claras.

  • El Marco de Codificación 1 (Teórico): Imagina que le das al robot un libro de reglas de 500 páginas escrito en un lenguaje muy académico. El robot se pierde un poco.
  • El Marco de Codificación 2 (Práctico): Imagina que le das un manual con ejemplos reales: "Si alguien dice 'Hola', es saludo. Si dice '¿Qué opinas?', es pidiendo opinión". ¡Con este manual, el robot fue excelente!

La lección: No basta con tener un robot inteligente; necesitas darle las instrucciones correctas y ejemplos claros.

🛠️ ¿Se puede mejorar con "Feedback"?

Los investigadores pensaron: "Si el robot se equivoca en una categoría, le mostramos los errores y le decimos: 'Oye, fíjate aquí, no hagas eso'".

  • En algunos casos (como la tarea de "Condensación"): No funcionó. Era como intentar arreglar un reloj que ya estaba casi perfecto; al intentar arreglarlo, lo desajustaron un poco más.
  • En otros casos (como la tarea de "Volcán"): ¡Funcionó! Al mostrarle los errores, el robot aprendió y mejoró su puntuación.

🎯 Conclusión: ¿Para qué sirve todo esto?

Este estudio nos dice que podemos usar a la Inteligencia Artificial para ayudar a evaluar habilidades del siglo XXI (como trabajar en equipo), pero con algunas reglas:

  1. No reemplaza al humano todavía: El robot es un asistente increíble que hace el trabajo sucio y rápido, pero un humano debe supervisar, especialmente en temas muy complejos o técnicos.
  2. Ahorra tiempo y dinero: Lo que antes tomaba meses a un equipo de personas, ahora la IA puede hacerlo en horas.
  3. El diseño es clave: Si quieres que la IA funcione bien, debes diseñar tus reglas de evaluación de forma clara y práctica, no solo teórica.

En resumen: Imagina que tienes un equipo de detectives humanos que están cansados de leer miles de pistas. Ahora tienen un asistente robot que puede leer las pistas por ellos, clasificarlas y decirles: "¡Oigan, aquí hay un patrón de colaboración!". A veces el robot se equivoca, pero si le das las instrucciones correctas, se convierte en el mejor ayudante que podrías tener para resolver el misterio de cómo aprendemos a trabajar juntos.