Social Proof is in the Pudding: The (Non)-Impact of Social Proof on Software Downloads

Este estudio mediante experimentos de campo en GitHub demuestra que la manipulación de métricas de prueba social, como las estrellas o las descargas, no tiene un impacto discernible en las descargas posteriores ni en la actividad de los desarrolladores de paquetes de software de código abierto.

Lucas Shen, Gaurav Sood

Publicado Tue, 10 Ma
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

¡Hola! Imagina que el mundo del software es como un gigantesco supermercado de recetas de cocina.

En este supermercado (que se llama GitHub), hay millones de recetas (códigos de programación) que los chefs (los desarrolladores) usan para crear sus propios platos (aplicaciones y programas). El problema es que revisar cada receta para ver si está envenenada o si realmente sabe bien, lleva mucho tiempo y requiere ser un experto.

Entonces, ¿qué hacen la mayoría de los chefs? Siguen la multitud. Si ven que una receta tiene 10,000 personas diciéndole "¡Qué buena!" (estrellas) o que 50,000 personas ya la han llevado a casa (descargas), piensan: "¡Seguro es buena! Todo el mundo no puede estar equivocado". A esto se le llama Prueba Social.

El miedo es que los "cocineros malvados" (hackers) puedan comprar esas "estrellas" o falsificar las "descargas" para que su receta envenenada parezca popular y la usen todos.

¿Qué hicieron los autores de este estudio?

Dos investigadores decidieron hacer una prueba real, como si fueran detectives del supermercado, para ver si engañar al sistema realmente funciona. Hicieron dos experimentos:

Experimento 1: Comprar "Estrellas" (El experimento de GitHub)

Imagina que tienes una receta nueva y nadie la conoce. Tienes 0 estrellas.

  • La trampa: Los investigadores compraron "estrellas" falsas en internet (como comprar likes en redes sociales) y también pidieron a sus amigos que le dieran estrellas a una selección aleatoria de recetas nuevas.
  • El resultado: ¡Nada pasó! Aunque las recetas falsas de repente tenían muchas más estrellas (pasaron de tener 0 a tener unas 20 o 65), nadie las descargó. Los chefs no se dejaron engañar. Siguiendo su instinto, revisaron la receta o simplemente la ignoraron. Las estrellas extra no convencieron a nadie de cocinar con ese ingrediente.

Experimento 2: Inflar las "Descargas" (El experimento de PyPI)

Imagina que ves una receta que dice "¡Ya la han llevado a casa 100 veces!".

  • La trampa: Los investigadores usaron un robot para descargar una receta falsa 100 veces, haciendo que pareciera que 100 personas reales ya la habían usado.
  • El resultado: De nuevo, nada. Aunque el contador de descargas subió drásticamente, la receta no se hizo más popular después. Los chefs no pensaron: "¡Wow, 100 personas la usaron, yo también la quiero!". Simplemente no les importó.

¿Por qué no funcionó el engaño?

Los autores explican esto con una idea muy interesante: Los desarrolladores son como conductores de Fórmula 1, no como turistas.

  1. El riesgo es real: Si un conductor de F1 elige mal un neumático, se estrella. Si un desarrollador elige un código malo, su programa se rompe o se hackean sus datos. Por eso, están muy motivados para revisar de cerca qué están usando (la "ruta central" de decisión), en lugar de confiar ciegamente en lo que dice el cartel de "Más vendido" (la "ruta periférica").
  2. El escepticismo: Los desarrolladores saben que en internet se puede comprar de todo. Saben que las estrellas se pueden falsificar. Por eso, cuando ven un número alto de estrellas en un paquete nuevo y desconocido, en lugar de pensar "¡Qué popular!", piensan "¡Ojo! Esto huele a trampa".

La conclusión (en una frase)

"La prueba social está en el pudín, pero en este caso, el pudín no se comió".

Aunque los hackers pueden inflar los números, los desarrolladores de software son lo suficientemente inteligentes y cautelosos como para no dejarse llevar solo por eso. No hay evidencia de que comprar popularidad falsa haga que la gente descargue software malicioso (al menos con las cantidades de "falsificación" que los investigadores probaron).

¿Hay un "pero"?

Sí. Los investigadores advierten: "No hemos encontrado evidencia, pero eso no significa que sea imposible".

  • Si un hacker compra millones de estrellas (una campaña masiva), quizás sí funcione.
  • Si en el futuro usamos robots (Inteligencia Artificial) para elegir software en lugar de humanos, esos robots podrían ser más fáciles de engañar con números falsos.

En resumen: Por ahora, los desarrolladores humanos son buenos detectando el fraude, pero debemos seguir vigilando, porque la tecnología y las tácticas de los malos actores siempre están evolucionando.