The SIS Competition Model for Conflicting Rumors

Este trabajo propone un modelo SIS de competencia para rumores conflictivos que revela mecanismos novedosos de coexistencia, donde la creencia en un rumor puede favorecer la propagación del opuesto, permitiendo que una tasa de infección menor aumente su difusión y que la mayoría gane ventaja espontáneamente, eliminando incluso a rumores más contagiosos si su cuota inicial no supera un umbral crítico.

Yu Takiguchi, Koji Nemoto

Publicado 2026-03-05
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

Imagina que tu mente es una gran plaza pública llena de gente. En esta plaza, hay dos bandos: los que creen en la Noticia Falsa (llamémosla "Rumor A") y los que creen en la Verdad o Corrección (llamémosla "Rumor B").

Este artículo de Yu Takiguchi y Koji Nemoto es como un manual de instrucciones para entender cómo estas dos ideas luchan por dominar la plaza. No usan matemáticas complicadas para aburrirnos, sino que crean un "juego de simulación" (un modelo matemático) para ver quién gana.

Aquí te explico las ideas principales con analogías sencillas:

1. El Juego de los "Infectados" y los "Silenciosos"

En este modelo, la gente tiene dos estados posibles para cada opinión:

  • Los Silenciosos (S): Son los que creen en la idea, pero no la cuentan a nadie. Son como fanáticos que guardan sus secretos.
  • Los Infectados (I): Son los que creen en la idea y la gritan a todo el mundo. Son los que comparten el meme, el chisme o la noticia en redes sociales.

La regla de oro es: Si escuchas un rumor que te cambia la mente, te conviertes inmediatamente en un "Infectado" de esa nueva idea. No te quedas callado; te vuelves un evangelista de la nueva verdad.

2. La Gran Sorpresa: ¡La Derrota Ayuda a la Victoria!

Lo más fascinante que descubrieron los autores es un mecanismo extraño llamado "Coexistencia Paradojal".

Imagina que la "Noticia Falsa" (A) es muy aburrida para sus propios seguidores (no se la pasan mucho), pero es extremadamente impactante para los que creen en la "Verdad" (B).

  • Cuando un seguidor de la Verdad escucha la Noticia Falsa, se horroriza, cambia de opinión y empieza a gritar la Verdad con más fuerza para contrarrestarla.
  • El resultado: La Noticia Falsa, al ser "mala" o impactante, termina alimentando a la Verdad.

Es como si un villano en una película, al atacar al héroe, le diera la fuerza exacta para levantarse y ganar. La Noticia Falsa y la Corrección pueden vivir juntas en la plaza: la falsa mantiene a la gente alerta, y la alerta mantiene viva a la corrección. Si la falsa desaparece, la corrección también se apaga porque ya no tiene nada contra lo que luchar.

3. El Efecto "Manada" (Sin que nadie lo diga)

El modelo muestra algo muy realista: El que tiene más gente al principio, gana.

No es necesario que la gente sea "conformista" o que le guste seguir a la mayoría por miedo. Simplemente, matemáticamente, si tienes más seguidores, hay más probabilidades de que alguien te escuche y se una a ti.

  • Si empiezas con un 40% de seguidores, podrías perder.
  • Si empiezas con un 60%, probablemente ganarás, incluso si tu mensaje es menos "pegajoso" que el del rival.

Es como una bola de nieve: la que ya es grande rueda más rápido y se hace más grande, mientras que la pequeña se detiene.

4. El Umbral de la "Piedra de Fuego"

Los autores calcularon un punto de no retorno (un umbral).
Imagina que la Verdad (B) quiere eliminar la Noticia Falsa (A).

  • Si la Verdad es tan aburrida que nadie la comparte por sí sola (su "tasa de infección" es baja), nunca podrá eliminar a la Noticia Falsa, por muy fuerte que sea su argumento.
  • Para ganar, la Verdad debe ser lo suficientemente interesante o "pegajosa" como para sobrevivir por su cuenta. Si no, depende de que la Noticia Falsa la mantenga viva, y eso es un ciclo peligroso.

5. ¿Qué pasa si nadie cambia de opinión?

En la vida real, a veces la gente es muy terca y no cambia de opinión fácilmente. El modelo dice que en este caso:

  • Si tienes un poco más de seguidores que tu rival al principio, ganarás.
  • Si tienes menos, perderás.
  • No hay punto medio. Es una batalla de "todo o nada". La pequeña diferencia inicial se amplifica hasta que una idea domina la plaza y la otra desaparece.

En Resumen

Este estudio nos enseña que en la guerra de las noticias falsas:

  1. La corrección necesita ser interesante por sí misma. No basta con ser la "verdad"; tiene que ser un buen rumor para sobrevivir.
  2. El tamaño importa. Si una idea ya es popular, es muy difícil derribarla, incluso si es falsa.
  3. A veces, el enemigo te ayuda. Una noticia falsa muy impactante puede, irónicamente, hacer que la gente comparta la corrección con más fuerza, manteniendo ambas ideas vivas en la sociedad.

Es como un ecosistema: a veces, el depredador y la presa necesitan el uno al otro para existir. Si matas al depredador (la noticia falsa) demasiado rápido sin que la presa (la corrección) sea fuerte por sí misma, el ecosistema colapsa.