How Predicted Links Influence Network Evolution: Disentangling Choice and Algorithmic Feedback in Dynamic Graphs

Diese Arbeit stellt ein auf multivariaten Hawkes-Prozessen basierendes zeitliches Rahmenwerk vor, das intrinsische Interaktionstendenzen von algorithmischen Verstärkungseffekten in sich entwickelnden Netzwerken trennt und eine neue Momentan-Bias-Metrik zur zuverlässigen Erfassung von Rückkopplungseffekten durch Link-Vorhersagealgorithmen einführt.

Mathilde Perez, Raphaël Romero, Jefrey Lijffijt, Charlotte Laclau

Veröffentlicht 2026-03-05
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

🕸️ Das große Netzwerk-Experiment: Warum wir uns nur mit Ähnlichen anfreunden

Stell dir vor, du bist auf einer riesigen Party (das ist unser soziales Netzwerk). Normalerweise neigen Menschen dazu, sich mit Leuten zu unterhalten, die ihnen ähnlich sind – gleiche Musikgeschmack, gleiche Herkunft, gleiche Meinungen. Das nennt man im Fachchinesisch „Homophilie" (Liebe zum Gleichen).

Aber hier kommt der Haken: Algorithmen (die Computerprogramme, die uns Freunde vorschlagen) mischen sich ein. Sie sagen: „Hey, du magst Jazz? Hier sind noch 100 andere Jazz-Fans!"

Die Forscher Mathilde Perez und ihr Team haben sich gefragt: Wer ist eigentlich schuld daran, dass wir uns nur mit Ähnlichen umgeben?

  1. Sind wir es selbst, weil wir es wirklich so mögen? (Das nennen sie Wahl-Homophilie).
  2. Oder sind es die Algorithmen, die uns nur diese Leute zeigen, weil sie denken, wir würden es mögen? (Das nennen sie induzierte Homophilie).

Das Problem bisher war: Man konnte das kaum unterscheiden. Es sah alles so aus, als würden wir uns nur mit Ähnlichen anfreunden. Aber war das wirklich so, oder hat der Algorithmus uns in eine Blase gedrückt?

🕰️ Die neue Uhr: Nicht nur zählen, sondern spüren

Bisher haben Forscher wie Fotografen gearbeitet: Sie haben ein Foto der Party gemacht (ein statischer Moment) und gezählt, wie viele Leute in Gruppen stehen. Das Problem? Ein Foto zeigt nicht, was gerade passiert. Es zeigt nur die Vergangenheit.

Die Forscher haben eine neue Art von Uhr entwickelt (basierend auf sogenannten Hawkes-Prozessen). Stell dir das wie einen Herzschlag-Monitor für das Netzwerk vor.

  • Die alte Methode (Der Zähler): „Insgesamt haben wir heute 100 Gespräche geführt, davon 90 mit Leuten aus der eigenen Gruppe." Das zählt alles zusammen und ist träge.
  • Die neue Methode (Der Herzschlag): „Genau in dieser Sekunde ist die Wahrscheinlichkeit hoch, dass jemand mit einem Fremden spricht, oder?"

Diese neue Methode misst den momentanen Puls des Netzwerks. Sie kann sofort erkennen, wenn sich etwas ändert. Wenn der Algorithmus plötzlich beginnt, mehr fremde Gruppen vorzuschlagen, schlägt die Uhr sofort anders. Der alte Zähler braucht Wochen, bis er merkt, dass sich etwas geändert hat.

🎭 Ein Theaterstück mit zwei Akten

Um das zu beweisen, haben die Forscher ein Theaterstück inszeniert:

  1. Der erste Akt (Die Natur): Die Schauspieler (die Nutzer) interagieren frei. Manche Gruppen reden viel untereinander, andere wenig. Das ist die „natürliche" Vorliebe.
  2. Der zweite Akt (Der Regisseur): Jetzt kommt der Algorithmus ins Spiel. Er schreit: „Achtung! Alle sollen jetzt mit Leuten aus der anderen Gruppe reden!" oder „Nein, redet nur mit eurer eigenen Gruppe!"

Das Ergebnis war überraschend:

  • Wenn der Algorithmus die Leute in ihre eigenen Gruppen drängt (wie bei normalen Empfehlungssystemen), wird die Trennung extrem stark. Die „Herzschlag-Uhr" zeigt sofort an: „Achtung, hier wird gerade Bias (Voreingenommenheit) verstärkt!"
  • Wenn sie einen fairen Algorithmus nutzen, der bewusst fremde Gruppen vorstellt, beruhigt sich die Trennung.
  • Aber: Selbst wenn der Algorithmus fair ist, braucht es Zeit, bis sich das Netzwerk beruhigt. Die alten Gewohnheiten (die „Wahl-Homophilie") hängen noch lange nach.

🌍 Was passiert in der echten Welt? (Der Fall Deutschland)

Die Forscher haben ihre neue Uhr auch auf echte Daten aus Twitter/X während der deutschen Bundestagswahl 2021 angewandt.

Sie sahen einen riesigen Ausschlag der Uhr kurz vor der Wahl. Das Netzwerk wurde extrem polarisiert. Die Leute redeten fast nur noch mit Leuten, die ihre Meinung teilten. Die Uhr zeigte: „Hier wird gerade massiv verstärkt!"

Interessant war: Selbst wenn die Wahl vorbei war, blieb die Spannung hoch. Das zeigt, dass einmal eingeschleuste Vorurteile durch Algorithmen schwer wieder zu löschen sind.

💡 Die große Lektion für uns alle

Diese Studie sagt uns etwas Wichtiges über die Zukunft:

  1. Algorithmen sind keine neutralen Spiegel. Sie sind wie Regisseure, die das Stück neu schreiben. Wenn wir sie nicht genau beobachten, verstärken sie unsere Vorurteile, ohne dass wir es merken.
  2. Ein Foto reicht nicht. Um zu wissen, ob ein System fair ist, reicht es nicht, auf einen statischen Zustand zu schauen. Man muss den Prozess beobachten. Wie verändert sich das Netzwerk jetzt gerade?
  3. Fairness braucht Geduld. Wenn man einen Algorithmus ändert, um fairer zu sein, passiert nicht über Nacht Wunder. Es dauert, bis sich das Netzwerk umgewöhnt hat. Man muss also genau hinschauen, wie sich die Dynamik verändert, nicht nur, wie das Endergebnis aussieht.

Zusammengefasst:
Die Forscher haben eine neue Art von „Thermometer" entwickelt, das sofort anzeigt, ob ein Algorithmus gerade dabei ist, die Gesellschaft zu spalten oder zu verbinden. Und die Nachricht ist: Ohne dieses Thermometer sehen wir nur die Symptome, aber nicht die Krankheit.