In-Context Learning of Temporal Point Processes with Foundation Inference Models

Die Arbeit stellt das Foundation Inference Model for Point Processes (FIM-PP) vor, ein vortrainiertes neuronales Netz, das mittels In-Context-Learning und amortisierter Inferenz dynamische Regeln aus Ereignissequenzen ableitet und somit spezialisierte Modelle für die Vorhersage zukünftiger Ereignisse bei Markierten Temporalen Punktprozessen ersetzt oder ergänzt.

David Berghaus, Patrick Seifner, Kostadin Cvejoski, César Ojeda, Ramsés J. Sánchez

Veröffentlicht 2026-03-02
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

🌧️ Der Wetterbericht für Ereignisse: Ein neuer „Allzweck-Wetterdienst" für Daten

Stellen Sie sich vor, Sie beobachten verschiedene Arten von Ereignissen: Tweets, die auf Twitter fliegen, Taxis, die durch New York fahren, oder Herzschläge in einem medizinischen Monitor. Diese Ereignisse kommen nicht regelmäßig wie ein Taktstock, sondern unregelmäßig, wie Regentropfen, die auf ein Dach fallen.

In der Mathematik nennt man das Temporale Punktprozesse. Die große Frage für Datenwissenschaftler war bisher immer: „Wie können wir vorhersagen, wann der nächste Tropfen fällt und welche Farbe er hat?"

Das alte Problem: Ein neuer Schuh für jeden Fuß

Bisher musste man für jedes dieser Phänomene ein ganz neues, spezialisiertes Computermodell von Grund auf neu erfinden und trainieren.

  • Will man Taxis vorhersagen? Man braucht ein Taxi-Modell.
  • Will man Tweets vorhersagen? Man braucht ein Tweet-Modell.
  • Will man Herzschläge analysieren? Man braucht ein Herz-Modell.

Das ist wie ein Schuster, der für jeden Kunden einen neuen Schuh nähen muss, bevor er ihn anprobiert. Es dauert lange, kostet viel Geld und das Modell lernt nichts von den anderen Schuhen.

Die neue Lösung: FIM-PP – Der „Schuh-Allrounder"

Die Autoren dieses Papers haben etwas Revolutionäres entwickelt: FIM-PP. Man kann sich das wie einen genialen, universellen Schuhmacher vorstellen, der nicht für jeden Kunden neu anfangen muss.

1. Der riesige Trainings-Labor (Synthetische Daten)
Bevor FIM-PP die echte Welt sieht, hat er in einer riesigen, künstlichen Simulation gelebt. Dort wurden Millionen von zufälligen Ereignis-Sequenzen generiert – von ganz einfachen, gleichmäßigen Tropfen bis hin zu chaotischen, sich gegenseitig anfeuernden Explosionen von Ereignissen.

  • Die Analogie: Stellen Sie sich vor, FIM-PP hat in einem riesigen Simulator Millionen verschiedener Wetterlagen durchgespielt: Stürme, Regen, Schnee, Hitzewellen. Er hat gelernt, wie sich diese Muster verhalten, ohne dass er jemals ein echtes Wetter gesehen hat.

2. Der „Kontext-Lern"-Trick (In-Context Learning)
Das ist der magische Teil. Wenn FIM-PP nun in der echten Welt (z. B. bei Taxis) eingesetzt wird, braucht er keine neuen Trainingsstunden mehr.

  • Wie es funktioniert: Man gibt dem Modell einfach eine Liste von vergangenen Taxi-Fahrten (den „Kontext"). Das Modell schaut sich diese Muster an und sagt sofort: „Aha, diese Taxis fahren ähnlich wie die Muster, die ich in meinem Simulator gelernt habe!"
  • Die Analogie: Es ist, als würde ein erfahrener Detektiv in einen neuen Fall eintreten. Er braucht keine neue Schulung, sondern schaut sich nur die ersten paar Spuren an (den Kontext) und sagt sofort: „Ich kenne dieses Muster! Die Täter verhalten sich genau so wie in den 1000 Fällen, die ich vorher gesehen habe."

3. Was kann das Modell?

  • Null-Shot (Ohne Training): Es kann sofort Vorhersagen treffen, nur basierend auf dem, was es gerade sieht. Es ist überraschend gut darin, sogar bei Dingen, die es nie explizit gelernt hat.
  • Feinabstimmung (Fine-Tuning): Wenn man es doch noch ein bisschen trainiert (nur ein paar Minuten statt Tage), wird es zum Weltmeister in diesem spezifischen Bereich und schlägt alle bisherigen Spezialisten.

Warum ist das so wichtig?

Stellen Sie sich vor, Sie haben eine App, die plötzlich neue Daten bekommt (z. B. neue Social-Media-Trends).

  • Früher: Man musste Wochen warten, bis ein neues Modell trainiert war.
  • Heute mit FIM-PP: Man lädt das Modell, gibt ihm die neuen Daten als „Kontext", und es versteht sofort, worum es geht. Es ist wie ein universeller Übersetzer, der jede neue Sprache sofort versteht, sobald man ihm ein paar Sätze vorspricht.

Zusammenfassung in einem Satz

Die Forscher haben einen KI-„Allrounder" gebaut, der durch das Studium von Millionen simulierten Szenarien gelernt hat, wie Zeit und Ereignisse funktionieren, und der nun sofort jede neue, reale Ereignis-Kette verstehen und vorhersagen kann, ohne dass man ihn jedes Mal neu erfinden muss.

Das Ergebnis: Schnellere Vorhersagen, weniger Rechenaufwand und ein Modell, das sich flexibel an jede neue Situation anpasst – von Social Media bis zur Finanzwelt.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →