EgoCampus: Egocentric Pedestrian Eye Gaze Model and Dataset

Die Autoren stellen den EgoCampus-Datensatz und das zugehörige Modell EgoCampusNet vor, die erstmals die Vorhersage von Blickrichtungen von Fußgängern in realen, outdoor-Umgebungen auf einem Universitätscampus ermöglichen.

Ronan John, Aditya Kesari, Vincenzo DiMatteo, Kristin Dana

Veröffentlicht 2026-03-06
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stell dir vor, du läufst durch eine belebte Universität. Du siehst Gebäude, andere Leute, Bäume und Schilder. Aber wo genau schaut dein Auge hin? Nicht alles, was du siehst, ist gleich wichtig. Dein Gehirn filtert ständig: „Aha, da ist ein Freund!" oder „Vorsicht, eine Stufe!" oder „Schau mal, dieser Vogel!"

Die Forscher von der Rutgers-Universität haben sich genau das gefragt: Wie wissen wir, wohin Menschen schauen, während sie durch die echte Welt laufen? Und sie haben eine Lösung gefunden, die wie ein neuer „Augen-Scanner" für Roboter funktioniert.

Hier ist die Geschichte ihrer Arbeit, einfach erklärt:

1. Das große Experiment: „EgoCampus"

Stell dir vor, du würdest 82 verschiedene Leute bitten, durch den Campus zu laufen. Jeder trägt eine spezielle Brille (von Meta, genannt Project Aria), die nicht nur ein Video aufnimmt, sondern genau misst, wohin die Augen der Person schauen.

  • Die Brille: Sie ist wie ein kleiner Roboter im Gesicht. Sie filmt die Welt, misst, wie schnell du den Kopf drehst (wie ein Beschleunigungsmesser), und weiß genau, wo du bist (GPS).
  • Die Daten: Die Forscher haben 25 verschiedene Wege aufgenommen. Das sind insgesamt 6 Kilometer Laufstrecke und 32 Stunden Video.
  • Das Besondere: Bisher gab es viele Datensätze für Leute, die in Küchen kochen oder im Labor sitzen. Aber niemand hatte so viele Daten von Leuten, die draußen laufen und sich in einer echten, chaotischen Welt orientieren. Das nennen die Forscher „EgoCampus".

2. Das Problem: Warum ist das schwer?

Wenn du durch die Gegend läufst, ist dein Blick oft auf das Zentrum gerichtet – genau dorthin, wo du hinlaufen willst. Das ist wie ein „Zentrum-Filter".
Frühere Computer-Modelle waren wie Kinder, die immer nur in die Mitte des Bildes schauen, weil sie denken: „Da muss es interessant sein." Aber wenn du an einem Freund vorbeiläuft, schaust du vielleicht kurz zur Seite. Ein alter Computer würde das übersehen.

3. Die Lösung: „EgoCampusNet" (Der neue Blick-Orakel)

Die Forscher haben einen neuen KI-Modell namens EgoCampusNet gebaut. Stell dir das wie einen sehr aufmerksamen Assistenten vor:

  • Er schaut in die Vergangenheit: Der Assistent sieht sich nicht nur das aktuelle Bild an, sondern schaut sich auch die letzten paar Sekunden an (wie ein Video). Er merkt: „Ah, die Person läuft gerade auf eine Kreuzung zu."
  • Er kombiniert Informationen: Er nimmt das Video (wohin wir gehen) und das aktuelle Foto (was wir gerade sehen) und mischt sie wie einen perfekten Cocktail.
  • Das Ergebnis: Er kann vorhersagen, wohin die Person als Nächstes schauen wird. Er weiß, dass wir oft auf Hindernisse, andere Fußgänger oder interessante Gebäude schauen, nicht nur geradeaus.

4. Ein kreativer Vergleich: Der Navigator im Kopf

Stell dir vor, du bist ein Roboter, der lernen soll, wie ein Mensch zu laufen.

  • Ohne diese Daten: Der Roboter läuft wie ein Blindes Huhn. Er stößt gegen Dinge oder ignoriert andere Leute, weil er nicht weiß, worauf Menschen achten.
  • Mit EgoCampus: Der Roboter bekommt eine „Landkarte der Aufmerksamkeit". Er lernt: „Wenn ich diesen Weg gehe, schauen die Menschen meistens auf das rote Schild oder auf die Person, die aus dem Café kommt."
  • Das Ergebnis: Der Roboter wird viel sicherer und natürlicher. Er kann voraussehen, was passiert, bevor es passiert.

5. Was haben sie herausgefunden?

Die Forscher haben getestet, wie gut ihr neuer Assistent ist.

  • Der „Zentrum-Trick": Viele alte Modelle waren zu faul und schauten nur in die Bildmitte. Das funktionierte okay, weil wir oft geradeaus schauen.
  • Der echte Test: Als die Forscher die Modelle auf schwierige Situationen testeten (z. B. wenn jemand abrupt den Kopf dreht, um einen Vogel zu sehen), war ihr neuer Assistent viel besser. Er verstand, dass wir manchmal woanders hinsehen müssen, um uns zu orientieren.

Warum ist das wichtig für die Zukunft?

Diese Arbeit ist wie ein Schlüssel für die Zukunft von Robotern und autonomen Fahrzeugen.
Wenn ein Roboter oder ein selbstfahrendes Auto verstehen kann, wo Menschen hinschauen, kann es viel besser mit ihnen interagieren.

  • Ein Roboter kann erkennen, dass ein Fußgänger auf ein Auto schaut und daher vorsichtig sein muss.
  • Ein autonomes Auto kann besser einschätzen, ob ein Fußgänger die Straße überqueren will, basierend auf seinem Blick.

Zusammenfassend:
Die Forscher haben eine riesige Bibliothek von „Blick-Daten" aus der echten Welt gesammelt und einen neuen KI-Modell gebaut, der lernt, wie Menschen ihre Augen bewegen, wenn sie laufen. Das hilft uns, Roboter zu bauen, die nicht nur sehen, sondern auch verstehen, was wir sehen – und damit sicherer und intelligenter in unserer Welt agieren.