Towards Explainable Deep Learning for Ship Trajectory Prediction in Inland Waterways

Diese Studie stellt einen erklärungsstarken LSTM-basierten Ansatz zur Vorhersage von Schiffsbahnen auf Binnengewässern vor, der zwar eine hohe Genauigkeit erreicht, jedoch zeigt, dass die durch das gelernte Schiffsdomänenmodell gewichteten Interaktionen nicht vollständig kausal mit den tatsächlichen Begegnungssituationen übereinstimmen.

Tom Legel, Dirk Söffker, Roland Schätzle, Kathrin Donandt

Veröffentlicht 2026-03-06
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Schiffe auf dem Fluss: Wie KI vorhersagt, wo sie als Nächstes hinfahren – und warum wir ihr nicht blind vertrauen sollten

Stellen Sie sich den Rhein vor. Er ist nicht nur ein Fluss, sondern eine belebte Autobahn für riesige Frachtschiffe. In diesem Gewimmel ist es überlebenswichtig zu wissen: Wo wird das Schiff in fünf Minuten sein? Wenn die KI (Künstliche Intelligenz) hier einen Fehler macht, könnte es zu einer Kollision kommen.

Dieser wissenschaftliche Artikel beschäftigt sich genau damit: Wie bauen wir eine KI, die die Bewegungen von Schiffen auf Binnenwasserstraßen so gut vorhersagt, dass wir ihr auch wirklich glauben können?

Hier ist die Geschichte der Forschung, einfach erklärt:

1. Das Problem: Der „Blindflug" der KI

In den letzten Jahren haben KI-Modelle (genauer gesagt: sogenannte LSTMs, eine Art Gedächtnis-Netzwerk) gelernt, Schiffspfade extrem gut vorherzusagen. Sie sind wie ein sehr talentierter Wetterprognostiker für Wasserstraßen.

Aber es gibt ein Problem: Diese Modelle sind oft „Black Boxes". Sie geben ein Ergebnis aus, aber wir wissen nicht warum.

  • Die Gefahr: Stellen Sie sich vor, ein Navigationssystem sagt: „Das Schiff wird nach links abbiegen." Es sagt das richtig, aber nur aus Zufall oder weil es einen falschen Zusammenhang gelernt hat (z. B. „Wenn die Sonne scheint, biegen Schiffe links ab"). Das ist gefährlich. Wir brauchen eine KI, die nicht nur richtig liegt, sondern auch vernünftig denkt. Das nennt man Erklärbarkeit (Explainability).

2. Die Lösung: Der unsichtbare „Schutzraum"

Die Forscher haben ein Modell entwickelt, das auf dem Konzept des „Schiffsdomäne" basiert.

  • Die Analogie: Stellen Sie sich jedes Schiff nicht als bloßen Punkt auf der Karte vor, sondern als einen unsichtbaren, flexiblen Schutzballon um sich herum.
  • Wenn ein anderes Schiff in diesen Ballon eindringt, muss das erste Schiff reagieren (ausweichen, langsamer werden).
  • Die KI lernt nun nicht nur die Positionen, sondern auch die Größe und Form dieses Ballons für verschiedene Situationen.

Das Besondere an dieser Studie ist, dass sie diesen „Ballon" nicht starr vorgeben, sondern die KI ihn selbst lernen lässt. Die KI entscheidet also: „In dieser Situation muss ich den Ballon groß machen, weil das andere Schiff gefährlich nahe kommt. In jener Situation ist der Ballon klein, weil das andere Schiff weit weg ist."

3. Der Experimentier-Labor: Drei verschiedene Modelle

Die Forscher haben drei Versionen dieses KI-Systems getestet, um herauszufinden, wie es wirklich funktioniert:

  • Modell A (Der Alleskönner): Die KI schaut sich alle Schiffe an und versucht, alles auf einmal zu verstehen. Sie ist sehr genau.
  • Modell B (Der Einzelkämpfer): Die KI ignoriert die Interaktion mit anderen Schiffen komplett. Sie schaut nur auf das eigene Schiff.
  • Modell C (Der getrennte Denker): Hier haben die Forscher etwas Cleveres gemacht. Sie haben die KI in zwei Köpfe gespalten:
    1. Ein Kopf schaut nur auf das eigene Schiff (blind für andere).
    2. Der andere Kopf schaut nur auf die anderen Schiffe und deren Einfluss.
      Erst am Ende werden die Ergebnisse kombiniert.

4. Das überraschende Ergebnis: „Gute Ergebnisse ≠ Gutes Verständnis"

Das ist der wichtigste Teil der Geschichte:

Die Forscher haben erwartet, dass das Modell, das die Interaktion (die „Schutzballons") am besten nutzt, auch die genauesten Vorhersagen macht. Und tatsächlich: Die Modelle mit Interaktions-Blick waren sehr genau (ein Fehler von nur ca. 40 Metern nach 5 Minuten – das ist für Schiffe auf dem Fluss ziemlich gut!).

ABER: Als sie sich die „Schutzballons" genauer ansahen, stellten sie etwas Beunruhigendes fest:

  • Die Modelle, die die Interaktion nutzen sollten, haben die „Schutzballons" für viele Situationen gar nicht vergrößert. Sie haben andere Schiffe oft ignoriert, obwohl sie nah waren.
  • Die Metapher: Es ist, als würde ein Autofahrer sagen: „Ich habe den anderen Wagen gesehen und bin ausweichen, weil ich ihn gesehen habe." Aber beim genauen Hinsehen stellt man fest: Der Fahrer hat gar nicht auf den anderen Wagen geachtet, sondern einfach nur zufällig geradeaus gefahren, weil die Straße gerade war.

Das Fazit: Die KI hat zwar die richtige Vorhersage getroffen, aber nicht aus dem richtigen Grund. Sie hat die Interaktion zwischen den Schiffen nicht wirklich „verstanden", sondern hat sich vielleicht auf andere, zufällige Muster verlassen.

5. Warum ist das wichtig?

Wenn wir autonome Schiffe auf dem Rhein haben wollen, reicht es nicht, dass die KI „richtig liegt". Wir müssen ihr vertrauen können.

  • Wenn die KI sagt: „Ich weiche aus, weil Schiff B zu nahe kommt", dann muss das auch so sein.
  • Wenn die KI aber sagt: „Ich weiche aus", aber eigentlich nur zufällig in die richtige Richtung fährt, weil sie Schiff B gar nicht beachtet hat, dann ist das ein Sicherheitsrisiko.

Zusammenfassung für den Alltag

Stellen Sie sich vor, Sie trainieren einen Hund, der auf der Straße laufen soll.

  • Die alte KI: Der Hund läuft perfekt geradeaus. Sie wissen nicht, ob er auf den Verkehr achtet oder einfach nur dem Geruch von Wurst folgt.
  • Die neue KI (diese Studie): Die Forscher haben dem Hund eine Brille aufgesetzt, die ihm zeigt, wo andere Hunde sind. Sie haben gesehen, dass der Hund zwar perfekt läuft, aber die Brille eigentlich gar nicht benutzt. Er läuft immer noch nur dem Wurstgeruch hinterher.

Die Lehre: Nur weil eine KI gute Ergebnisse liefert, heißt das nicht, dass sie die Welt so versteht, wie wir es hoffen. Diese Studie zeigt, wie man KI-Modelle so baut, dass man nicht nur das Ergebnis, sondern auch den Gedankenprozess der KI überprüfen kann. Das ist der erste Schritt zu wirklich sicheren, autonomen Schiffen auf unseren Flüssen.