Responsibility and Engagement -- Evaluating Interactions in Social Robot Navigation

Diese Arbeit erweitert den bestehenden Verantwortlichkeits-Metriken-Rahmen für die soziale Roboternavigation durch die Einführung einer Zeitnormalisierung für die Konfliktentstehung und eines neuen Engagement-Metriks zur Erfassung der Konfliktintensivierung, um in simulierten Szenarien die Qualität und Voraussicht kooperativer Konfliktlösungen bewerten zu können.

Malte Probst, Raphael Wenzel, Monica Dasi

Veröffentlicht 2026-03-06
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Stell dir vor, du läufst durch einen belebten Park. Plötzlich siehst du jemanden auf dich zukommen. Ihr müsst euch ausweichen, um nicht zusammenzustoßen. Wer weicht aus? Wer bleibt stehen? Wer macht einen großen Bogen? Und wer ist eigentlich „schuld" daran, dass die Situation kurzzeitig unangenehm war?

Genau diese Fragen untersucht die vorliegende Forschungsarbeit über Soziale Roboternavigation. Die Forscher wollen nicht nur wissen, ob ein Roboter sicher ankommt, sondern wie er sich im Umgang mit Menschen verhält. Haben sie sich kooperativ verhalten oder hat einer den anderen gezwungen, auszuweichen?

Hier ist die Erklärung der Arbeit in einfachen Worten, mit ein paar anschaulichen Vergleichen:

1. Das Problem: Die „Schuld"-Frage

Bisher haben Roboter-Entwickler oft nur gemessen: „Ist der Abstand groß genug?" oder „Wie schnell war der Roboter?". Das ist wie bei einem Autounfall nur zu schauen, ob die Autos beschädigt sind, aber nicht zu fragen, wer gebremst hat und wer nicht.

Die Forscher sagen: Das reicht nicht. Wir brauchen eine Art „Schulden-Messgerät", das genau berechnet, wer wie viel zur Lösung (oder Verschlimmerung) eines Konflikts beigetragen hat.

2. Die zwei neuen Werkzeuge: Verantwortung und Engagement

Die Autoren stellen zwei neue Messgrößen vor, die sie wie zwei Seiten einer Medaille betrachten:

A. Verantwortung (Responsibility) – „Wer hat den Knoten gelöst?"

Stell dir vor, zwei Menschen laufen aufeinander zu und stehen kurz vor dem Zusammenprall.

  • Szenario 1: Beide laufen weiter, bis sie sich fast berühren, dann weicht einer aus. Wer hat die Verantwortung? Der, der ausgewichen ist.
  • Szenario 2: Beide weichen gleichzeitig ein bisschen zur Seite aus. Dann teilen sie sich die Verantwortung.
  • Szenario 3: Beide laufen weiter und prallen zusammen. Niemand hat Verantwortung übernommen – die „Zeit" (oder das Schicksal) hat den Konflikt „gelöst" (indem es zum Crash kam).

Die neue Verantwortungs-Metrik berechnet also genau: Wie viel Prozent der Lösung des Konflikts hat jeder Akteur durch sein Handeln beigetragen? Ein guter, vorausschauender Roboter sollte hier einen hohen Wert haben, weil er aktiv hilft, den Konflikt zu vermeiden.

B. Engagement (Engagement) – „Wer hat Öl ins Feuer gegossen?"

Das ist das Gegenstück zur Verantwortung. Hier wird gemessen: Hat jemand die Situation verschlimmert?

  • Stell dir vor, du läufst auf jemanden zu. Statt auszuweichen, machst du einen Schritt auf die andere Person zu, um ihr zu zeigen, dass du nicht nachgeben willst. Das ist negatives „Engagement".
  • Oder: Ein Roboter weicht aus, dreht sich aber dann plötzlich wieder um und läuft direkt auf die Person zu. Das erhöht den Konflikt.

Die Engagement-Metrik fängt genau solche Momente ein, in denen ein Akteur die Situation unnötig anheizt.

3. Der Trick mit der Zeit (Der „Aufbau"-Faktor)

Ein wichtiger Teil der Arbeit ist die Erkenntnis, dass ein Konflikt nicht sofort da ist.
Stell dir vor, zwei Personen sind 100 Meter voneinander entfernt. Theoretisch könnten sie kollidieren, aber in 100 Metern Entfernung ist das noch kein akuter Konflikt. Man reagiert erst, wenn man näher kommt.

Die Forscher haben eine Art „Zeit-Filter" eingebaut. Sie sagen: „Wir messen den Konflikt erst, wenn es wirklich eng wird." Das verhindert, dass der Roboter schon für etwas „bestraft" wird, das in weiter Ferne noch gar nicht relevant war.

4. Was haben sie getestet? (Die Experimente)

Die Forscher haben ihre neuen Messgeräte in verschiedenen Simulationen getestet, wie in einem riesigen digitalen Spiel:

  • Das Duett (Zwei Personen):

    • Gegenüber: Wenn sich zwei Personen frontal nähern, misst das System genau, wer ausweicht.
    • Überholen: Wenn ein schneller Roboter einen langsamen Menschen überholt, zeigt das System: Der langsame Mensch hat keine Verantwortung (er kann den Roboter hinten nicht sehen), aber der Roboter hat die volle Verantwortung, sicher zu überholen.
    • Kreuzung: Wer weicht aus, wenn sich Wege kreuzen? Das System belohnt das Ausweichen.
  • Die Gruppe (Drei Personen):

    • Hier wird es knifflig. Ein Roboter muss durch eine Gruppe von zwei Personen gehen.
    • Strategie A: Der Roboter geht links an beiden vorbei. (Gut!)
    • Strategie B: Der Roboter versucht, genau zwischen die beiden zu passen und sie zu trennen. (Schlecht!)
    • Ergebnis: Das System zeigt, dass die Strategie „zwischen den Leuten durch" eine hohe Engagement-Bewertung hat (weil sie die Gruppe stört) und eine niedrige Verantwortungs-Bewertung (weil die Menschen sich aktiv ausweichen müssen). Die beste Strategie (links vorbei) hat die höchste Verantwortung und kein negatives Engagement.
  • Die Menschenmenge (Crowd):

    • In einem vollen Raum mit 20 Menschen wurde getestet, wie verschiedene Roboter-Programme funktionieren.
    • Ein „blinder" Roboter (der nichts sieht) lässt die Menschen alles für ihn tun.
    • Ein „kurzsichtiger" Roboter (der nur bei Gefahr bremst) ist besser, aber immer noch nicht ideal.
    • Ein „vorausschauender" Roboter (der wie ein Mensch denkt) übernimmt die meiste Verantwortung und sorgt für den flüssigsten Ablauf.
  • Der „Fang"-Spiel-Versuch:

    • Ein Roboter wird gejagt. Hier zeigt sich, dass das System auch erkennt, wenn jemand (die Jägerin) aktiv versucht, den Konflikt zu verschärfen, indem sie dem Roboter hinterherläuft.

5. Was bedeutet das für uns?

Diese Metriken sind wie ein Richter für Roboter-Verhalten.

  • Bessere Roboter: Entwickler können ihre Algorithmen so programmieren, dass sie nicht nur „nicht anstoßen", sondern „sozial korrekt" handeln. Sie können sehen, ob ihr Roboter zu dominant ist oder zu passiv.
  • Menschliches Maßstab: Die Forscher hoffen, dass sie in Zukunft mit echten Daten von Menschen vergleichen können, wie viel „Verantwortung" wir von einem Roboter erwarten. Ist es okay, wenn ein Roboter 40 % zur Lösung beiträgt oder müssen es 80 % sein?
  • Persönlicher Raum: Die Metriken können sogar so eingestellt werden, dass sie nicht nur Kollisionen, sondern auch das Verletzen des persönlichen Raums (z. B. zu dichtes Vorbeigehen) messen.

Fazit

Die Arbeit sagt uns: Ein guter Roboter im öffentlichen Raum ist nicht nur einer, der sicher ankommt. Ein guter Roboter ist einer, der fair ist. Er übernimmt die Verantwortung, Konflikte zu lösen, ohne sie unnötig zu verschärfen. Die neuen Werkzeuge helfen uns, genau das zu messen und Roboter zu bauen, mit denen wir uns in der Menge wohlfühlen.