Responsibility and Engagement -- Evaluating Interactions in Social Robot Navigation

Dit artikel introduceert en valideert de 'Verantwoordelijkheid' en 'Betrokkenheid' metrics om de kwaliteit en vooruitziendheid van de conflictresolutie in sociale robotnavigatie te evalueren door de bijdragen van agenten tijdens zowel de escalatie- als de oplossingsfase te kwantificeren.

Malte Probst, Raphael Wenzel, Monica Dasi

Gepubliceerd 2026-03-06
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je door een drukke supermarkt loopt. Je ziet een winkelwagen die recht op je af komt. Wat doe je? Je stapt misschien opzij, of je wacht even. In de wereld van sociale robotnavigatie (SRN) is dit precies hetzelfde, maar dan met robots die proberen mensen niet aan te raken.

Het probleem is: hoe weten we of een robot zich goed of slecht gedraagt? Bestaande meetlatjes kijken vaak alleen naar de uitkomst: "Hebben ze elkaar geraakt of niet?" Maar dat vertelt ons niet wie er eigenlijk de schuld is van de chaos of wie er het meest heeft geholpen om het op te lossen.

De auteurs van dit paper, Malte Probst en zijn collega's, hebben twee nieuwe meetinstrumenten bedacht om dit gedrag te meten. Ze noemen ze Verantwoordelijkheid (Responsibility) en Betrokkenheid (Engagement).

Hier is een uitleg in simpele taal, met behulp van een paar creatieve vergelijkingen.

1. Het Probleem: De "Wie is de schuldige?"-Vraag

Stel je voor dat twee mensen op een smalle brug naar elkaar toe lopen. Ze botsen bijna.

  • De oude manier van meten: "Ze hebben elkaar net niet geraakt. Geweldig!" (Maar wie heeft er eigenlijk uitgeweken? De robot of de mens?)
  • De nieuwe manier: De auteurs willen weten: "Wie heeft de druk opgevoerd en wie heeft de druk verlaagd?"

2. De Twee Nieuwe Meetinstrumenten

A. Verantwoordelijkheid (Responsibility) – De "Redder"

Dit meetinstrument kijkt naar wie er actie heeft ondernomen om een botsing te voorkomen.

  • De Analogie: Denk aan een danspartij. Als twee dansers op elkaar afkomen en er dreigt een botsing, is de persoon die een stapje opzij zet of zijn tempo vermindert, de "redder". Hij neemt de Verantwoordelijkheid voor het oplossen van het probleem.
  • In de praktijk: Als een robot ziet dat hij bijna op een mens botst en zachtjes remt, krijgt de robot een hoge score voor Verantwoordelijkheid. Als de robot niets doet en de mens moet uitwijken, krijgt de mens de score (en de robot een lage score, wat betekent dat hij niet sociaal genoeg was).
  • Nieuwe toevoeging: In dit paper kijken ze ook naar het moment voordat de botsing dreigt. Soms bouwen mensen of robots onzorgvuldig een situatie op (bijvoorbeeld door te snel te lopen). De nieuwe methode meet ook die opbouw.

B. Betrokkenheid (Engagement) – De "Probleemvererger"

Dit meetinstrument kijkt naar wie er de situatie erger maakt.

  • De Analogie: Stel je voor dat je in een drukke ruimte loopt en iemand loopt plotseling sneller of draait zich scherp naar jou toe, waardoor je moet uitwijken. Die persoon heeft de spanning verhoogd. Hij heeft Betrokkenheid (in de zin van: hij heeft de situatie "aangescherpt").
  • In de praktijk: Als een robot een mens achtervolgt en plotseling versnelt, of als iemand in een groepje de weg blokkeert, stijgt hun "Betrokkenheid"-score. Het is niet altijd kwaadaardig; soms gebeurt het omdat iemand een gesprek wil beginnen of een doel wil bereiken, maar het maakt de situatie voor de ander moeilijker.

3. Hoe hebben ze dit getest? (De Experimenten)

De auteurs hebben een virtuele wereld gecreëerd met robots en mensen (die ze Alice en Bob noemen) om hun meetinstrumenten te testen.

  • Scenario 1: De Kruising. Twee lopen op elkaar af.
    • Als beide stilstaan en botsen: Niemand heeft verantwoordelijkheid, de "tijd" lost het op (door een crash).
    • Als de robot uitwijkt: De robot krijgt 100% verantwoordelijkheid.
    • Als beiden uitwijken: Ze delen de verantwoordelijkheid (bijv. 50/50).
  • Scenario 2: De Groep. Een robot moet door een groepje van twee mensen lopen.
    • Als de robot dwars door het groepje loopt (ze uit elkaar duwt), krijgt hij een lage verantwoordelijkheidsscore en een hoge "Betrokkenheid" (want hij maakt het de mensen lastig).
    • Als de robot netjes om de groep heen loopt, is de score veel beter.
  • Scenario 3: De Drukte. Een robot in een volle zaal.
    • Een "slimme" robot (die vooruitkijkt) krijgt een hogere verantwoordelijkheidsscore dan een "domme" robot (die pas remt als hij bijna botst). De slimme robot lost problemen op voordat ze ontstaan.

4. Waarom is dit belangrijk?

Vroeger keken we alleen naar het resultaat: "Is er een ongeluk gebeurd?"
Nu kunnen we kijken naar het proces:

  1. Is de robot voorspelbaar? (Hoeveel verantwoordelijkheid neemt hij?)
  2. Is de robot onnodig agressief? (Hoeveel Betrokkenheid heeft hij?)

Dit helpt ontwikkelaars om robots te maken die niet alleen veilig zijn, maar ook sociaal acceptabel. Een robot die altijd uitwijkt en nooit de druk opvoert, voelt voor mensen als een aardige, voorspelbare gesprekspartner.

Samenvatting in één zin

Dit paper introduceert twee nieuwe regels om te meten wie er in een drukke situatie de "goede" dansstap zet (Verantwoordelijkheid) en wie er per ongeluk de muziek te hard zet (Betrokkenheid), zodat robots kunnen leren hoe ze zich het meest menselijk en beleefd gedragen.