Monocular 3D Object Position Estimation with VLMs for Human-Robot Interaction

Deze studie presenteert een gefinetuned Vision-Language Model dat, middels een monocular camera en natuurlijke taal, objectposities in 3D schat met een mediane fout van 13 mm, waardoor de interactie tussen mens en robot aanzienlijk wordt verbeterd.

Ari Wahl, Dorian Gawlinski, David Przewozny, Paul Chojecki, Felix Bießmann, Sebastian Bosse

Gepubliceerd 2026-03-03
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Titel: Hoe we een robotarm een "derde oog" en een "brein" hebben gegeven

Stel je voor dat je een robotarm hebt die op een werkbank staat. Deze arm heeft een camera aan zijn "pols" (zoals een horloge) en kan kijken. Maar tot nu toe was deze robot een beetje als een mens met een bril op, maar zonder hersenen die begrijpen wat hij ziet. Hij zag een beeld, maar wist niet precies waar een object was in de ruimte, of hoe diep het zat.

De auteurs van dit onderzoek hebben een slimme oplossing bedacht om dit probleem op te lossen. Ze hebben de robot een Vision-Language Model (VLM) gegeven. Dat klinkt ingewikkeld, maar je kunt het zien als een super-intelligente assistent die twee dingen kan:

  1. Kijken en begrijpen: Hij kent de wereld (net als jij en ik) en kan objecten herkennen.
  2. Talen spreken: Je kunt tegen hem praten (of tekst typen) en hij begrijpt wat je bedoelt.

Het probleem: De "2D-val" en de "diepte-gordel"
Normaal gesproken kijken deze slimme assistenten alleen naar een platte foto (2D). Ze kunnen zeggen: "Daar is een blikje cola." Maar voor een robot is dat niet genoeg. De robot moet weten: "Hoe ver staat dat blikje van mij vandaan? Hoe hoog is het?" Dat is de 3D-positie.

Het is alsof je iemand vraagt om een bal te vangen, maar je geeft hem alleen een platte tekening van de bal. Hij weet niet of de bal dichtbij of ver weg is. De meeste slimme modellen in de wereld van robots zijn nog niet goed in het schatten van die diepte (de Z-richting) als ze alleen een gewone camera hebben.

De oplossing: Een slimme "verkeersregelaar"
De onderzoekers hebben een nieuw model getraind dat als een slimme verkeersregelaar werkt.

  • Als je de robot vraagt: "Wat zie ik hier?", stuurt de regelaar de vraag naar het originele brein van de assistent. Die weet alles over de wereld en kan antwoorden zoals "Dat is een ijsje".
  • Maar als je vraagt: "Waar zit dat ijsje precies in de ruimte?", stuurt de regelaar de vraag naar een speciale module. Die module is speciaal getraind om diepte te schatten.

Dit is heel slim omdat ze het originele brein niet hebben "kapotgemaakt" of vervangen. Ze hebben er gewoon een extra "diepte-bril" opgezet. Ze noemen dit conditional routing (voorwaardelijke routekeuze).

De training: Duizenden foto's van een robotarm
Om dit te leren, moesten ze de robotarm duizenden uren laten kijken. Ze hebben een dataset gemaakt met meer dan 100.000 foto's.

  • De robotarm bewoog langzaam naar verschillende objecten toe (van een glazen pot tot een vreemd gevormd speelgoed).
  • De camera keek erop, en het systeem leerde: "Ah, als ik dit zie en ik ben op deze hoogte, dan is het object op deze afstand."
  • Ze gebruikten een slimme techniek (QLoRA) om dit te leren zonder dat de computer te zwaar werd. Het is alsof je een student niet alles opnieuw laat leren, maar alleen een paar specifieke hoofdstukken laat oefenen.

De resultaten: Hoe goed werkt het?
Het resultaat is verrassend goed voor zo'n moeilijke taak:

  • De gemiddelde fout is ongeveer 1,3 centimeter. Dat is ongeveer de dikte van een duim.
  • In 25% van de gevallen is de fout zo klein (minder dan 1 cm), dat de robot het object veilig kan grijpen of duwen zonder dat hij het laat vallen of er naast grijpt.

Waar gaat het soms mis?
Natuurlijk is de robot niet perfect. De onderzoekers keken naar de fouten en ontdekken interessante patronen:

  • Vlakke of vreemde vormen: Als een object heel hoog en smal is (zoals een lijmstift of een frisdrankfles), is het lastig voor de camera om de top te zien.
  • Vreemde ontwerpen: Als een object er heel anders uitziet dan wat de robot "kent" (bijvoorbeeld een ijsvormpje met een rare vorm), raakt hij in de war.
  • Diepte is lastig: Het schatten van de hoogte (de Z-richting) is het moeilijkst. Het is alsof je probeert de afstand te schatten van een object in een zwart-wit foto zonder schaduwen.

Conclusie: De toekomst
Dit onderzoek laat zien dat we robots niet alleen hoeven te programmeren met strakke regels, maar dat we ze intuïtief kunnen maken met behulp van taal en visie. De robot kan nu niet alleen "zien", maar ook "begrijpen" waar dingen zijn in de 3D-wereld.

In de toekomst willen ze dit nog beter maken door de robot in meer verschillende omgevingen te laten oefenen en door hem nog meer "lichaamsgevoel" (zoals hoe zijn eigen arm beweegt) te laten gebruiken. Het is een grote stap richting robots die echt veilig en natuurlijk met mensen kunnen samenwerken in onze huizen en fabrieken.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →