Towards Human-Like Manipulation through RL-Augmented Teleoperation and Mixture-of-Dexterous-Experts VLA

Deze paper introduceert een geïntegreerd framework dat RL-getrainde teleoperatiehulp (IMCopilot) en een Mixture-of-Dexterous-Experts VLA-architectuur (MoDE-VLA) combineert om mensachtige, contactrijke bimanuele manipulatie mogelijk te maken door kracht- en tactiele sensoren naadloos te integreren.

Tutian Tang, Xingyu Ji, Wanli Xing, Ce Hao, Wenqiang Xu, Lin Shao, Cewu Lu, Qiaojun Yu, Jiangmiao Pang, Kaifeng Zhang

Gepubliceerd 2026-03-10
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een robot wilt leren om een appel te schillen. Dat klinkt simpel, maar voor een robot is het net zo moeilijk als voor een mens om te leren fietsen terwijl je tegelijkertijd een evenwichtsoefening doet op een slingerende boot. Robots zijn geweldig in het oppakken en neerzetten van dingen (zoals een blikje), maar ze worstelen met het bewegen van dingen in hun hand, zoals het draaien van een appel terwijl je schilt.

Deze paper beschrijft een slimme oplossing om robots menselijker en handiger te maken. Ze gebruiken een combinatie van drie magische ingrediënten. Laten we het uitleggen alsof we een superkrachtig team bouwen:

1. De "IMCopilot": De Slimme Handhulp

Stel je voor dat je een robot bestuurt via een exoskelet (een soort robotpak). Normaal gesproken moet je met je eigen handen elke kleine beweging van de robot-fingers regelen. Dat is als proberen een viool te bespelen terwijl je blind bent; het is bijna onmogelijk om de juiste druk en draaiing te voelen.

De auteurs hebben een IMCopilot (In-hand Manipulation Copilot) bedacht. Dit is een kleine, slimme robot in de robot's hoofd die gespecialiseerd is in één ding: dingen in de hand draaien.

  • Tijdens het leren: Als de menselijke operator een appel moet draaien, hoeft hij/zij niet zelf die moeilijke draaiing te regelen. Ze drukken op een pedaal (zoals een versnelling in een auto) en de IMCopilot doet het perfecte draaiwerk. De mens regelt alleen de grote bewegingen (zoals de arm naar de appel brengen).
  • Tijdens het werken: Later, als de robot alleen werkt, kan de hoofdbestuurder (de AI) zeggen: "Draai de appel nu!" en de IMCopilot voert die taak direct en perfect uit. Het is alsof je een ervaren sous-chef hebt die de moeilijke snijtechnieken doet, terwijl jij het menu bepaalt.

2. De "MoDE-VLA": De Meesterkok met Gevoel

De meeste robot-hersenen (AI-modellen) zijn getraind op simpele taken en zien alleen wat er gebeurt. Ze hebben geen gevoel voor kracht of aanraking. Als je ze een taak geeft waarbij je moet voelen of iets vastzit, raken ze in de war.

De auteurs hebben een nieuw brein gebouwd genaamd MoDE-VLA.

  • Het probleem: Als je een robot een appel laat schillen, moet hij voelen: "Is het mes te diep?" of "Glijdt de appel?" Normale AI's zien dit niet.
  • De oplossing: Ze hebben een speciaal kanaal toegevoegd voor kracht en aanraking. Stel je voor dat de robot een nieuwe zintuiglijke zenuw heeft gekregen.
  • De "Mix van Experts": In plaats van één grote hersenstam die alles probeert te doen, hebben ze een "team van experts" gemaakt.
    • Als de robot een schroef in een gat moet draaien, schakelt hij de "Kracht-expert" in.
    • Als hij moet voelen of een voorwerp vastzit, schakelt hij de "Aanraking-expert" in.
    • Ze werken samen, maar zonder elkaar te verwarren. Het is alsof je een orkest hebt waar de violist (kracht) en de fluitist (aanraking) perfect op elkaar inspelen, zonder dat de dirigent (de basis-AI) in de war raakt.

3. De "Teleoperatie met Feedback": De VR-bril met Trillingen

Om deze robot te leren, hebben ze mensen nodig om het te doen. Maar hoe leer je iemand een robot te besturen die 63 gewrichten heeft?

  • Ze gebruiken een VR-bril en een exoskelet.
  • Het slimme stukje: De robot geeft terugkoppeling. Als de robot tegen een object duwt, voelt de mens in zijn VR-bril een trilling of ziet hij een visuele hint.
  • Dit is alsof je een video-game speelt, maar dan met je hele lichaam. Als je tegen een muur duwt, voel je de weerstand. Hierdoor kunnen mensen veel sneller en beter data verzamelen voor de robot om van te leren.

Wat hebben ze bereikt?

Ze hebben dit getest op vier moeilijke taken:

  1. Een appel schillen: De robot houdt de appel vast, draait hem en schilt hem in één lange, ononderbroken ring. Dit was nog nooit eerder autonoom gelukt met twee handen!
  2. Een lader steken: Een stekker precies in een stopcontact duwen.
  3. Tandwielen monteren: Kleine onderdelen in elkaar klikken.
  4. Reageerbuisjes verplaatsen: Voorzichtig glazen buisjes van de ene naar de andere hand overdragen.

Het resultaat?
Zonder hun nieuwe systeem lukte het maar in 15% van de gevallen. Met hun systeem (IMCopilot + MoDE-VLA) lukte het in 34% van de gevallen. Voor de appel-schil-taak was het succes zelfs enorm: de robot slaagde erin om 73% van de appel perfect schoon te maken, terwijl andere robots vaak de appel lieten vallen of niet goed konden draaien.

Kortom:
Ze hebben een robot gemaakt die niet alleen "kijkt" wat hij moet doen, maar ook "voelt" wat hij doet, en die een slimme assistent heeft die de moeilijke vingertoppen-taken overneemt. Hierdoor kunnen robots eindelijk taken doen die lijken op wat wij mensen doen: niet alleen pakken, maar ook manipuleren.