Video-Based Reward Modeling for Computer-Use Agents

Dit paper introduceert ExeVRM, een model-agnostisch reward model dat op basis van uitvoervideo's en gebruikersinstructies de succesvolheid van computergebruiksagenten evalueert en hiermee state-of-the-art prestaties behaalt die zelfs proprietary modellen als GPT-5.2 en Gemini-3 Pro overtreffen.

Linxin Song, Jieyu Zhang, Huanxin Sheng, Taiwei Shi, Gupta Rahul, Yang Liu, Ranjay Krishna, Jian Kang, Jieyu Zhao

Gepubliceerd 2026-03-12
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een nieuwe, slimme robot-assistent hebt die voor je computerwerk kan doen. Hij kan e-mails schrijven, bestanden verplaatsen en websites doorzoeken. Maar hoe weet je of hij het werk écht goed heeft gedaan?

Dit is het probleem waar deze wetenschappelijke paper over gaat. De auteurs hebben een slimme oplossing bedacht: een "video-bewerker" die kijkt naar het scherm van de computer en vertelt of de robot zijn taak heeft volbracht.

Hier is de uitleg in simpele taal, met een paar creatieve vergelijkingen:

1. Het Probleem: De "Zwarte Doos" van de Robot

Vroeger keken mensen naar de gedachten van de robot (wat hij in zijn hoofd dacht) of naar de code die hij schreef om te zien of hij goed werkte. Dat is als kijken naar het recept van een kok terwijl hij kookt. Maar wat als de kok het recept verkeerd leest, maar het eten er toch goed uitziet? Of wat als hij het recept perfect volgt, maar het eten verbrandt?

De auteurs zeggen: "Kijk niet naar wat hij denkt, kijk naar wat hij doet."
Ze kijken alleen naar het videobewijs: een reeks screenshots van het computerscherm terwijl de robot werkt. Het maakt niet uit welke robot het is; als je naar het scherm kijkt, zie je of het werk af is.

2. De Uitdaging: Een Film vol Ruis

Het probleem met het kijken naar computerschermen is dat ze vaak saai en vol ruis zijn.

  • De Ruis: Stel je voor dat je een video bekijkt van iemand die een document bewerkt. 90% van de video is saai: het bureaublad, de balk bovenin, de randen van het venster. Die veranderen nooit.
  • De Belangrijke Momenten: Maar de echte actie gebeurt in kleine details: een muis die op een knop klikt, een tekstje dat verschijnt, of een venster dat opent.

Als je een hele lange film bekijkt om één klein moment te vinden, word je moe en vergeet je het belangrijke detail. Computers hebben ook moeite met zo'n lange, saaie video; het kost te veel rekenkracht.

3. De Oplossing: De Slimme "Schermknipper"

De auteurs hebben een nieuwe techniek bedacht die we kunnen vergelijken met een slimme filmredacteur:

  • Ruimtelijke Knippen (STP): De redacteur kijkt naar één frame en zegt: "Die grote, saaie achtergrond en die toolbalk veranderen nooit. Laten we die wegknippen." Zo houdt hij alleen de belangrijke delen over, zoals het tekstveld waar de robot in typt.
  • Tijdelijke Knippen (TTP): De redacteur kijkt naar de hele film en zegt: "In deze 10 seconden gebeurt er niets nieuws. Het venster staat open en verandert niet. Laten we die 10 seconden samenvoegen tot één seconde."

Door deze twee technieken samen te gebruiken, krijgen ze een korte, strakke samenvatting van de video. Alle saaie ruis is weg, maar de cruciale momenten (waar de robot een fout maakt of de taak voltooit) blijven scherp zichtbaar.

4. De Leermeester: Een Trucje met "Valse Vragen"

Om hun "video-bewerker" (het AI-model) slim te maken, hadden ze veel voorbeelden nodig van zowel geslaagde als mislukte taken. Maar in de echte wereld zijn mislukte taken zeldzaam; mensen delen meestal alleen hun successen.

Dus bedachten ze een slim trucje, genaamd "Adversarial Instruction Translation":
Stel je voor dat je een video hebt van iemand die een koffiezetapparaat bedient. De AI kijkt naar de video en zegt: "Dit is een video van iemand die koffie zet."
Maar de AI bedenkt dan een valse opdracht: "Kijk, dit is een video van iemand die thee maakt."
De AI moet dan uitleggen: "Nee, dat klopt niet! Op minuut 2 zie je dat hij koffiebonen gebruikt, geen theebladeren. Hier is de fout."

Door dit te oefenen met duizenden voorbeelden, leert het model heel goed te zien waar en waarom iets fout gaat, zelfs als de video er heel veelbelovend uitziet.

5. Het Resultaat: De Super-Bewerker

Het resultaat is een model genaamd ExeVRM.

  • Het is getraind op 53.000 video-voorbeelden.
  • Het is slimmer dan de duurste, beroemde AI-modellen van bedrijven zoals Google en OpenAI als het gaat om het beoordelen van computerwerk.
  • Het kan niet alleen zeggen "Ja, het is goed" of "Nee, het is fout", maar het kan ook precies aangeven: "Op seconde 14 heeft de robot op de verkeerde knop gedrukt."

Samenvatting

In plaats van te proberen te raden wat de robot in zijn hoofd heeft, kijken deze onderzoekers naar het videobewijs van het scherm. Ze gebruiken slimme technieken om de saaie delen van de video weg te knippen en een "valse vraag"-truc om het model te leren fouten te vinden. Het resultaat is een super-slimme beoordelaar die ziet of een computer-robot zijn werk écht goed doet, net als een ervaren supervisor die naar het scherm kijkt en precies weet waar de fout zit.