Each language version is independently generated for its own context, not a direct translation.
Stel je voor dat je een robot hebt die niet alleen naar je kijkt, maar ook echt met je kan praten terwijl je iets doet. Je wijst naar je neus en vraagt: "Is dit mijn neus of mijn oog?" Een slimme robot zou direct moeten kunnen zeggen: "Dat is je neus," terwijl hij naar je gezicht kijkt.
Helaas is dat voor de slimste kunstmatige intelligentie (AI) van vandaag nog steeds heel lastig. Dat is precies wat dit nieuwe onderzoek van Qualcomm AI Research en de Universiteit van Toronto laat zien.
Hier is de uitleg in simpele taal, met een paar creatieve vergelijkingen:
1. Het Probleem: De "Bioscoop" vs. De "Live Show"
Tot nu toe zijn AI-modellen getraind als bioscoopbezoekers. Ze krijgen een hele film te zien, wachten tot de film klaar is, en krijgen dan pas een vraag: "Wat gebeurde er in scène 3?" Omdat ze de hele film al hebben gezien, kunnen ze makkelijk terugkijken en het antwoord bedenken.
Maar in het echte leven zijn we geen bioscoopbezoekers, we zijn live-uitzenders. Als je tegen iemand praat, moet die persoon terwijl je praat en terwijl je iets doet, direct reageren. Ze moeten weten:
- Wat zeg je? (Geluid)
- Wat zie ik? (Beeld)
- Wanneer moet ik antwoorden? (Timing)
De huidige robots zijn als een acteur die de hele script heeft gelezen, maar als je hem live een vraag stelt, blijft hij staren en zegt: "Laat me de hele film nog eens bekijken voordat ik antwoord."
2. De Oplossing: De "QIVD" (De Vraagbaak van de Wereld)
De onderzoekers hebben een nieuwe test gemaakt, genaamd QIVD (Qualcomm Interactive Video Dataset).
Stel je dit voor als een grote, echte dagboeken-collage. Mensen hebben duizenden korte filmpjes gemaakt waarin ze iets doen (zoals klappen, een bal gooien of een horloge kijken) en tegelijkertijd een vraag stellen.
Het unieke aan deze test is het tijdstip:
- Soms moet je wachten tot iemand klaar is met klappen om te weten hoeveel keer.
- Soms moet je wachten tot iemand een handeling heeft voltooid om te weten of het goed ging.
- Soms moet je direct reageren op een gebaar.
De dataset bevat ook de "perfecte tijd" om te antwoorden. Het is alsof je een spiegel hebt die je vertelt: "Niet nu, wacht tot hij de bal heeft gevangen, dan mag je antwoorden!"
3. De Test: Robots vs. Mensen
De onderzoekers hebben de slimste AI's van dit moment (zoals GPT-4o en andere grote modellen) deze test laten doen. Het resultaat? De robots zakten door de vloer.
- De Mens: Een normaal mens kijkt naar een video, hoort de vraag en zegt direct het juiste antwoord. Ze scoren bijna 100%.
- De Robot: De beste AI's haalden vaak maar 30% tot 50%.
Waarom faalden ze?
- Verkeerde timing: De robots antwoordden vaak te vroeg (voordat de actie klaar was) of te laat. Het is alsof ze in een gesprek constant onderbreken of te laat reageren.
- Verkeerde interpretatie: Als iemand vraagt: "Hoe vaak heb ik geklapt?", telden de robots vaak verkeerd of keken ze niet goed naar het geluid én het beeld tegelijk.
- Verkeerde context: Ze snapten niet wat "dit" of "daar" betekende als iemand met hun vinger wees.
4. De Oplossing: Oefening baart kunst (Fine-tuning)
Het goede nieuws is dat de onderzoekers een oplossing vonden. Ze namen een AI en gaven hem specifiek oefenmateriaal uit deze nieuwe dataset.
Stel je voor dat je een acteur hebt die alleen films kent. Je geeft hem nu een workshop voor live-improvisatie. Je leert hem:
- Luisteren naar het geluid én kijken naar het beeld tegelijk.
- Wachten tot het juiste moment om te spreken.
Na deze training (fine-tuning) werden de robots veel beter. Ze haalden veel hogere scores, vooral bij taken die geluid en beeld combineren. Het bewijst dat de robots niet "dom" zijn, maar gewoon de verkeerde manier van leren hebben gehad. Ze moesten leren om in het heden te leven, niet in het verleden.
Conclusie
Dit onderzoek is een belangrijke stap voor de toekomst van robots en AI-assistenten. Het laat zien dat we niet alleen slimme modellen nodig hebben die kunnen "zien", maar modellen die kunnen meedoen in het echte leven.
Het is het verschil tussen een robot die een boek voorleest en een robot die met je mee kan dansen, je helpt in de keuken, of je kan vertellen of je een bril op hebt, terwijl je door de kamer loopt. Met deze nieuwe test (QIVD) kunnen we nu precies meten hoe dicht we bij dat doel komen.
Ontvang papers zoals deze in je inbox
Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.