Context and Diversity Matter: The Emergence of In-Context Learning in World Models

Dit onderzoek toont aan dat wereldmodellen zich kunnen aanpassen via context-gebaseerd leren door twee kernmechanismen, omgevingsherkenning en omgevingsleren, die afhankelijk zijn van lange contexten en diverse omgevingen om hun asymptotische limieten te bereiken.

Fan Wang, Zhiyuan Chen, Yuxuan Zhong, Sunjian Zheng, Pengtao Shao, Bo Yu, Shaoshan Liu, Jianan Wang, Ning Ding, Yang Cao, Yu Kang

Gepubliceerd 2026-03-02
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

🌍 De Reis van de Slimme Reisgids: Waarom Context en Diversiteit Koning zijn

Stel je voor dat je een reisgids hebt die een stad moet verkennen. Er zijn twee manieren waarop deze gids zijn werk kan doen:

  1. De "Boekjes-Gids" (De oude manier): Deze gids heeft een enorme stapel boeken over specifieke steden. Als hij in Amsterdam komt, pakt hij het boekje over Amsterdam. Komt hij in een stad die er niet in staat? Dan is hij verdwaald en kan hij niets voorspellen. Dit is hoe de meeste huidige AI-modellen werken: ze zijn getraind op specifieke situaties en falen als ze iets nieuws tegenkomen.
  2. De "Levende Reisgids" (De nieuwe manier, zoals in dit paper): Deze gids heeft geen boeken. Hij kijkt gewoon om zich heen, leert van wat hij ziet, en past zich direct aan. Als hij in een nieuwe stad komt, zegt hij: "Ah, hier zijn de straten smal en de huizen hoog, dus ik moet voorzichtig zijn." Hij leert terwijl hij loopt.

Dit paper gaat over hoe we AI-modellen (zogenoemde Wereldmodellen) kunnen leren om die tweede, levende reisgids te worden. De auteurs noemen dit In-Context Learning (ICL).

🧠 Twee Manieren om te Leren: Herkennen vs. Leren

De onderzoekers ontdekten dat er twee manieren zijn waarop een AI een nieuwe omgeving kan begrijpen:

  1. Omgevingsherkenning (Environment Recognition - ER):

    • De Analogie: Stel je voor dat je een sleutelbos hebt. Je ziet een deur en denkt: "Ah, dit is de rode deur! Ik heb de rode sleutel." Je gebruikt je geheugen om te weten wat er achter die deur zit.
    • Hoe het werkt: De AI kijkt naar de situatie en zegt: "Dit lijkt op situatie X die ik al heb gezien." Hij haalt zijn kennis over situatie X op.
    • Het probleem: Als je in een situatie komt die op geen van je oude sleutels lijkt, faalt deze methode.
  2. Omgevingsleren (Environment Learning - EL):

    • De Analogie: Je hebt geen sleutelbos. Je loopt door de deur, voelt de muren, ruikt de lucht en zegt: "Oké, ik ben nu hier. Ik leer nu hoe deze specifieke kamer werkt." Je bouwt je kennis op terwijl je er bent.
    • Hoe het werkt: De AI gebruikt de recente geschiedenis (de "context") om direct te begrijpen hoe de wereld werkt, zonder te zoeken naar een oude sleutel.
    • Het voordeel: Dit werkt zelfs als je in een compleet nieuwe, vreemde wereld terechtkomt.

📏 De Belangrijkste Ontdekkingen

De onderzoekers hebben wiskundig bewezen en in experimenten getoond wat er nodig is om van de "Sleutelbos-methode" (ER) naar de "Levende Leraar-methode" (EL) te gaan:

1. Diversiteit is de Brandstof 🔥

Als je een AI alleen maar laat oefenen op 1 of 2 soorten muren (bijvoorbeeld alleen witte muren), zal hij nooit leren omgaan met een muur van glas of baksteen.

  • Vergelijking: Als je een kok alleen maar laat koken met aardappelen, wordt hij een aardappel-specialist. Als je hem laat koken met 100 verschillende groenten, leert hij de principes van koken.
  • Conclusie: Om EL (leren) te laten ontstaan, moet de AI getraind worden op een enorme verscheidenheid aan situaties.

2. De Context is de Lijst 📝

"Context" betekent hier: hoeveel informatie de AI heeft gezien net voor hij een voorspelling doet.

  • Vergelijking: Als je iemand vraagt om een verhaal te vervolgen, en je geeft hem alleen het woord "De...", kan hij niets zeggen. Geef je hem de eerste 100 pagina's van het boek, dan kan hij perfect voorspellen wat er gebeurt.
  • Conclusie: De AI heeft een lange "geheugenlijn" nodig. Hij moet veel stappen terug kunnen kijken om patronen te zien. Korte lijnen werken niet voor het leren van nieuwe, complexe wereldregels.

🏗️ De Oplossing: L2World

De auteurs hebben een nieuw model gebouwd, genaamd L2World.

  • Hoe het werkt: In plaats van zware, trage modellen die elke afbeelding tot in detail proberen te reconstrueren (wat veel rekenkracht kost), maakt L2World slimme, snelle voorspellingen. Het is als een gids die niet elke steen telt, maar wel weet dat als je linksaf slaat, je bij de markt komt.
  • Het resultaat: In tests met karretjes die op stokken balanceren (Cart-Pole) en robots die door labyrinten lopen, bleek L2World veel beter te zijn in het aanpassen aan nieuwe omgevingen dan bestaande modellen. Het kon zich aanpassen aan zwaartekracht die veranderde of muren die er anders uitzagen, zolang het maar genoeg variatie had gezien en genoeg context kon gebruiken.

🚀 Waarom is dit belangrijk?

Vroeger moesten we AI-modellen opnieuw trainen elke keer dat de wereld veranderde (bijvoorbeeld: een robot die in een fabriek werkt, moet opnieuw leren als de fabriek wordt verbouwd).

Met deze nieuwe inzichten kunnen we AI's bouwen die zichzelf aanpassen.

  • Stel je een zelfrijdende auto voor die nooit meer een "update" nodig heeft om in een nieuwe stad te rijden. Hij kijkt gewoon om zich heen, leert de verkeersregels van die stad in enkele minuten, en rijdt veilig.
  • Dit is de stap van "statische kennis" naar "levendige intelligentie".

Samenvatting in één zin

Om AI echt slim en aanpasbaar te maken, moeten we het niet alleen veel laten oefenen, maar het vooral veel verschillende dingen laten zien en het veel tijd en ruimte geven om de context te begrijpen, zodat het niet alleen herinnert, maar echt leert.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →