Training Language Models via Neural Cellular Automata

Dit onderzoek toont aan dat het voorpre-trainen van grote taalmodellen op synthetische, niet-taalgebonden data gegenereerd door neurale cellulaire automaten de prestaties en convergentie significant verbetert, zelfs ten opzichte van veel grotere hoeveelheden natuurlijk taaldata.

Dan Lee, Seungwook Han, Akarsh Kumar, Pulkit Agrawal

Gepubliceerd 2026-03-12
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

De Kunst van het Leren: Hoe Robots Eerst Spelletjes Spelen voordat ze Boeken Lezen

Stel je voor dat je een kind wilt leren lezen en schrijven. De traditionele manier is om het kind direct een stapel boeken te geven en te zeggen: "Lees dit, onthoud dit, en leer de regels." Dit is hoe we tot nu toe grote kunstmatige intelligentie (AI) hebben getraind: door ze enorme hoeveelheden menselijke tekst (zoals internetberichten, boeken en code) te laten lezen.

Maar deze methode heeft een paar problemen:

  1. Er is een limiet aan hoeveel goede tekst er op internet bestaat.
  2. Menselijke tekst zit vol met vooroordelen en rommel.
  3. Het is inefficiënt: het kind moet eerst de "taal" leren voordat het de "logica" erachter begrijpt.

De auteurs van dit paper stellen een nieuwe, slimme vraag: Moet een intelligent systeem echt eerst menselijke taal leren om slim te worden?

Hun antwoord is een resoluut "Nee". In plaats daarvan laten ze de AI eerst een soort virtueel spelletje spelen voordat ze haar een boek geven.

De Analogie: Het Cellulaire Spel

Het geheim van deze methode heet Neurale Cellulaire Automaten (NCA).

Stel je een groot raster voor, zoals een bord met duizenden vakjes. In elk vakje zit een klein robotje. Deze robotjes hebben een heel simpel spelregeltje: "Kijk naar je buren. Als je links en rechts een vriend hebt, word je blij. Als je alleen bent, word je verdrietig."

In een normaal spel (zoals Game of Life) zijn deze regels vastgelegd. Maar in dit onderzoek laten de wetenschappers de AI zelf de regels bedenken. Ze laten de AI duizenden verschillende versies van dit spel spelen, waarbij elke versie net iets andere regels heeft.

  • Het resultaat: Het raster begint te bewegen. Patronen ontstaan, dingen bewegen over het scherm, en er ontstaan complexe, bijna onvoorspelbare dansjes.
  • De taak voor de AI: De AI moet naar deze dansjes kijken en proberen te raden: "Welke regels worden hier gebruikt? Wat gaat er nu gebeuren?"

Dit is geen taal. Er zijn geen woorden, geen zinnen, geen menselijke verhalen. Het is puur wiskunde en logica. Maar het vereist wel dat de AI patronen herkent, logica volgt en voorspellingen doet op basis van wat ze net heeft gezien.

De "Pre-Pre-Training": Eerst Spelen, Dan Lezen

De onderzoekers gebruiken een drie-stappenplan:

  1. Stap 1: Het Spel (NCA Pre-Pre-Training). De AI speelt eerst duizenden uren dit abstracte spelletje. Ze leert hierdoor hoe ze complexe patronen moet doorgronden zonder de "hulp" van menselijke taal. Ze bouwt een soort "spiergeheugen" voor logica.
  2. Stap 2: Het Boek (Normale Training). Pas daarna krijgen ze de AI de menselijke tekst (internet, wiskunde, code) om te lezen.
  3. Stap 3: De Test. Ze testen de AI op lastige taken, zoals wiskundepuzzels oplossen of computercode schrijven.

Wat Vonden Ze? (De Verbluffende Resultaten)

Het meest opvallende is wat er gebeurde:

  • Snelheid: De AI die eerst het spel had gespeeld, leerde lezen 1,6 keer sneller dan een AI die direct met de boeken begon.
  • Kwaliteit: De AI die het spel speelde, werd beter in het begrijpen van tekst dan een AI die zelfs tien keer meer menselijke tekst had gelezen.
  • Slimmer denken: Deze AI was ook beter in het oplossen van wiskundepuzzels en het schrijven van code.

Het is alsof je een student eerst laat oefenen met het oplossen van abstracte puzzels. Wanneer ze daarna een geschiedenisboek krijgen, begrijpen ze de complexe zinnen en argumenten veel sneller dan een student die direct met het boek begon.

Waarom Werkt Dit?

De onderzoekers ontdekten twee belangrijke geheimen:

  1. De "Oog" van de AI (Attention): De AI heeft verschillende onderdelen. Het bleek dat het onderdeel dat verantwoordelijk is voor het volgen van patronen (de "Attention" laag) het meest profiteerde van het spel. Dit is alsof de AI eerst haar "oefenogen" trainde om verbanden te zien, en die ogen daarna gebruikt om te lezen.
  2. De Moeilijkheidsgraad moet kloppen: Niet elk spel is goed voor elke taak.
    • Voor computercode werkt een spel met eenvoudige regels het beste.
    • Voor wiskunde en webtekst werkt een spel met complexe, chaotische regels het beste.
    • Het is net als sporten: als je een marathonloper wilt trainen, moet je eerst lange afstanden lopen. Als je een sprinter wilt, moet je korte, intense sprints doen. Je kunt niet iedereen hetzelfde trainen.

Conclusie: Een Nieuwe Weg voor AI

Dit onderzoek opent een nieuwe deur. Het suggereert dat we niet hoeven te wachten tot we alle menselijke teksten op aarde hebben gelezen om slimme AI te maken. We kunnen kunstmatige, synthetische data gebruiken die speciaal is ontworpen om de hersenen van de AI te trainen in logica en patronen.

Het is een beetje alsof we stoppen met het geven van duizenden boeken aan een baby, en in plaats daarvan eerst een speelgoedkast vol met blokken, puzzels en constructies geven. Als de baby die logica eenmaal heeft begrepen, leest hij de boeken daarna als een speer.

Kort samengevat: Door AI eerst abstracte spelletjes te laten spelen, worden ze sneller, slimmer en efficiënter in het begrijpen van onze menselijke taal. En het beste van alles: we hoeven niet meer afhankelijk te zijn van de beperkte hoeveelheid tekst die op internet beschikbaar is.