NNiT: Width-Agnostic Neural Network Generation with Structurally Aligned Weight Spaces

Deze paper introduceert NNiT, een breedte-agnostisch generatief model dat neural networks genereert door gewichten te tokeniseren en Graph HyperNetworks te gebruiken om structurele alignatie te creëren, waardoor het succesvol generaliseert naar onbekende architecturen op ManiSkill3-robotica-taken.

Jiwoo Kim, Swarajh Mehta, Hao-Lun Hsu, Hyunwoo Ryu, Yudong Liu, Miroslav Pajic

Gepubliceerd 2026-03-03
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een meesterchef bent die altijd dezelfde soeprecepten maakt, maar dan met een heel specifiek probleem: elke keer als je een nieuw recept probeert te maken, moet je precies weten hoeveel wortels en aardappels erin gaan. Als je het recept van iemand anders wilt kopiëren, maar die persoon heeft net iets meer aardappels gebruikt dan jij gewend bent, dan werkt je kopie niet meer. Je moet het hele recept opnieuw uitvinden.

In de wereld van kunstmatige intelligentie (AI) gebeurt precies dit. AI-modellen zijn als die soeprecepten. Ze bestaan uit miljoenen getallen (de "gewichten") die bepalen hoe slim ze zijn. Het grote probleem is dat deze getallen vaak in een willekeurige volgorde staan. Als je een AI wilt "leren" om nieuwe modellen te bedenken, raakt hij de draad kwijt zodra de grootte van het model verandert.

Hier komt NNiT (Neural Network Diffusion Transformers) om de hoek kijken. De onderzoekers hebben een slimme oplossing bedacht die we kunnen vergelijken met het bouwen van een legpuzzel of het bakken van een taart.

1. Het Probleem: De Willekeurige Wolk

Stel je voor dat je een wolk van blokken hebt. Je kunt ze op elke manier stapelen en het resultaat is nog steeds een wolk. In AI noemen we dit "permutatie-symmetrie". Het betekent dat je dezelfde slimme AI kunt bouwen, maar de getallen erin staan in een heel andere volgorde. Voor een computer is het alsof je probeert een foto te maken van een wolk, maar elke keer als je een nieuwe foto maakt, zijn de wolkenblokken verplaatst. De computer ziet geen patroon en kan dus niet leren hoe je een nieuwe wolk moet "tekenen".

2. De Oplossing: De "Chef" die Alles Netjes Legt (GHN)

De onderzoekers gebruiken een slimme truc genaamd GHN (Graph HyperNetworks). Stel je dit voor als een super-chef die niet zelf de soep kookt, maar wel het recept schrijft.

  • Normale AI's (zoals SGD) koken de soep en gooien de ingrediënten erin zonder te kijken. Het resultaat is een rommelige soep.
  • De GHN-chef daarentegen heeft een vaste manier van werken. Hij legt de wortels altijd links en de aardappels rechts. Hij zorgt ervoor dat de blokken in de AI altijd netjes en op een logische manier gerangschikt zijn.

Dit is cruciaal. Omdat de GHN-chef alles netjes ordent, ontstaat er een patroon. De getallen in de AI zijn niet meer willekeurig; ze hebben een lokale structuur, alsof ze in een strakke rij staan.

3. De Magie: Het Legpuzzel (NNiT)

Nu komt het echte genie van NNiT. Omdat de GHN-chef alles netjes heeft gerangschikt, kunnen de onderzoekers de AI-blokken niet meer zien als één grote, rommelige hoop. Ze kunnen ze zien als kleine stukjes van een legpuzzel (of "patches", zoals ze in het paper zeggen).

  • Vroeger: Je probeerde een hele foto van 1000x1000 pixels te genereren. Als je de foto groter maakte (bijvoorbeeld 2000x2000), wist de computer niet wat hij moest doen.
  • Nu met NNiT: De computer leert hoe je een klein stukje van 10x10 pixels maakt.
    • Wil je een grotere AI? Dan laat de computer gewoon meer van diezelfde puzzelstukjes maken.
    • Het maakt niet uit of de AI nu klein of groot is; het principe blijft hetzelfde: "Maak een stukje, en nog een stukje, en nog een stukje."

Dit noemen ze "width-agnostic". Het betekent: "Onafhankelijk van de breedte". Je kunt de AI zo smal of zo breed maken als je wilt, en NNiT weet precies hoe hij de puzzelstukjes moet leggen.

4. Wat levert dit op? (De Robot)

De onderzoekers hebben dit getest op robots die taken moeten uitvoeren (zoals blokken stapelen of duwen).

  • Ze trainden NNiT op robots met een bepaalde grootte.
  • Vervolgens vroegen ze NNiT om een robot te maken die dubbel zo breed was, of een heel ander formaat had.
  • Resultaat: De oude methoden faalden volledig. De robots vielen om of konden niets doen.
  • NNiT: De robot deed de taak met succes! Omdat NNiT het patroon had geleerd in plaats van het exacte formaat, kon hij direct een nieuw, groter model "dromen" dat perfect werkte.

Samenvatting in één zin

NNiT is als een meester-architect die niet leert hoe je één specifiek huis bouwt, maar leert hoe je muren en ramen bouwt; hierdoor kan hij direct een klein huisje of een gigantisch kasteel ontwerpen zonder ooit een blauwdruk voor die specifieke grootte te hebben gezien.

Dit is een enorme stap voorwaarts omdat het betekent dat we in de toekomst AI's kunnen maken die zich direct aanpassen aan de hardware die we hebben, zonder dat we ze opnieuw hoeven te trainen.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →