Symbol-Equivariant Recurrent Reasoning Models

Deze paper introduceert Symbol-Equivariant Recurrent Reasoning Models (SE-RRM), een architectuur die symmetrie expliciet in het ontwerp verankert om prestaties en generalisatie op puzzels zoals Sudoku en ARC-AGI aanzienlijk te verbeteren met minder data-augmentatie en parameters.

Richard Freinschlag, Timo Bertram, Erich Kobler, Andreas Mayr, Günter Klambauer

Gepubliceerd 2026-03-03
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een heel lastig raadsel probeert op te lossen, zoals een Sudoku of een ingewikkeld labyrint. Voor een computer is dit vaak een nachtmerrie. Traditionele kunstmatige intelligentie (zoals de grote taalmodellen die we nu kennen) probeert dit op te lossen door simpelweg "te gissen" op basis van wat ze eerder hebben gelezen. Het is alsof je een Sudoku probeert op te lossen door blindelings nummers in te vullen en hoopt dat het klopt. Dat werkt vaak niet goed, vooral niet als het raadsel groter wordt.

De auteurs van dit paper hebben een slimme nieuwe aanpak bedacht: SE-RRM. Laten we dit uitleggen met een paar leuke vergelijkingen.

1. Het oude probleem: De "Gedetailleerde" Leerling

Stel je een oude manier van leren voor (de bestaande modellen). Als je een kind leert een Sudoku te spelen, leer je ze: "Dit is een 1, dit is een 2, dit is een 3..."
Maar als je het kind dan een nieuwe Sudoku geeft waarbij de '1' eigenlijk een 'rode bal' is en de '2' een 'blauwe bal', raakt het kind in de war. Het moet opnieuw leren dat de rode bal nu de rol van de '1' speelt.

In de computerwereld betekent dit dat de AI duizenden voorbeelden moet zien, waarbij ze de kleuren of cijfers telkens willekeurig verwisselen (data-augmentatie), zodat de AI leert dat het type symbool niet uitmaakt, maar alleen de relatie tussen ze. Dit is veel werk en kost veel tijd.

2. De nieuwe oplossing: De "Slimme" Leerling (SE-RRM)

De auteurs zeggen: "Waarom leren we de AI niet dat symbool A en symbool B eigenlijk uitwisselbaar zijn?"

Ze bouwen een nieuwe architectuur, de SE-RRM, die als een meester-kok werkt die niet kijkt naar de specifieke naam van een groente, maar naar de rol die de groente speelt in het gerecht.

  • De Analogie: Stel je voor dat je een recept hebt. Een oude AI denkt: "Als ik aardappels gebruik, moet ik ze zo snijden. Als ik wortels gebruik, moet ik ze anders snijden."
  • De nieuwe AI (SE-RRM) denkt: "Het maakt niet uit of het aardappel of wortel is; als het een 'knapperig blokje' is in dit gerecht, snijd ik het op dezelfde manier."

Dit noemen ze symmetrie. De AI begrijpt dat als je alle cijfers in een Sudoku verwisselt (bijvoorbeeld alle 1'en worden 2'en en alle 2'en worden 1'en), de oplossing precies hetzelfde blijft, alleen met andere cijfers. De nieuwe AI is zo ontworpen dat dit van nature klopt, zonder dat ze duizenden voorbeelden nodig heeft om dit te leren.

3. Hoe werkt het technisch (in simpele taal)?

Stel je een raamwerk voor met drie dimensies:

  1. Waar zit het? (De positie in het raster).
  2. Wat is het? (Het symbool of de kleur).
  3. Hoe denken we erover na? (De interne berekening).

De oude modellen keken alleen naar "Waar" en "Wat" als losse lijnen. De nieuwe SE-RRM kijkt naar een 3D-ruimte waar ze "Waar" en "Wat" tegelijk kunnen vergelijken. Ze gebruiken een slimme techniek (Self-Attention) om te zeggen: "Kijk eens, deze 'rode blok' hier en die 'blauwe blok' daar spelen dezelfde rol in het patroon."

Hierdoor hoeft de AI niet te leren dat rood en blauw uitwisselbaar zijn; ze weten het al omdat hun bouwplaat (de architectuur) dit zo regelt.

4. Wat levert dit op? (De resultaten)

De auteurs hebben dit getest op drie dingen: Sudoku, ARC-AGI (een soort visuele puzzel) en labyrinten.

  • Sudoku: De oude modellen konden alleen 9x9 Sudoku's goed oplossen. Als je ze een 4x4 of een gigantische 16x16 Sudoku gaf, faalden ze. De nieuwe SE-RRM kon dit direct oplossen, zelfs zonder dat ze er ooit een 16x16 hadden gezien! Ze hebben de regels geleerd, niet alleen de cijfers.
  • Minder data: Voor de visuele puzzels (ARC-AGI) hadden de oude modellen duizenden variaties nodig om te leren. De nieuwe AI deed het met slechts 8 variaties. Dat is als het verschil tussen een student die 1000 oefentoetsen moet maken en een genie dat het concept in één keer snapt.
  • Kleiner en sneller: De nieuwe AI is veel kleiner (slechts 2 miljoen parameters) dan de concurrenten, maar werkt beter.

Conclusie

Kortom, dit paper introduceert een manier om computers te laten denken zoals een mens die de logica van een spel begrijpt, in plaats van alleen de tekens te onthouden.

Het is alsof je iemand leert een taal spreken door de grammatica te geven, in plaats van duizenden zinnen uit het hoofd te laten leren. Hierdoor wordt de AI slimmer, heeft ze minder data nodig en kan ze zich aanpassen aan nieuwe, grotere problemen die ze nog nooit heeft gezien. Het is een grote stap in de richting van computers die echt kunnen "redeneren" in plaats van alleen maar te "gissen".

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →