Sparsity and Out-of-Distribution Generalization

Dit paper presenteert een principieel kader voor out-of-distribution generalisatie dat stelt dat hypothese die gebaseerd zijn op zo min mogelijk kenmerken (sparsiteit) en die voldoende overlappen met de trainingsverdeling op de relevante kenmerken, succesvol generaliseren naar nieuwe verdelingen, wat wordt onderbouwd door een wiskundig bewijs en een uitbreiding naar subspace juntas.

Scott Aaronson, Lin Lin Lee, Jiawei Li

Gepubliceerd 2026-03-10
📖 6 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

De Kunst van het Voorspellen: Waarom AI soms slim is en soms dwaalt

Stel je voor dat je een jonge student leert om de wereld te begrijpen. Je geeft hem duizenden foto's van katten en honden. Hij leert het patroon en wordt er heel goed in. Maar dan komt de echte test: je laat hem foto's zien die hij nog nooit heeft gezien. Wat gebeurt er?

Soms is de student een genie. Hij herkent de kat, zelfs als de achtergrond anders is of de belichting verschilt. Dit noemen we generalisatie buiten de verdeling (in het Engels: Out-of-Distribution of OOD generalization). Het is het vermogen om regels toe te passen op nieuwe situaties die niet precies lijken op de oude.

Maar soms is de student een bedrieger. Hij heeft niet geleerd wat een "kat" is, maar heeft een listige regel bedacht: "Als de linkerbovenhoek van de foto rood is, is het een kat." In je trainingsdata waren alle kattenfoto's toevallig met een rood pixelletje linksboven. Maar zodra je een kat met een geel pixelletje laat zien, denkt hij: "Dat is een hond!" Hij faalt catastrofaal.

Dit is het oude raadsel van de filosoof Goodman: waarom denken we dat emeralds altijd groen blijven, en niet dat ze "grue" zijn (groen tot 2030, en daarna blauw)? Zolang we alleen naar het verleden kijken, zijn beide theorieën even waar. Waarom kiezen we dan voor de ene en niet de andere?

De auteurs van dit paper (Scott Aaronson en collega's) geven een antwoord dat draait om sparsiteit en Occam's Scheermes. Hier is de uitleg, vertaald naar alledaagse taal.

1. De Wereld bestaat uit "Dingen", niet uit een Grote Soep

Stel je voor dat je een recept hebt voor een taart. De ingrediënten zijn bloem, suiker, eieren en boter.

  • De slechte leerling denkt dat de taart gemaakt is van een onzichtbare, amorf mengsel van "alles wat erin zit". Hij probeert de exacte verhouding van de totale soep te onthouden.
  • De goede leerling ziet de wereld als een lijst met onderscheiden kenmerken: bloem, suiker, eieren. Hij weet dat de taart eigenlijk alleen afhangt van deze specifieke dingen.

De paper stelt: onze hersenen (en goede AI) kijken naar de wereld via deze "kanalen" (zoals zicht, geluid, of specifieke pixels). We filteren de chaos eruit en kijken alleen naar de belangrijke stukjes.

2. Occam's Scheermes: Kies de Dikke Draad, niet de Dunne

Occam's Scheermes zegt: "De eenvoudigste verklaring is vaak de juiste."
In dit paper betekent "eenvoudig" sparsiteit.

  • De "Grue"-hypothese (De listige regel): "De taart is lekker als (bloem + suiker + eieren + de datum van vandaag) klopt." Dit is complex. Het hangt af van veel dingen, inclusief een onnodige variabele (de datum).
  • De "Groen"-hypothese (De simpele regel): "De taart is lekker als (bloem + suiker + eieren) klopt." Dit is spars. Het hangt af van slechts een paar dingen.

De paper zegt: Als je een AI traint, moet je hem dwingen om te zoeken naar regels die zo weinig mogelijk variabelen gebruiken. Als de AI een regel vindt die alleen afhangt van 2 van de 1000 mogelijke kenmerken, is die veel waarschijnlijker om waar te zijn dan een regel die afhankelijk is van 500 kenmerken.

3. De Magische Overlap: Waarom het werkt

Hier komt het slimme deel. Stel je voor dat je de AI traint op foto's van katten in de zomer (zonnig, blauwe lucht). Je test hem in de winter (sneeuw, grijs).

  • Als de AI heeft geleerd: "Katten hebben 4 poten en een staart", dan maakt het niet uit of de lucht blauw of grijs is. De belangrijke kenmerken (poten, staart) zijn hetzelfde in beide seizoenen.
  • Als de AI heeft geleerd: "Katten hebben een blauwe lucht op de achtergrond", dan faalt hij in de winter.

De paper bewijst wiskundig dat: Als je AI een "spare" regel leert (afhankelijk van weinig dingen), en die belangrijke dingen zijn hetzelfde in de trainingswereld en de testwereld, dan zal hij het goed doen. Het maakt niet uit hoe anders de rest van de wereld is (de lucht, de belichting, de achtergrond), zolang de "kern" maar hetzelfde blijft.

4. De Subruimte: Een Nieuwe Draad in de Mat

Soms is het lastig om te zeggen welke specifieke pixels belangrijk zijn. Misschien is het niet "pixel 1" en "pixel 5", maar een combinatie van zeven pixels die samen een vorm vormen.
Stel je een grote tapijt voor met een ingewikkeld patroon. Je kunt het patroon beschrijven door naar elke individuele knoop te kijken (duizenden variabelen). Maar misschien is het patroon eigenlijk gewoon een lijn die door het tapijt loopt. Als je het tapijt op die lijn vouwt, zie je het patroon duidelijk.

De auteurs introduceren het concept van Subspace Juntas.

  • In plaats van te zeggen "de AI kijkt naar pixel 1, 5 en 9", zeggen we: "De AI kijkt naar een specifiek vlak in de ruimte van alle pixels."
  • Het is alsof je de wereld niet bekijkt via de standaard X- en Y-as, maar via een schuine as die precies door het interessante deel van de data loopt.
  • Als de AI leert dat het antwoord alleen afhangt van dit ene vlak, en dat vlak ziet er in de trainingsdata en de testdata ongeveer hetzelfde uit, dan werkt de AI ook in de nieuwe situatie.

De Grootte van het Probleem (Wiskunde in het kort)

De auteurs bewijzen een stelling die zegt:

"Als je een AI traint op een paar duizend voorbeelden, en je dwingt hem om alleen te zoeken naar simpele regels (die weinig variabelen gebruiken), dan is de kans enorm groot dat hij het goed doet op nieuwe, onbekende situaties, zolang die nieuwe situaties maar op de 'belangrijke' variabelen lijken op de oude."

Zonder deze "sparsiteit"-regel zou de AI kunnen kiezen voor een regel die perfect past op de trainingsdata, maar volledig willekeurig is op de testdata (zoals de "rode pixel" regel). Door te eisen dat de regel simpel is, dwingen we de AI om de echte oorzaak te vinden, niet een toevallig neveneffect.

Conclusie: Waarom dit belangrijk is voor de Toekomst

Dit paper is een antwoord op de angst dat AI's "bedriegers" zijn die alleen doen alsof ze slim zijn.

  • Als we AI's trainen met het principe van Occam's Scheermes (zoek naar de simpelste, meest sparsere verklaring), dan zijn ze minder vatbaar voor "deceptive alignment" (bedrieglijke aanpassing).
  • Ze leren de echte regels van de wereld (bijvoorbeeld: "mensen willen niet pijn doen"), in plaats van oppervlakkige patronen ("mensen doen dit alleen als ze in de trainingsfase zijn").

Kortom: Om AI te laten generaliseren naar de echte, chaotische wereld, moeten we haar leren om te kijken naar de weinigste, meest essentiële draden in het tapijt van de realiteit, en niet naar de duizenden onbelangrijke knopen.