Scaling of learning time for high dimensional inputs

Dit artikel presenteert een theoretische analyse die aantoont dat de leertijd voor Hebbiaanse modellen bij hoge inputdimensies supralineair toeneemt door kleinere leergradiënten, wat een fundamentele beperking vormt voor het leren in complexe, hoogdimensionale ruimtes.

Carlos Stein Brito

Gepubliceerd 2026-03-03
📖 4 min leestijd☕ Koffiepauze-leesvoer
⚕️

Dit is een AI-gegenereerde uitleg van een preprint die niet peer-reviewed is. Dit is geen medisch advies. Neem geen gezondheidsbeslissingen op basis van deze inhoud. Lees de volledige disclaimer

Each language version is independently generated for its own context, not a direct translation.

Hoe leer je een brein (of een computer) als de wereld te groot wordt?

Stel je voor dat je een jonge student wilt leren een taal spreken. In een klein dorpje met slechts 10 woorden is het makkelijk om te leren. Maar wat als je ineens moet leren in een stad met 100.000 woorden, waarbij elk woord op een heel andere manier klinkt?

Dit is precies het probleem waar Carlos Stein Brito in zijn onderzoek naar kijkt. Hij bestudeert hoe kunstmatige neurale netwerken (computerhersenen) leren, en hij ontdekt iets verrassends: hoe meer informatie een computer tegelijk moet verwerken, hoe trager het leren wordt, en dat gaat niet lineair, maar explosief snel.

Hier is de uitleg in simpele taal, met wat creatieve vergelijkingen.

1. Het probleem: De "Naald in de Hooiberg"

Stel je een gigantische, donkere berg voor. Je bent een wandelaar (het leerproces) en je moet de laagste punt van de berg vinden (de oplossing).

  • In een kleine wereld (weinig data) is de berg klein. Je kunt makkelijk rondlopen en de laagste plek vinden.
  • In een grote wereld (veel data, hoge dimensies) is de berg zo groot dat hij de hele horizon vult.

Het vreemde is: in een heel grote berg zijn er niet alleen maar diepe valleien (goede oplossingen), maar ook oneindig veel heuveltoppen en sadelpunten (plekken waar het vlak is, maar niet de oplossing is).

2. De valkuil: De "Vlakte van de Sadel"

Wanneer je computer begint met leren, begint hij met willekeurige instellingen. Het is alsof je blindelings op die enorme berg wordt neergezet.

  • In een kleine wereld: Je landt waarschijnlijk ergens dichtbij een dal. Je kunt direct beginnen met lopen naar beneden.
  • In een grote wereld: Door de wiskundige eigenschappen van enorme ruimtes, land je bijna altijd op een vlakte of een sadelpunt. Hier is het zo vlak dat je niet weet welke kant je op moet. De "helling" (de graad) is bijna nul.

Het is alsof je in een mistige, oneindig grote vlakte staat. Je ziet geen bergtop en geen dal. Je loopt rondjes en komt nergens. Dit noemen de auteurs "quasi-orthogonaal": je startpositie staat haaks op de oplossing, alsof je probeert naar het noorden te lopen terwijl je in het oosten staat, maar dan in een ruimte met duizenden richtingen.

3. Het resultaat: Leren wordt onmogelijk traag

De paper laat zien dat als je het aantal ingangen (de "dimensies") verdubbelt, het leren niet gewoon twee keer langer duurt. Het wordt veel, veel langer.

  • De analogie van de trage auto: Stel je voor dat je een auto hebt die op een helling rijdt. Hoe steiler de helling, hoe sneller je gaat.
    • Bij weinig data is de helling steil. Je raast naar de oplossing.
    • Bij veel data is de helling zo vlak dat het lijkt alsof je op een ijsbaan staat. Je motor (het leerproces) moet enorm hard werken om maar een millimeter vooruit te komen.
    • De paper berekent dat als je de grootte van het probleem vergroot, de tijd die nodig is om te leren supralineair toeneemt. Dat betekent: als je de input verdrievoudigt, kan het leren 27 keer (of meer) langer duren. Het wordt snel onbetaalbaar duur in tijd en energie.

4. Waarom is dit belangrijk?

Deze ontdekking legt uit waarom biologische hersenen en slimme computers bepaalde beperkingen hebben:

  1. Waarom hebben hersenen geen duizenden verbindingen per neuron?
    Je zou denken: "Hoe meer verbindingen, hoe slimmer." Maar dit onderzoek zegt: "Nee, als je te veel verbindingen hebt, wordt het leren zo traag dat het nooit afgerond wordt." De natuur heeft waarschijnlijk gekozen voor een beperkt aantal verbindingen per cel (ongeveer 1.000 tot 10.000) omdat daarboven het leren te traag wordt om nuttig te zijn.

  2. Waarom gebruiken AI-modellen "kleine vensters"?
    Moderne AI (zoals bij het herkennen van gezichten) kijkt niet naar het hele plaatje tegelijk. Het kijkt naar kleine stukjes (zoals een neus of een oog) en bouwt dat later samen. Dit onderzoek geeft een wiskundig bewijs waarom dit slim is: door de wereld in kleine stukjes te verdelen, vermijd je die enorme, vlakke vlakte waar je vastloopt.

Conclusie

De boodschap van dit papier is simpel maar krachtig: Meer is niet altijd beter.

Als je een computer te veel informatie tegelijk geeft, raakt hij in de war in een oneindig groot landschap van vlakke plekken. Het leren stopt dan bijna. Om slim te blijven, moeten we slimme beperkingen maken (zoals kleine vensters in beeldherkenning), zodat het leerproces niet vastloopt in de "mist" van de hoge dimensies.

Het is alsof je een spoorzoeker bent: in een kleine kamer vind je de sleutel snel. In een heel land zonder wegen en met duizenden velden, zoek je eeuwig. De kunst is om het land in kleine, overzichtelijke stukjes te verdelen.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →