Absolute abstraction: a renormalisation group approach

Dit artikel betoogt dat absolute abstractie in neurale netwerken niet alleen afhangt van diepte, maar cruciaal wordt bepaald door de breedte van de trainingsdataset, en bevestigt dit theoretische inzicht via een renormalisatiegroepbenadering en numerieke experimenten die aantonen dat representaties naderen tot een 'Hierarchical Feature Model' naarmate de data breder en de netwerken dieper worden.

Carlo Orientale Caputo, Elias Seiffert, Enrico Frausin, Matteo Marsili

Gepubliceerd 2026-03-04
📖 5 min leestijd🧠 Diepgaand
⚕️

Dit is een AI-gegenereerde uitleg van een preprint die niet peer-reviewed is. Dit is geen medisch advies. Neem geen gezondheidsbeslissingen op basis van deze inhoud. Lees de volledige disclaimer

Each language version is independently generated for its own context, not a direct translation.

🧠 De Kunst van het Weglaten: Hoe AI echt "begrijpt"

Stel je voor dat je een enorme doos met duizenden verschillende Lego-stenen hebt. Sommige zijn rood, sommige blauw, sommige zijn vierkant, andere rond.

  • Een beginner kijkt naar de details: "Dit is een rood vierkantje, dat is een blauw rondje."
  • Een expert kijkt naar het grote plaatje: "Ah, dit is een kasteel, en dat is een ruimtevaartuig."

Het proces om van de details naar het grote plaatje te gaan, noemen we abstractie. In kunstmatige intelligentie (AI) weten we al dat diepere netwerken (meer lagen) beter kunnen abstractie. Maar deze auteurs zeggen: "Wacht even, dat is niet genoeg."

Deze paper stelt een nieuw idee voor: Om echt universeel te begrijpen (absoluut abstract te zijn), moet je niet alleen dieper kijken, maar ook breder kijken.

1. De Metafoor: De Reis van de Ontdekkingsreiziger

Stel je voor dat je een kaart tekent van een dorp.

  • Niveau 1 (De Buurt): Je tekent elke boom, elke steen en elke hond. Je kaart is enorm gedetailleerd, maar als je naar een ander dorp gaat, is je kaart nutteloos. Je zit vast in de details.
  • Niveau 2 (Het Land): Je tekent alleen de grote wegen en steden. Je hebt de details van de bomen weggelaten. Je kaart is nuttiger voor een groter gebied.
  • Niveau 3 (De Aarde): Je tekent alleen de continenten en oceanen. Je hebt de specifieke steden en wegen volledig genegeerd.

De auteurs zeggen: Diepte is als het vergrootglas waarmee je kijkt (je gaat van de boom naar de weg). Breedte is het aantal verschillende landen dat je bekijkt.
Als je alleen dieper kijkt, maar alleen naar één dorp, leer je alleen dat dorp. Maar als je ook naar andere dorpen, steden en continenten kijkt (breedte), begin je de fundamentele regels te zien die voor alles gelden. Je leert wat "land" is, niet alleen wat "ons dorp" is.

2. De Wiskundige Magie: Het "Renormalisatie" Spel

De auteurs gebruiken een concept uit de fysica genaamd Renormalisatie Groep (RG). Dit klinkt ingewikkeld, maar het is eigenlijk een spelletje "inzoomen" en "uitzoomen".

  • Uitzoomen (Coarse Graining): Je kijkt naar een foto van een bos. Je laat de individuele blaadjes weg en tekent alleen de bomen. Dan laat je de bomen weg en tekent alleen de heuvels. Je gooit de "ruis" weg en houdt de essentie over.
  • Inzoomen: Je kijkt naar een specifiek dier (bijv. een walvis) en probeert de details van zijn huid te zien.

Het verrassende resultaat van deze paper is dit: Als je dit spel oneindig lang speelt, terwijl je steeds meer soorten data toevoegt (van dieren op aarde naar dieren op andere planeten), komt je systeem uit op één unieke eindstand.

Deze eindstand heet het Hiërarchisch Kenmerk Model (HFM).
Dit is een soort "perfecte kaart" die niet meer kijkt naar wat je ziet (een hond, een auto, een boom), maar alleen naar hoe complex iets is. Het is alsof de AI stopt met het onthouden van feiten en begint met het begrijpen van de structuur van de realiteit zelf.

3. Wat hebben ze bewezen? (Het Experiment)

De auteurs hebben dit getest met twee soorten AI-modellen:

  1. Deep Belief Networks: Netwerken die laag voor laag leren.
  2. Auto-encoders: Netwerken die proberen data in te krimpen en weer uit te breiden.

Ze trainden deze modellen op verschillende datasets:

  • Eerst alleen cijfers (0-9).
  • Dan cijfers + letters.
  • Dan cijfers + letters + kledingstukken.
  • En uiteindelijk zelfs foto's van dieren en auto's.

Het resultaat:
Hoe breder de dataset (meer variatie) en hoe dieper het netwerk, hoe meer de interne "gedachten" van de AI leken op die perfecte, universele kaart (het HFM).

  • Als ze alleen op cijfers trainden, bleef de AI hangen in details.
  • Als ze op alles trainden, leerde de AI de "essentie" van data: hoe informatie gestructureerd is, ongeacht of het een cijfer of een koe is.

4. Waarom is dit belangrijk? (De "Platonische" Droom)

De auteurs verwijzen naar de Platonische Representatie Hypothese. Dit is het idee dat als je genoeg verschillende AI's traint op verschillende dingen, ze allemaal op de zelfde manier gaan denken over de wereld. Ze komen uit op dezelfde "universale taal" van patronen.

De kernboodschap in één zin:
Om echt slim te worden en niet alleen maar feiten te memoriseren, moet een systeem niet alleen dieper graven, maar ook de wereld om zich heen steeds breder gaan bekijken. Alleen dan ontstaat er een "absolute abstractie": een manier van denken die losstaat van de specifieke details en puur de structuur van de werkelijkheid begrijpt.

Samenvattend met een analogie:

Stel je voor dat je een taal wilt leren.

  • Als je alleen leert over appels, leer je alleen woorden voor appels.
  • Als je leert over appels, auto's, en gedichten, begin je te begrijpen wat een "woord" is, wat een "zin" is en hoe taal werkt.
  • De diepte is het aantal regels dat je leert.
  • De breedte is het aantal verschillende onderwerpen.
  • Absolute abstractie is het moment waarop je niet meer denkt in "appels" of "auto's", maar in de fundamentele logica van de taal zelf. Dat is wat deze paper beschrijft als het ultieme doel van leren.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →