Barriers for Learning in an Evolving World: Mathematical Understanding of Loss of Plasticity

Dit onderzoek verklaart het verlies van plasticiteit in diepe leermodellen als een dynamisch systeemprobleem waarbij stabiele manifolds, veroorzaakt door activatiesaturatie en representatieve redundantie, het toekomstige leren belemmeren, en stelt dat eigenschappen die gunstig zijn voor generalisatie in statische omgevingen juist bijdragen aan dit probleem in voortdurende leercontexten.

Amir Joudaki, Giulia Lanzillotta, Mohammad Samragh Razlighi, Iman Mirzadeh, Keivan Alizadeh, Thomas Hofmann, Mehrdad Farajtabar, Fartash Faghri

Gepubliceerd 2026-03-03
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

De Verloren Plastischeheid: Waarom AI-Modellen Ophouden met Leren

Stel je voor dat je een supersterke student bent die alles in één keer kan leren. Je bent slim, snel en past je aan elke nieuwe situatie aan. Maar naarmate je langer studeert, merk je iets vreemds: je kunt nieuwe dingen niet meer zo goed leren als toen je net begon. Je hersenen lijken "vast te zitten" in oude patronen. Dit is precies wat er gebeurt met kunstmatige intelligentie (AI) in een veranderende wereld.

Een nieuw onderzoek van wetenschappers van ETH Zürich en Apple, gepubliceerd in 2026, legt uit waarom dit gebeurt en hoe we het kunnen oplossen. Ze noemen dit fenomeen "Loss of Plasticity" (het verlies van plastischeheid).

Hier is de uitleg in simpele taal, met wat creatieve vergelijkingen.

1. Het Probleem: De "Vaste" Weg

Normaal gesproken is AI heel goed in het leren van statische taken (zoals het herkennen van katten op foto's). Maar als de wereld verandert (bijvoorbeeld: je moet nu ook honden herkennen, en morgen paarden), begint de AI te struikelen.

De onderzoekers zeggen dat AI-modellen vaak vast komen te zitten in een topografische valkuil.

  • De Analogie: Stel je voor dat je een berg beklimt (het leren van een taak). Normaal gesproken kun je overal naartoe lopen om de beste route te vinden. Maar na verloop van tijd beland je in een diepe, smalle vallei. Zodra je daar bent, kun je er niet meer uit. Elke stap die je zet, brengt je alleen maar dieper in die vallei, zelfs als je probeert omhoog te klimmen. De AI is "gevangen" in een klein deel van zijn denkvermogen en kan geen nieuwe routes meer ontdekken.

2. Waarom gebeurt dit? Twee Diefen in de Nacht

De paper identificeert twee hoofdoorzaken waarom deze valkuilen ontstaan:

A. De "Bevroren" Neuronen (Frozen Units)

  • Wat gebeurt er: Sommige onderdelen van het AI-brein (neuronen) worden zo extreem gebruikt dat ze "doodgaan". Ze reageren niet meer op nieuwe informatie.
  • De Vergelijking: Denk aan een muzikant die jarenlang alleen maar één noot speelt. Uiteindelijk is zijn gehoor zo gespecialiseerd op die ene noot dat hij geen andere tonen meer kan horen. In de AI worden deze neuronen "bevroren" door activatie-saturatie. Ze zijn er nog, maar ze doen niets meer.

B. De "Klonen" (Cloned Units)

  • Wat gebeurt er: De AI begint verschillende onderdelen van zijn brein exact hetzelfde te laten doen. In plaats van dat elke neuron een unieke rol heeft, gaan er groepen van neuronen precies hetzelfde denken.
  • De Vergelijking: Stel je voor dat je een orkest hebt met 100 violisten. In het begin spelen ze allemaal verschillende melodieën. Maar na verloop van tijd besluiten ze allemaal om exact hetzelfde stuk te spelen, op exact hetzelfde moment. Je hebt nu 100 violisten, maar je hoort slechts één geluid. Je hebt veel mensen, maar geen extra creativiteit. Dit heet "redundantie".

3. Het Paradox: Succes is de Vijand

Het meest verrassende deel van het onderzoek is dat succes de oorzaak is van dit probleem.

  • De Vergelijking: Stel je voor dat je een kamer opruimt. Om de kamer zo efficiënt mogelijk te maken, gooi je alle overbodige spullen weg en stapel je alles perfect op elkaar. De kamer is nu super-georganiseerd en werkt perfect voor huidige taken. Maar als je morgen een heel nieuw type meubels moet opbergen, past ze niet meer in die strakke stapels.
  • De Leer: AI-modellen worden getraind om zo efficiënt mogelijk te zijn (lage "rank" of eenvoudige structuren). Dit is geweldig voor het huidige werk, maar het creëert precies die "valkuil" waaruit ze niet meer kunnen ontsnappen als de taak verandert. De zoektocht naar perfectie voor nu, maakt ze blind voor morgen.

4. De Oplossing: De "Schok" en de "Regel"

Hoe breken we deze valkuil? De onderzoekers hebben twee strategieën gevonden:

A. De "Regel" (Normalisatie)

  • Hoe het werkt: Door speciale lagen toe te voegen aan het AI-model (zoals Batch Normalization), zorg je dat de signalen binnen het model niet te extreem worden.
  • De Vergelijking: Het is alsof je een thermostaat instelt. In plaats van dat de temperatuur (de activiteit van de neuron) naar 100 graden gaat (waardoor hij "dood" gaat), houdt de thermostaat het op een gezonde, actieve temperatuur. Dit voorkomt dat neuronem bevroren.

B. De "Schok" (Ruis en Dropout)

  • Hoe het werkt: Als de AI al vastzit, moet je hem een duw geven. Dit doe je door tijdens het trainen willekeurige ruis toe te voegen of door soms willekeurig onderdelen van het model uit te schakelen (Dropout).
  • De Vergelijking: Stel je voor dat je vastzit in een modderpoel. Als je alleen maar probeert te stappen, zak je dieper. Maar als iemand een emmer water over je heen gooit of je een beetje schudt, kun je misschien loskomen. Die "ruis" breekt de perfecte symmetrie van de klonen en dwingt de AI om weer nieuwe, unieke paden te zoeken.

Conclusie

Deze paper leert ons dat voor AI om echt "levenslang" te kunnen leren (net als mensen), we niet alleen moeten kijken naar hoe goed ze een taak uitvoeren, maar ook naar hoe flexibel ze blijven.

Als we AI te veel laten "optimaliseren" voor de huidige situatie, verliezen ze hun vermogen om zich aan te passen aan de toekomst. De oplossing is om bewust een beetje chaos (ruis) en balans (normalisatie) in het systeem te houden, zodat ze nooit volledig vastlopen in hun eigen succes.

Kortom: Om altijd nieuw te kunnen leren, moet je soms je oude, perfecte ordening durven verstoren.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →