Barriers for Learning in an Evolving World: Mathematical Understanding of Loss of Plasticity

Diese Arbeit untersucht den Verlust von Plastizität beim maschinellen Lernen durch eine dynamische Systemanalyse, die zeigt, wie Stabilitätsmechanismen, die in statischen Umgebungen vorteilhaft sind, in nicht-stationären Szenarien zu Lernbarrieren führen, und schlägt darauf basierend architektonische Anpassungen zur Abhilfe vor.

Amir Joudaki, Giulia Lanzillotta, Mohammad Samragh Razlighi, Iman Mirzadeh, Keivan Alizadeh, Thomas Hofmann, Mehrdad Farajtabar, Fartash Faghri

Veröffentlicht 2026-03-03
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

🧠 Wenn das Gehirn lernt, aber dann „einfriert": Warum KI manchmal aufhört, Neues zu lernen

Stell dir vor, du hast einen sehr talentierten Schüler. Er lernt schnell, macht gute Noten und versteht komplexe Dinge. Aber dann passiert etwas Seltsames: Sobald er eine neue Aufgabe bekommt, die ein bisschen anders ist als die alten, kann er sie nicht mehr lernen. Er wirkt stur, unflexibel und unfähig, sich anzupassen.

In der Welt der Künstlichen Intelligenz (KI) nennen Forscher dieses Phänomen „Verlust der Plastizität" (Loss of Plasticity). „Plastizität" bedeutet hier einfach die Fähigkeit, formbar und anpassungsfähig zu bleiben.

Dieses Papier von Amir Joudaki und seinem Team (von ETH Zürich und Apple) fragt sich: Warum passiert das? Und warum kann der Computer nicht einfach „aufwachen" und weiterlernen?

Die Antwort ist faszinierend und lässt sich mit ein paar einfachen Bildern erklären.


1. Das Problem: Der Schüler, der in einer Falle sitzt

Normalerweise lernen KI-Modelle durch einen Prozess namens „Gradient Descent". Stell dir vor, der Schüler steht auf einem bergigen Gelände (dem „Landschafts-Modell") und versucht, den tiefsten Punkt (die beste Lösung) zu finden. Er läuft immer bergab.

Das Problem ist: Wenn der Schüler zu lange auf demselben Berg trainiert hat, rutscht er in eine tiefe, flache Mulde hinein.

  • Die Falle: Sobald er in dieser Mulde ist, sieht es für ihn so aus, als gäbe es nirgendwohin bergab zu laufen. Der Boden ist flach. Er denkt, er sei am Ziel, aber eigentlich ist er nur in einer Sackgasse gefangen.
  • Die Folge: Wenn nun eine neue Aufgabe kommt (ein neuer Berg), kann er nicht mehr hinausklettern, um ihn zu erklimmen. Er bleibt in der Mulde stecken.

Die Forscher nennen diese Mulde einen „LoP-Manifold" (eine mathematische Falle).


2. Wie kommt man in die Falle? Zwei Hauptgründe

Das Papier identifiziert zwei Hauptmechanismen, die diesen Schüler in die Falle locken:

A. Die „Eingefrorenen" (Frozen Units)

Stell dir vor, der Schüler hat viele kleine Helfer (Neuronen) im Kopf. Manche dieser Helfer arbeiten so hart, dass sie sich komplett verausgaben.

  • Das Bild: Ein Helfer schreit so laut vor Anstrengung, dass er heiser wird und gar nichts mehr sagen kann. Er ist „eingefroren".
  • Was passiert: Wenn zu viele Helfer eingefroren sind, hat der Schüler keine Werkzeuge mehr, um neue Dinge zu verarbeiten. Er kann nur noch das tun, was er schon immer getan hat.

B. Die „Klonen" (Cloned Units)

Das ist noch verrückter. Stell dir vor, der Schüler hat 100 Helfer. Aber plötzlich merken alle, dass sie alle genau das Gleiche tun.

  • Das Bild: Es ist, als hätte der Schüler 100 Zwillinge, die alle exakt denselben Satz sagen und dieselbe Bewegung machen. Wenn einer etwas tut, tun es alle.
  • Das Problem: Obwohl er 100 Helfer hat, verhält er sich, als hätte er nur einen. Er hat seine Vielfalt verloren. Die KI wird „redundant". Sie nutzt ihre volle Kraft nicht mehr aus, sondern drückt sich in eine kleine Ecke zurück.

3. Das große Paradoxon: Was gut ist, wird zum Feind

Hier kommt der spannendste Teil der Geschichte.

Normalerweise denken wir: „Je einfacher und effizienter ein Modell ist, desto besser." KI-Forscher lieben es, wenn Modelle ihre Informationen komprimieren (z. B. wenn sie Muster erkennen und unnötiges Rauschen entfernen). Das nennt man Generalisierung.

  • Die Ironie: Genau diese Fähigkeit, Dinge effizient und einfach zu machen, ist es, die die Falle baut!
  • Die Analogie: Stell dir vor, du packst deinen Koffer für eine Reise. Du drückst die Kleidung so fest zusammen, dass sie perfekt passt (Kompression). Aber wenn du dann plötzlich einen neuen, riesigen Gegenstand (eine neue Aufgabe) in den Koffer packen musst, passt er nicht mehr rein, weil du alles zu fest zusammengedrückt hast.

Die KI lernt also so gut auf den alten Aufgaben, dass sie ihre Flexibilität für die neuen Aufgaben opfert. Sie wird zu starr.


4. Wie befreit man den Schüler? (Die Lösung)

Wenn der Schüler in der Mulde sitzt, reicht es nicht, ihn einfach weiter zu bitten, „bergab" zu laufen. Er muss erst einmal aus der Mulde herausgehoben werden.

Die Forscher haben zwei Methoden gefunden, die helfen:

  1. Rauschen (Noise Injection):

    • Das Bild: Stell dir vor, du schüttelst den Schüler leicht, während er in der Mulde sitzt. Ein kleiner Stoß reicht, damit er über den Rand der Mulde rollt und wieder auf das offene Gelände kommt.
    • In der KI: Man fügt dem Lernprozess absichtlich ein bisschen „Störung" oder Zufall hinzu. Das bricht die starre Struktur auf und erlaubt dem Modell, wieder neue Wege zu finden.
  2. Dropout (Das Weglassen):

    • Das Bild: Wenn alle 100 Zwillinge denselben Satz sagen, schickst du plötzlich 50 von ihnen nach Hause. Die verbleibenden 50 müssen sich jetzt neu organisieren und vielleicht andere Sätze finden.
    • In der KI: Man schaltet während des Trainings zufällig einige Helfer aus. Das zwingt die verbleibenden Helfer, sich anzupassen und verhindert, dass sie alle in die gleiche „Klon-Falle" tappen.

Zusammenfassung für den Alltag

  • Das Problem: KI-Modelle werden mit der Zeit starr und können keine neuen Dinge mehr lernen, obwohl sie früher super waren.
  • Der Grund: Sie geraten in eine mathematische Falle, in der sie entweder „eingefroren" sind oder sich in unnötigen Klonsystemen wiederholen.
  • Die Ursache: Ihr eigener Wunsch, Dinge effizient und einfach zu machen, führt dazu, dass sie ihre Flexibilität verlieren.
  • Die Lösung: Man muss sie absichtlich „erschüttern" (durch Rauschen oder das Weglassen von Teilen), damit sie aus ihrer Starre aufwachen und wieder lernfähig werden.

Warum ist das wichtig?
Damit wir in Zukunft KI-Systeme bauen können, die nicht nur für eine Aufgabe trainiert sind, sondern wie echte Menschen ein Leben lang lernen und sich an eine sich ständig verändernde Welt anpassen können. Ohne diese Erkenntnis würden unsere KI-Assistenten nach einer Weile einfach „dumm" werden, wenn sich die Welt um sie herum ändert.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →