Resource-Efficient Iterative LLM-Based NAS with Feedback Memory

Die Autoren stellen eine ressourceneffiziente, iterative Neural-Architecture-Search-Methode vor, die große Sprachmodelle mit einem speicherbasierten Feedback-Mechanismus kombiniert, um auf einer einzelnen Consumer-GPU ohne Feinabstimmung der Modelle kompakte und leistungsfähige Bildklassifizierungsarchitekturen zu entwerfen.

Xiaojie Gu, Dmitry Ignatov, Radu Timofte

Veröffentlicht 2026-03-13
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie möchten ein neues, hochleistungsfähiges Auto bauen, aber Sie haben keine Baupläne und kein großes Team von Ingenieuren. Stattdessen haben Sie nur einen sehr klugen, aber etwas vergesslichen Assistenten (eine Künstliche Intelligenz, genauer gesagt ein „Large Language Model" oder LLM) und eine begrenzte Menge an Geld und Zeit.

Das ist im Grunde die Geschichte dieses Forschungsprojekts. Die Wissenschaftler haben eine Methode entwickelt, wie man mit Hilfe von KI automatisch die besten neuronalen Netzwerke (die „Gehirne" für Computer) entwirft – und das alles auf einem ganz normalen Heim-Computer, ohne riesige Rechenzentren.

Hier ist die Erklärung in einfachen Worten:

1. Das Problem: Der teure Suchprozess

Normalerweise ist das Entwerfen neuer KI-Modelle wie das Suchen nach der perfekten Nadel im Heuhaufen. Frühere Methoden brauchten dafür Tausende von Grafikkarten und Monate an Zeit. Das ist für die meisten Leute unmöglich.

2. Die Lösung: Ein lernender Architekt

Die Forscher haben einen Prozess entwickelt, der wie ein iterativer Kreislauf funktioniert. Man kann sich das wie einen Schüler vorstellen, der eine Prüfung macht:

  • Der Entwurf (Code Generator): Der KI-Assistent (z. B. DeepSeek oder Qwen) versucht, den Bauplan für ein neuronales Netz zu schreiben. Es ist wie ein Architekt, der einen Entwurf auf ein Blatt Papier zeichnet.
  • Der Test (Evaluator): Dieser Entwurf wird sofort auf einem Computer getestet. Das ist wie eine schnelle Probeprüfung. Das Modell wird nur für einen Tag (einen „Epoch") trainiert, um zu sehen, ob es funktioniert.
  • Das Feedback (Prompt Improver): Hier kommt der Clou. Wenn der Entwurf scheitert (z. B. das Auto fährt nicht oder der Code crasht), wird das nicht einfach weggeworfen. Stattdessen wird genau analysiert: Was ist schiefgelaufen? Wie können wir es reparieren?

3. Das Geheimnis: Das „Gedächtnis" (Feedback Memory)

Frühere KI-Methoden haben oft nur die erfolgreichen Versuche behalten und die Fehler vergessen. Das ist, als würde ein Schüler nur die richtigen Antworten auswendig lernen, aber nie aus seinen Fehlern lernen.

Diese Methode nutzt eine spezielle Art von Gedächtnis:

  • Stellen Sie sich ein Fenster mit den letzten 5 Versuchen vor.
  • Die KI schaut sich nur diese letzten 5 Versuche an (nicht die letzten 1000).
  • Für jeden Versuch merkt sie sich: Was war das Problem? Was wurde vorgeschlagen? Was ist passiert?
  • Wenn die KI merkt, dass sie immer wieder denselben Fehler macht (z. B. „Ich habe vergessen, die Bremsen zu prüfen"), kann sie das im nächsten Schritt korrigieren.

Das ist wie ein Markov-Ketten-Spiel: Die Entscheidung für den nächsten Schritt hängt nur vom aktuellen Stand und den letzten paar Schritten ab, nicht von der gesamten Geschichte. Das hält den Prozess schnell und verhindert, dass die KI „überfordert" wird.

4. Zwei Spezialisten statt eines Alleskönners

Um die KI nicht zu überlasten, haben die Forscher sie in zwei Rollen aufgeteilt:

  1. Der Baumeister: Schreibt den eigentlichen Code für das KI-Modell.
  2. Der Kritiker: Analysiert die Fehler und sagt dem Baumeister, wie er es besser machen soll.

Da beide Rollen auf derselben kleinen Grafikkarte laufen (zusammen mit dem Training des Modells), zwingt das die KI quasi dazu, kleine, effiziente Modelle zu bauen. Große, verschwenderische Modelle passen einfach nicht in den begrenzten Speicher – die KI lernt also durch die Umstände, sparsam zu sein.

5. Die Ergebnisse: Ein Wunder auf dem Heim-PC

Die Forscher haben drei verschiedene KI-Modelle getestet. Das Ergebnis war beeindruckend:

  • Auf einem ganz normalen Heim-PC (einer NVIDIA RTX 4090 Grafikkarte) konnten sie in nur 18 Stunden (das sind etwa 18 Stunden reine Rechenzeit) Modelle finden, die viel besser waren als der erste Entwurf.
  • Beispiel: Ein Modell begann mit einer Genauigkeit von 28 % (wie ein Anfänger) und verbesserte sich durch diesen Lernprozess auf über 69 % (ein sehr guter Schüler).
  • Das Beste: Die KI musste dafür nicht neu trainiert werden. Sie nutzte ihr vorhandenes Wissen und lernte nur durch den Feedback-Kreislauf dazu.

Zusammenfassung

Stellen Sie sich vor, Sie haben einen sehr talentierten, aber vergesslichen Architekten. Sie geben ihm einen Stift und Papier.

  1. Er zeichnet einen Plan.
  2. Sie bauen ein kleines Modell davon und testen es.
  3. Wenn es wackelt, sagen Sie ihm nicht nur „Fehler!", sondern: „Die linke Säule war zu dünn, baue sie dicker."
  4. Er merkt sich die letzten 5 Fehler und versucht es beim nächsten Mal besser.

Nach 2000 Versuchen hat er nicht nur einen Plan, sondern einen perfekten Bauplan für ein KI-Modell erstellt – und das alles, ohne dass Sie Millionen von Dollar für Rechenleistung ausgegeben haben. Das ist die Kraft dieser neuen Methode: Lernen aus Fehlern, begrenzt durch ein kleines Gedächtnis, um effiziente Lösungen auf billigem Hardware zu finden.