Renaissance: Investigating the Pretraining of Vision-Language Encoders

Die Autoren stellen das flexible Evaluierungsframework „Renaissance" vor, um durch Meta-Analysen Best Practices für das Vortraining von Vision-Language-Encodern zu ermitteln, wobei sie zeigen, dass durch das Einfrieren großer Modellteile erhebliche Rechenressourcen gespart werden können, ohne die Downstream-Leistung zu beeinträchtigen.

Clayton Fields, Casey Kennington

Veröffentlicht 2026-02-26
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie möchten einen sehr klugen Assistenten bauen, der sowohl Bilder als auch Texte versteht. In der Welt der Künstlichen Intelligenz (KI) nennt man das „Vision-Language"-Modelle. In den letzten Jahren sind Dutzende solcher Assistenten entstanden, aber die Forscher waren sich oft nicht sicher, wie man sie am besten trainiert. Ist es besser, sie von Grund auf neu zu erziehen? Oder sollte man sie auf dem Wissen erfahrener Lehrer aufbauen? Und wie kann man das Ganze so effizient gestalten, dass man nicht die ganze Stromrechnung der Welt verbraucht?

Genau diese Fragen beantworten die Autoren Clayton Fields und Casey Kennington in ihrer Arbeit. Sie haben dafür ein neues Werkzeug namens „Renaissance" entwickelt und zwei wichtige Experimente durchgeführt.

Hier ist die Erklärung der Studie, übersetzt in eine einfache Geschichte mit ein paar kreativen Vergleichen:

1. Das Werkzeug: „Renaissance"

Bevor sie experimentierten, bauten die Autoren eine Art „Baukasten für KI-Modelle".

  • Das Problem: Bisher war es für Forscher sehr schwer, verschiedene Arten von KI-Architekturen zu testen. Es war, als müsste man für jeden neuen Versuch ein ganzes Haus neu aus Ziegelsteinen mauern, anstatt mit fertigen Modulen zu arbeiten.
  • Die Lösung (Renaissance): Sie schufen eine Software, die es erlaubt, verschiedene Bausteine (Text-Module und Bild-Module) wie Lego-Steine zusammenzuklicken. Man kann entscheiden, ob man einen „Ein-Turm"-Turm (alles in einem Block) oder einen „Zwei-Turm"-Turm (ein Turm für Bilder, einer für Text, die sich unterhalten) baut. Das macht das Experimentieren viel schneller und flexibler.

2. Experiment 1: Der „Eiserner Vorhang" (Das Einfrieren von Modulen)

Stellen Sie sich vor, Sie trainieren einen Studenten für eine Prüfung. Der Student besteht aus zwei Teilen: einem Bild-Experten und einem Text-Experten. Normalerweise lassen Sie beide den ganzen Unterricht durchlaufen, damit sie alles neu lernen. Das kostet aber extrem viel Zeit und Energie (Rechenleistung).

Die Forscher fragten sich: „Was passiert, wenn wir einen der Experten einfach 'einfrieren'?"
Das bedeutet: Der Text-Experte darf nicht mehr lernen, er behält sein altes Wissen. Nur der Bild-Experte darf sich weiterbilden (oder umgekehrt).

  • Die Überraschung: Es stellte sich heraus, dass man massiv Energie sparen kann, ohne dass der Student schlechter wird!
  • Das Ergebnis: Wenn man den Bild-Experten „einfriert" (also sein Wissen aus dem Internet nutzt und ihn nicht mehr trainiert), aber den Text-Experten weiter trainiert, funktioniert das Modell fast genauso gut wie das, das alles neu lernt.
  • Die Analogie: Es ist, als würden Sie einen erfahrenen Koch (den Bild-Experten) einstellen, der seine Rezepte schon perfekt beherrscht. Sie müssen ihm nicht beibringen, wie man Eier kocht. Sie lassen ihn einfach kochen, während Sie sich nur darauf konzentrieren, dem neuen Gehilfen (dem Text-Experten) beizubringen, wie man die Zutaten kombiniert. Das spart enorm viel Zeit und Strom.

Fazit: Man kann riesige KI-Modelle trainieren, ohne die ganze Rechenleistung zu verschwenden, indem man Teile des Modells „einfriert".

3. Experiment 2: Der Startpunkt – Text oder Bild?

Jetzt stellten sie sich eine andere Frage. Wenn man einen neuen „Ein-Turm"-Assistenten baut (der alles in einem Kopf verarbeitet), womit soll man anfangen?

  • Option A: Man nimmt ein Modell, das schon Millionen von Büchern gelesen hat (Text-Experte wie BERT).
  • Option B: Man nimmt ein Modell, das schon Millionen von Bildern gesehen hat (Bild-Experte wie ViT).
  • Option C: Man nimmt ein völlig leeres Gehirn und startet bei Null (Zufällige Gewichtung).

Die meisten Forscher dachten bisher: „Natürlich nehmen wir den Text-Experten, denn Sprache ist komplex!" oder „Den Bild-Experten, weil wir Bilder verstehen wollen!"

  • Die Überraschung: Das Ergebnis war völlig unerwartet! Der völlig leere Start (Zufall) war am besten!
  • Die Analogie: Stellen Sie sich vor, Sie wollen einen neuen Sportler aufbauen.
    • Der Text-Experte ist wie ein Marathonläufer, der versucht, Tennis zu lernen.
    • Der Bild-Experte ist wie ein Tennisspieler, der versucht, Marathon zu laufen.
    • Der zufällige Start ist wie ein junger Athlet, der noch keine Vorurteile hat.
    • Die Studie zeigte: Wenn man den Athleten von Null an trainiert, lernt er die neue Sportart (die Kombination aus Bild und Text) oft besser als jemand, der versucht, seine alten Gewohnheiten (nur Text oder nur Bild) auf die neue Aufgabe zu übertragen. Das alte Wissen war in diesem Fall eher hinderlich als hilfreich.

Fazit: Für bestimmte einfache KI-Modelle ist es oft besser, sie komplett neu zu erziehen, statt sie auf altem Wissen aufzubauen.

Warum ist das wichtig?

  1. Kosteneffizienz: Durch das „Einfrieren" können auch Forscher mit wenig Geld und schwachen Computern große Modelle trainieren.
  2. Bessere Entscheidungen: Man muss nicht blind darauf vertrauen, dass „vor-trainierte" Modelle immer besser sind. Manchmal ist ein frischer Start der klügere Weg.
  3. Offene Wissenschaft: Die Autoren versprechen, ihr Werkzeug „Renaissance" für alle verfügbar zu machen, damit andere Forscher leichter an diesen Fragen forschen können.

Zusammenfassend: Die Autoren haben gezeigt, dass man beim Training von KI-Assistenten, die Bilder und Texte verstehen, nicht immer alles neu erfinden oder alles neu lernen muss. Manchmal ist es klüger, einen Teil des Wissens festzuhalten und den Rest neu zu lernen – oder in manchen Fällen, das alte Wissen ganz wegzulassen und von vorne zu beginnen. Das spart Energie und führt oft zu besseren Ergebnissen.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →