Each language version is independently generated for its own context, not a direct translation.
Titel: Warum Multimodale KI mehr Strom frisst – und wie wir sie schlauer machen können
Stellen Sie sich vor, Sie haben einen sehr klugen, aber hungrigen Koch (die Künstliche Intelligenz), der Ihnen Rezepte (Antworten) schreibt.
In der Vergangenheit hat dieser Koch nur Text gelesen. Wenn Sie ihm sagten: „Schreib mir ein Gedicht über einen Hund", hat er das schnell erledigt und dabei nicht viel Energie verbraucht.
Aber heute wollen wir mehr. Wir wollen, dass er Bilder sieht, bevor er schreibt. Sie schicken ihm ein Foto eines Hundes und fragen: „Was macht dieser Hund?" Das ist wie bei einem Multimodalen Large Language Model (MLLM).
Das Problem, das die Forscher in diesem Papier untersucht haben, nennen sie „Modality Inflation" (auf Deutsch etwa: Modus-Aufblähung). Hier ist die einfache Erklärung, was dabei passiert und warum es Strom kostet:
1. Das Problem: Der „Vorbereitungs-Koch" und der riesige Teller
Wenn Sie dem Koch nur Text geben, ist es einfach. Aber wenn Sie ein Bild schicken, passiert Folgendes:
- Der Bild-Übersetzer (Vision Encoder): Der Koch kann Bilder nicht direkt verstehen. Er braucht einen speziellen Assistenten (den Vision Encoder), der das Bild in eine Sprache übersetzt, die der Koch versteht. Dieser Assistent muss das Bild in viele kleine Puzzleteile zerlegen. Das kostet extra Zeit und Strom.
- Der riesige Teller (Token-Explosion): Das ist der wichtigste Teil. Ein Text ist wie eine kurze Einkaufsliste. Ein Bild wird aber von dem Assistenten in Hunderte oder sogar Tausende von kleinen Wörtern (Tokens) zerlegt, die das Bild beschreiben.
- Die Analogie: Stellen Sie sich vor, Sie bestellen ein Sandwich. Bei Text ist es wie eine kurze Bestellung: „Brot, Käse, Wurst". Bei einem Bild ist es, als würde der Assistent das Bild in 3.000 einzelne Krümel zerlegen und dem Koch sagen: „Hier sind 3.000 Krümel, aus denen das Bild besteht."
- Der Koch muss nun nicht nur das Sandwich machen, sondern erst diese 3.000 Krümel sortieren und auf einen riesigen Teller legen, bevor er überhaupt anfangen kann zu kochen. Dieser riesige Teller braucht mehr Platz (Speicher) und mehr Kraft, um ihn zu bewegen.
2. Was die Forscher herausgefunden haben
Die Forscher haben vier verschiedene KI-Modelle getestet und gemessen, wie viel Strom sie verbrauchen.
- Der enorme Unterschied: Je nachdem, wie der KI-Koch aufgebaut ist, kann das Hinzufügen eines Bildes den Stromverbrauch um 17 % bis 94 % erhöhen! Das ist wie der Unterschied zwischen einem sparsamen Elektroauto und einem alten Geländewagen.
- Zwei Arten von „Stromfressern":
- Der schwere Assistent: Bei manchen Modellen ist der Bild-Übersetzer so schwer und langsam, dass er den meisten Strom frisst, noch bevor der Koch überhaupt anfängt.
- Der riesige Teller: Bei anderen Modellen ist der Übersetzer schnell, aber er erzeugt so viele Puzzleteile (Tokens), dass das Sortieren dieser Teile (die Prefill-Phase) den Koch völlig erschöpft.
3. Der Stromverbrauch ist nicht gleichmäßig
Ein wichtiger Punkt: Der Stromverbrauch ist nicht konstant.
- Wenn der Koch nur Text liest, läuft er auf Hochtouren (hoher Stromverbrauch), aber sehr schnell.
- Bei Bildern gibt es eine Phase, in der der Assistent das Bild verarbeitet. Dabei läuft der Koch oft nur im „Schleichgang" (mittlere Stromlast), aber für eine sehr lange Zeit.
- Die Metapher: Es ist wie beim Autofahren. Text ist wie eine Autobahnfahrt: schnell und mit konstantem Tempo. Bilder sind wie eine Fahrt durch eine Stadt mit vielen Stoppschildern und langen Wartezeiten an Ampeln. Das Auto läuft zwar nicht immer auf Vollgas, aber der Motor läuft lange im Leerlauf oder im niedrigen Gang, was ineffizient ist.
4. Die Lösung: Intelligente Geschwindigkeitsregelung (DVFS)
Die Forscher haben eine clevere Idee gefunden, um Strom zu sparen: Dynamische Geschwindigkeitsanpassung.
Stellen Sie sich vor, der Koch hat einen Regler für seine Arbeitsgeschwindigkeit.
- Wenn er nur Text liest, dreht er die Geschwindigkeit hoch, um schnell fertig zu werden.
- Wenn er aber die 3.000 Bild-Krümel sortiert (die Prefill-Phase), muss er nicht so schnell sein. Er kann die Geschwindigkeit etwas herunterdrehen.
- Wenn er dann das eigentliche Rezept schreibt (die Decoding-Phase), kann er wieder schneller werden.
Das Ergebnis: Wenn man die Geschwindigkeit des Kochs intelligent anpasst (je nach Aufgabe), spart man viel Strom, ohne dass der Gast (der Nutzer) einen großen Unterschied in der Wartezeit merkt.
Zusammenfassung für den Alltag
Dieses Papier sagt uns im Grunde:
- KI mit Bildern ist viel teurer in der Stromrechnung als reine Text-KI.
- Nicht alle KI-Modelle sind gleich ineffizient. Manche verschwenden mehr Energie als andere, je nachdem, wie sie Bilder verarbeiten.
- Wir müssen die KI nicht immer auf „Vollgas" laufen lassen. Wenn wir ihr erlauben, in bestimmten Phasen langsamer zu arbeiten, können wir enorme Mengen an Energie sparen.
Das Ziel ist es, in Zukunft KI-Systeme zu bauen, die nicht nur schlau sind, sondern auch „grün" und effizient, damit wir sie ohne riesige Stromrechnungen nutzen können.