veScale-FSDP: Flexible and High-Performance FSDP at Scale

Das Paper stellt veScale-FSDP vor, ein neu gestaltetes FSDP-System, das durch die Kombination eines flexiblen Sharding-Formats namens RaggedShard mit einem strukturbewussten Planungsalgorithmus sowohl blockweise Quantisierung als auch nicht-elementweise Optimierer unterstützt und dabei im Vergleich zu bestehenden Systemen einen höheren Durchsatz sowie eine geringere Speichernutzung bei der Skalierung auf Zehntausende von GPUs erreicht.

Zezhou Wang, Youjie Li, Zhiqi Lin, Jiacheng Yang, Cong Xie, Guanyu Feng, Zheng Zhong, Ziyue Huang, Hongyu Zhu, Zhi Zhang, Yanghua Peng, Xin Liu

Veröffentlicht 2026-03-02
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie wollen ein riesiges Puzzle bauen, das so groß ist, dass es den gesamten Erdball bedecken würde. Ein einzelner Mensch (oder ein einzelner Computer) könnte das niemals allein schaffen. Also mieten Sie Tausende von Helfern (Grafikprozessoren oder GPUs), die alle gleichzeitig an verschiedenen Teilen des Puzzles arbeiten.

Das ist im Grunde das, was beim Trainieren von künstlicher Intelligenz (KI) passiert. Die KI-Modelle sind heute so riesig, dass sie auf keinen einzelnen Computer passen. Man muss sie also zerschneiden und auf viele Computer verteilen.

Das Problem: Der alte Ansatz war zu starr
Bisher gab es eine beliebte Methode namens "FSDP" (Fully Sharded Data Parallel). Stellen Sie sich das wie ein Team von Köchen vor, die einen riesigen Kuchen backen. Die alte Methode teilte den Kuchen in exakt gleiche, kleine Stücke auf, egal wie der Kuchen eigentlich aussah.

  • Das Problem: Wenn der Kuchen aus verschiedenen Schichten besteht (z. B. eine Schicht Schokolade, eine Schicht Vanille), und Sie schneiden ihn blind in gleich große Würfel, schneiden Sie mitten durch die Schichten.
  • Die Folge: Die Köche müssen ständig hin- und herrennen, um die richtigen Schichten wieder zusammenzufügen. Das kostet Zeit (Verlangsamung) und Platz in der Küche (Speicherverbrauch).
  • Das neue Problem: Moderne KI-Modelle sind wie komplexe Maschinen mit speziellen Teilen. Manche brauchen ganze Blöcke (wie ein ganzer Schokoladenturm), andere brauchen spezielle Werkzeuge, die nur auf ganzen Blöcken funktionieren. Die alten Köche konnten diese speziellen Teile nicht richtig handhaben, ohne den Kuchen zu zerstören oder den Prozess extrem kompliziert zu machen.

Die Lösung: veScale-FSDP
Die Forscher von ByteDance haben eine neue Methode namens veScale-FSDP entwickelt. Man kann sich das wie einen intelligenten Küchenchef vorstellen, der nicht stur nach dem Lineal schneidet, sondern kreativ und effizient arbeitet.

Hier sind die drei genialen Tricks, die sie verwendet haben:

1. Der "RaggedShard" (Der flexible Schnitt)

Stellen Sie sich vor, statt den Kuchen in gleich große Würfel zu schneiden, erlaubt der neue Chef den Köchen, die Kuchenstücke so zu schneiden, wie es für den jeweiligen Teil am besten ist.

  • Die Analogie: Wenn ein Teil des Kuchens aus kleinen Marmeladestücken besteht, schneidet er kleine Quadrate. Wenn ein anderer Teil aus einem großen Schokoladenturm besteht, schneidet er den ganzen Turm als ein Stück.
  • Der Vorteil: Die Köche müssen nicht mehr ständig Teile hin- und herschieben, um sie zusammenzufügen. Sie arbeiten direkt mit den Blöcken, die sie brauchen. Das macht das Training von speziellen KI-Modellen (wie denen, die in modernen Apps wie Gemini oder Kimi K2 stecken) endlich möglich, ohne den Code der KI kaputtzumachen.

2. Der "Planer" (Der Logistik-Experte)

Wenn man Tausende von Köchen hat, muss man genau planen, wer was macht, damit niemand im Weg steht.

  • Das Problem: Wenn man die Kuchenstücke einfach wild durcheinander in die Transportboxen (den Arbeitsspeicher) packt, entstehen Lücken und Chaos.
  • Die Lösung: veScale-FSDP nutzt einen super-smarten Planer (einen Algorithmus). Dieser Planer berechnet im Vorhinein die perfekte Anordnung. Er sortiert die Kuchenstücke so, dass sie perfekt in die Boxen passen, ohne dass viel leerer Raum (Padding) entsteht.
  • Das Ergebnis: Die Transportwege werden kürzer, und die Küche läuft wie am Schnürchen. Dieser Planer löst eine mathematische Aufgabe, die normalerweise Jahre dauern würde, in Sekunden.

3. Der "DBuffer" (Der gemeinsame Vorratsraum)

Statt dass jeder Koch sein eigenes Messer und jeden eigenen Teller benutzt, gibt es jetzt einen riesigen, gemeinsamen Vorratsraum (den "Distributed Buffer").

  • Die Analogie: Früher musste jeder Koch sein Stück Kuchen erst auf seinen Teller legen, dann zum anderen Koch rennen, es ihm geben, und der andere musste es wieder auf seinen Teller legen. Das war langsam.
  • Die Lösung: Mit dem neuen Vorratsraum greifen alle Köche direkt auf die richtige Stelle im gemeinsamen Raum zu. Es gibt kein "Hin- und Hertragen" mehr. Das spart enorm viel Zeit und Platz.

Was bringt das alles?
Dank dieser neuen Methode passiert Folgendes:

  • Geschwindigkeit: Die KI wird 5 % bis 66 % schneller trainiert. Das ist, als würde ein Zug, der vorher 100 km/h fuhr, plötzlich 160 km/h erreichen.
  • Platz: Es wird 16 % bis 30 % weniger Speicher benötigt. Das ist, als würde man in einem vollen Bus plötzlich 30 % mehr Platz haben, ohne neue Sitze einzubauen.
  • Skalierbarkeit: Das System funktioniert jetzt reibungslos mit zehntausenden von Computern gleichzeitig. Früher brach das System bei so vielen Helfern oft zusammen oder wurde ineffizient.

Zusammenfassung für den Alltag:
Stellen Sie sich vor, Sie organisieren eine riesige Party mit 10.000 Gästen.

  • Die alte Methode: Jeder Gast bekommt ein genau gleich großes Stück Pizza, egal ob er Hunger hat oder nicht. Die Pizza wird oft falsch geschnitten, und die Kellner rennen im Kreis, um die richtigen Stücke zu finden.
  • veScale-FSDP: Ein genialer Gastgeber teilt die Pizza so auf, dass jeder genau das bekommt, was er braucht (ganze Stücke, halbe Stücke, spezielle Beläge). Er plant die Reihenfolge der Servierung so perfekt, dass niemand warten muss, und nutzt den Raum im Restaurant so effizient, dass alle bequem sitzen können.

Das Ergebnis: Die Party (das KI-Training) läuft schneller, kostet weniger (weniger Speicher) und kann mit viel mehr Leuten (mehr Computern) gefeiert werden.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →