Bridging Domains through Subspace-Aware Model Merging

Die Arbeit stellt SCORE vor, eine Methode zur Subraum-Konfliktlösung, die durch die Projektion von Task-Matrizen auf eine gemeinsame orthogonale Basis die Generalisierungsfähigkeit von fusionierten Modellen auf unbekannte Domänen verbessert.

Levy Chaves, Chao Zhou, Rebekka Burkholz, Eduardo Valle, Sandra Avila

Veröffentlicht 2026-03-09
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Das große Problem: Wenn Experten sich streiten

Stell dir vor, du hast einen genialen Koch (das ist das Künstliche Intelligenz-Modell). Dieser Koch hat gelernt, fantastische Gerichte zuzubereiten. Aber er hat sich auf verschiedene Arten von Zutaten spezialisiert:

  • Einmal hat er gelernt, mit frischen Bergkräutern zu kochen (Domain 1).
  • Einmal hat er gelernt, mit frischen Meeresfrüchten zu kochen (Domain 2).
  • Einmal hat er gelernt, mit exotischen Tropenfrüchten zu kochen (Domain 3).

Jeder dieser "Koch-Experten" ist in seinem Bereich perfekt. Aber was passiert, wenn du sie alle in eine große Küche bringst und sagst: "Kocht jetzt ein Gericht, das für alle Zutaten geeignet ist, auch für Dinge, die wir noch nie gesehen haben (z. B. Wüstenfrüchte)"?

Das ist das Problem des Modell-Mergings (das Zusammenführen von Modellen).

Wenn du einfach die Rezepte aller drei Köche mischst (die Parameter des KI-Modells), entsteht oft ein Chaos. Der Koch für die Meeresfrüchte sagt: "Wir brauchen viel Salz!", der Koch für die Bergkräutern sagt: "Nein, wir brauchen viel Pfeffer!", und der Koch für die Tropenfrüchte sagt: "Wir brauchen Zimt!".
Das Ergebnis ist ein ungenießbares Gericht. Die KI verliert ihr Wissen, weil sich die "Gedanken" der Experten gegenseitig blockieren.

Die alte Lösung: Einfach mitteln

Bisher haben Forscher versucht, das Problem zu lösen, indem sie einfach den Durchschnitt genommen haben (wie wenn man drei verschiedene Farben mischt und Grau daraus wird). Das funktioniert okay, wenn die Experten sehr unterschiedliche Dinge tun (z. B. einer zählt Autos, der andere zählt Hunde). Aber wenn alle Experten das gleiche Thema behandeln, nur mit unterschiedlichen Zutaten (z. B. alle zählen Autos, aber einer sieht sie im Schnee, einer in der Wüste, einer im Regen), dann funktioniert das einfache Mitteln nicht mehr. Die "Meinungen" kollidieren zu stark.

Die neue Lösung: SCORE (Der diplomatische Moderator)

Die Autoren dieses Papers haben eine neue Methode namens SCORE entwickelt. Stell dir SCORE nicht als Mischmaschine vor, sondern als einen klugen Moderator oder einen Architekten, der eine neue, gemeinsame Sprache für alle Köche findet.

Hier ist, wie SCORE funktioniert, Schritt für Schritt:

  1. Die "Wichtigsten Gedanken" finden (SVD):
    Jeder Koch hat tausende Notizen. SCORE schaut sich nur die allerwichtigsten Notizen an (die "Hauptkomponenten"). Das sind die Kerngedanken, die den Unterschied ausmachen.

  2. Ein gemeinsames Fundament bauen:
    Anstatt zu versuchen, die Notizen der Köche direkt zu mischen, baut SCORE ein neues, gemeinsames "Notizbuch" (eine orthogonale Basis). Es fragt: "Was ist das, was wir alle gemeinsam verstehen?"

  3. Den Konflikt auflösen (Das Trimmen):
    Hier kommt die Magie. Wenn ein Koch sagt "Salz" und ein anderer "Pfeffer" für denselben Schritt, entsteht ein Konflikt.

    • SCORE schaut sich an, wo die Köche einig sind (die Hauptdiagonale im Notizbuch). Diese Einigkeit behält er.
    • Aber dann schaut er auf die Streitpunkte (die Ecken des Notizbuchs, wo sich die Meinungen kreuzen). Wenn diese Streitpunkte zu laut oder zu chaotisch sind (wie ein lautes Schreien im Raum), schneidet SCORE sie einfach ab (trimmt sie).
    • Er behält nur die leisen, konstruktiven Vorschläge bei, die nicht den Frieden stören.

Warum ist das so cool?

Stell dir vor, du hast eine KI, die gelernt hat, Autos im Schnee zu erkennen, und eine andere, die Autos im Sand erkennt.

  • Ohne SCORE: Die KI wird verwirrt. Sie sieht ein Auto im Schnee und denkt: "Ist das Schnee oder Sand?", weil die beiden Modelle sich im Weg stehen.
  • Mit SCORE: Die KI hat gelernt, das Wesentliche (das Auto) zu erkennen, ohne sich von den spezifischen Details (Schnee vs. Sand) ablenken zu lassen. Sie wird dadurch robuster. Sie kann auch Autos im Regen oder in der Wüste erkennen, obwohl sie diese Szenen nie explizit gelernt hat.

Das Ergebnis

Die Forscher haben das an vielen verschiedenen Aufgaben getestet (von medizinischen Bildern bis zu alltäglichen Fotos).

  • SCORE war immer besser als die alten Methoden.
  • Es war sogar besser als wenn man alle Köche einzeln fragt und dann das Ergebnis zusammenzählt (was viel mehr Rechenleistung kostet).
  • Es funktioniert mit großen und kleinen KI-Modellen.

Zusammenfassend:
SCORE ist wie ein genialer Diplomat, der verhindert, dass die Experten in einer KI-Gruppe sich gegenseitig aus dem Weg gehen. Er findet den gemeinsamen Nenner, schneidet den unnötigen Lärm weg und sorgt dafür, dass die KI nicht nur in einer einzigen Situation gut ist, sondern überall dort, wo sie gebraucht wird – auch in Situationen, die sie noch nie gesehen hat.