Identifying and Evaluating Inactive Heads in Pretrained LLMs

Diese Studie identifiziert und bewertet inaktive Aufmerksamkeitsköpfe in vortrainierten großen Sprachmodellen, indem sie zwölf Bewertungsfunktionen analysiert und zeigt, dass mehr als 12 % dieser Köpfe durchschnittlich inaktiv sind und entfernt werden können, ohne die Modellleistung signifikant zu beeinträchtigen.

Pedro Sandoval-Segura, Xijun Wang, Ashwinee Panda, Micah Goldblum, Ronen Basri, Tom Goldstein, David Jacobs

Veröffentlicht 2026-03-03
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Titel: Die schlafenden Wachen im Gehirn der KI

Stell dir vor, ein großes Sprachmodell (eine KI wie wir sie heute kennen) ist wie ein riesiges, hochmodernes Büro mit 1.000 Mitarbeitern (den sogenannten "Attention Heads"). Jeder dieser Mitarbeiter hat eine spezielle Aufgabe: Er soll im Text, den die KI liest, die wichtigsten Informationen herausfiltern und sie an das Team weitergeben.

Die Wissenschaftler in diesem Papier haben sich gefragt: Machen wirklich alle 1.000 Mitarbeiter wirklich etwas? Oder schlafen einige von ihnen nur herum?

Das Problem: Der "Türsteher", der niemanden reinlässt

Früher glaubten Forscher, sie könnten die schlafenden Mitarbeiter leicht erkennen. Sie schauten sich an, wem die Mitarbeiter am meisten Aufmerksamkeit schenkten. Oft sahen sie, dass ein Mitarbeiter nur auf das allererste Wort im Satz starrte (wie ein Türsteher, der nur auf den ersten Besucher achtet, egal ob dieser wichtig ist oder nicht).

Die Forscher nannten das "Attention Sinks" (Aufmerksamkeits-Senken). Wenn ein Mitarbeiter nur auf das erste Wort starrt, dachten sie: "Der macht gar nichts, er ist inaktiv!"

Aber hier kommt der Haken:
Stell dir vor, ein Mitarbeiter starrt zwar auf das erste Wort, aber das erste Wort ist ein leeres Blatt Papier (es hat keinen Inhalt). Dann ist das Ergebnis seiner Arbeit auch ein leeres Blatt.
Oder: Ein Mitarbeiter schaut auf fünf verschiedene Wörter, aber alle diese Wörter sind ebenfalls leere Blätter. Auch hier ist das Ergebnis null.

Die alten Methoden haben nur geschaut, worauf die Mitarbeiter starrten. Aber sie haben nicht geschaut, was sie am Ende herausgebracht haben.

Die neue Methode: Was kommt wirklich raus?

Die Autoren dieses Papers haben einen cleveren Trick angewendet. Statt nur zu fragen: "Worauf schaust du?", fragten sie: "Was hast du am Ende in der Hand?"

Sie haben 12 verschiedene Messwerkzeuge entwickelt, um zu prüfen, ob ein Mitarbeiter wirklich arbeitet. Das beste Werkzeug war ganz einfach: Wie groß ist das Ergebnis, das der Mitarbeiter liefert?

  • Die alte Methode (Nur auf das erste Wort schauen): Hatte oft das falsche Bild. Sie dachte, viele Mitarbeiter seien wach, obwohl sie eigentlich nur leere Ergebnisse lieferten.
  • Die neue Methode (Auf das Ergebnis schauen): Hatte gezeigt, dass viele Mitarbeiter, die wach zu sein schienen, eigentlich nur "Luft" produzieren.

Das Experiment: Die "Ausschalt-Test"

Um sicherzugehen, haben die Forscher ein riesiges Experiment gemacht. Sie haben in verschiedenen KI-Modellen (Llama, OLMo, Qwen) genau diese "schlafenden" Mitarbeiter identifiziert und sie vorübergehend ausgeschaltet (ihre Ergebnisse auf Null gesetzt).

Das Ergebnis war verblüffend:

  • Im Durchschnitt konnten sie über 12 % aller Mitarbeiter einfach aus dem Büro werfen, ohne dass die KI schlechter wurde.
  • Die KI konnte immer noch genauso gut Fragen beantworten (wie in einem großen Test namens MMLU), als wären alle Mitarbeiter da.
  • Wenn sie nur die alten Methoden benutzt hätten, wären sie nur auf unter 5 % gekommen. Sie hätten also übersehen, dass noch viel mehr "Luft" im System ist.

Was bedeutet das für die Zukunft?

  1. Effizienz: Stell dir vor, du müsstest nicht mehr 1.000 Mitarbeiter bezahlen, sondern nur noch 880, weil 120 eh nur herumstehen. Das spart enorm viel Strom und Rechenleistung.
  2. Stabilität: Die Forscher haben auch gesehen, dass das "Schlafen" der Mitarbeiter sehr stabil ist. Ob man die KI weiter trainiert oder anpasst (Fine-Tuning), ändert daran kaum etwas. Die schlafenden Wachen bleiben schlafen.
  3. Größe spielt eine Rolle: Bei sehr großen Modellen (14 Milliarden Parameter) fangen die Mitarbeiter an, sich zu spezialisieren. Bei kleineren Modellen sind sie sich alle sehr ähnlich.

Zusammenfassung in einer Metapher

Stell dir die KI wie einen Orchester vor.
Die alten Forscher haben geglaubt, sie könnten die stummen Musiker erkennen, indem sie schauen, wer auf das erste Instrument im Takt schlägt.
Die neuen Forscher haben aber auf die Lautstärke geachtet. Sie haben festgestellt: Viele Musiker spielen zwar, aber so leise, dass man sie gar nicht hört. Wenn man diese leisen Spieler einfach aussetzt, klingt das Orchester immer noch perfekt, und man spart sich den Platz für die Instrumente.

Fazit: In den großen KI-Modellen schlafen viel mehr Mitarbeiter, als wir dachten. Und wir können sie jetzt viel besser finden, indem wir nicht auf ihre Augen (Aufmerksamkeit), sondern auf ihre Hände (Ergebnisse) schauen.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →