Understanding the Interplay between LLMs' Utilisation of Parametric and Contextual Knowledge: A keynote at ECIR 2025

Diese Keynote-Präsentation für ECIR 2025 untersucht das Zusammenspiel zwischen parametrischem und kontextuellem Wissen in Sprachmodellen, wobei der Fokus auf der Diagnose von Wissenskonflikten und der Bewertung liegt, wie Modelle kontextuelle Informationen nutzen oder ignorieren.

Isabelle Augenstein

Veröffentlicht Wed, 11 Ma
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

🧠 Der große Kampf im Kopf der KI: Was weiß sie wirklich?

Stell dir vor, eine große Sprach-KI (ein sogenanntes LLM) ist wie ein extrem gut gebildeter, aber manchmal sturer Schüler. Dieser Schüler hat in seiner Schulzeit (dem Training) riesige Mengen an Wissen aus Büchern und dem Internet auswendig gelernt. Dieses Wissen sitzt fest in seinem Gehirn – wir nennen das parametrisches Wissen.

Aber das Leben ändert sich! Fakten werden aktualisiert, neue Entdeckungen gemacht, und manchmal war der Schüler auch einfach falsch informiert. Wenn wir dem Schüler heute eine Frage stellen, passiert oft Folgendes: Wir geben ihm ein neues Buch (den Kontext) mit, das die korrekte, aktuelle Antwort enthält.

Das Problem? Der Schüler ignoriert das neue Buch oft einfach, weil er so fest an das glaubt, was er schon auswendig gelernt hat. Oder schlimmer noch: Er ist sich selbst nicht sicher, weil er in seinem alten Gedächtnis widersprüchliche Informationen hat.

In ihrem Vortrag erklärt Isabelle Augenstein genau dieses Durcheinander und wie wir es verstehen können. Hier sind die vier wichtigsten Punkte, einfach erklärt:

1. Wo sitzt das Wissen eigentlich? (Die Suche nach dem "Wissens-Schalter")

Früher dachten Forscher, das Wissen einer KI stecke in bestimmten Neuronen (den "Gehirnzellen") wie in einem Schrank. Man könnte also sagen: "Schalte Neuron 42 aus, und die KI vergisst, wer der Präsident ist."

Die neue Erkenntnis: Das ist nicht so einfach. Es ist eher so, als würde man versuchen, ein Rezept zu finden, indem man einzelne Zutaten aus der Küche wirft. Die Forscher haben herausgefunden, dass das Wissen viel diffuser verteilt ist. Wenn man versucht, das Wissen nur durch das "Ausschalten" bestimmter Neuronen zu ändern, passiert oft gar nichts. Das Wissen ist eher wie ein Gewebe, das sich durch das ganze Gehirn zieht, als wie einzelne, isolierte Schalter.

2. Der Streit im Kopf: Alte Gewohnheiten vs. Neue Fakten

Manchmal ist der Schüler nicht nur stur, sondern auch verwirrt.

  • Der innere Konflikt: Der Schüler hat in seinem alten Gedächtnis zwei widersprüchliche Fakten (z. B. "Die Hauptstadt ist X" und "Die Hauptstadt ist Y"). Das nennt man Intra-Gedächtnis-Konflikt. Er ist unsicher und zittert bei der Antwort.
  • Der äußere Konflikt: Wir geben ihm ein neues Buch (Kontext), das sagt: "Die Hauptstadt ist Z!" Aber der Schüler sagt: "Nein, in meinem alten Buch stand X!" Das nennt man Kontext-Gedächtnis-Konflikt.

Die überraschende Entdeckung: Man dachte, der Schüler würde sich bei wichtigen, sich ändernden Fakten (wie "Wer ist der aktuelle Premierminister?") eher auf das neue Buch verlassen. Aber das Gegenteil ist der Fall!
Der Schüler ist bei statischen, sich nie ändernden Fakten (wie "Wie viele Beine hat eine Spinne?") viel leichter zu überreden, das neue Buch zu akzeptieren. Bei dynamischen Fakten, die sich oft ändern, hält er stur an seinem alten, oft falschen Wissen fest. Er ist also bei "einfachen" Fakten überraschend leichtgläubig, aber bei "aktuellen" Nachrichten stur.

3. Der Lese-Spion (RAG): Wann liest die KI wirklich nach?

Um das Problem zu lösen, nutzen wir oft RAG (Retrieval-Augmented Generation). Das ist wie ein Assistent, der für den Schüler schnell im Internet nachschaut, bevor er antwortet.
Die Forscher haben untersucht: Wann liest der Schüler den Zettel des Assistenten wirklich, und wann ignoriert er ihn?

  • Der "Klartext"-Effekt: Wenn der Zettel des Assistenten sehr direkt, selbstbewusst und klar geschrieben ist ("Das ist so und so!"), liest der Schüler ihn gerne.
  • Der "Quellen"-Effekt: Wenn der Zettel nur sagt "Laut Quelle X...", ist der Schüler weniger beeindruckt.
  • Die Längen-Falle: Wenn der Zettel zu lang ist, wird der Schüler ungeduldig und liest ihn nicht mehr ganz.
  • Die Realität: Viele Tests mit künstlichen Daten haben gezeigt, dass KIs super sind, Kontext zu nutzen. Aber in der echten Welt ist das viel schwieriger. Die KIs sind oft noch zu stur oder zu unkonzentriert, um das neue Wissen wirklich zu integrieren.

4. Die große Lektion: Wir müssen neu lernen, wie wir fragen

Der Vortrag endet mit einer wichtigen Botschaft: Wir denken oft, KI sei wie ein allwissender Gott, der einfach "denkt". Aber in Wirklichkeit ist sie eher wie ein Mensch, der viel auswendig gelernt hat, aber schlecht im logischen Schlussfolgern ist.

  • Sie kann Fakten perfekt zitieren (wie ein Papagei), aber sie versteht sie nicht immer.
  • Wir müssen lernen, dass wir nicht einfach nur "mehr Kontext" geben müssen, sondern dass wir verstehen müssen, wie die KI diesen Kontext verarbeitet.

Das Fazit in einem Bild:
Stell dir die Forschung wie das Aufsteigen einer Schnecke vor (ein Zitat von Karen Spärck Jones, die hier geehrt wurde). Wir drehen uns vielleicht im Kreis und sehen alte Probleme wieder, aber jedes Mal sind die Werkzeuge besser und die Kleidung, die wir tragen, passt besser. Wir steigen nicht im Kreis herum, sondern auf einer Spirale nach oben. Wir verstehen die KI langsam besser, auch wenn sie uns noch viele Fragen stellt.


Zusammengefasst: Die KI ist ein starker, aber manchmal sturer Schüler. Sie ignoriert manchmal neue Informationen, weil sie an alten (und manchmal falschen) Gewohnheiten festhält. Um sie besser zu machen, müssen wir verstehen, wann sie zuhört und warum sie manchmal den Kopf schüttelt. Es ist ein langer Weg, aber wir machen Fortschritte!