A Systematic Study of Pseudo-Relevance Feedback with LLMs

Diese Studie analysiert systematisch den Einfluss von Feedback-Quelle und Feedback-Modell auf die Wirksamkeit von Pseudo-Relevance-Feedback mit großen Sprachmodellen und zeigt, dass die Wahl des Feedback-Modells entscheidend ist, wobei LLM-generierter Text die kosteneffizienteste Lösung darstellt, während Korpus-basiertes Feedback bei starken Erststufen-Retrievern am vorteilhaftesten ist.

Nour Jedidi, Jimmy Lin

Veröffentlicht Thu, 12 Ma
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie suchen in einer riesigen Bibliothek nach einem Buch, aber Sie können Ihre Suchanfrage nur sehr ungenau formulieren. Vielleicht sagen Sie nur „Buch über Weltraum", obwohl Sie eigentlich eine spezifische Biografie über einen Astronauten suchen.

Pseudo-Relevance Feedback (PRF) ist wie ein intelligenter Bibliothekar, der Ihnen hilft, Ihre Suchanfrage zu verbessern. Er schaut sich die ersten paar Bücher an, die er Ihnen zeigt (die er für relevant hält), und sagt: „Ah, Sie suchen eigentlich nach diesem, jenem und jenem Detail!" und fügt diese neuen Begriffe zu Ihrer Suche hinzu.

In dieser neuen Studie haben die Forscher Nour Jedidi und Jimmy Lin untersucht, wie man diesen Bibliothekar mit Künstlicher Intelligenz (KI) – genauer gesagt mit großen Sprachmodellen (LLMs) – noch besser macht. Sie haben zwei Hauptfragen gestellt, die sie wie zwei verschiedene Werkzeuge betrachten:

  1. Woher kommt das Wissen? (Der „Feedback-Quell-Ort")
  2. Wie wird dieses Wissen genutzt? (Das „Feedback-Modell")

Hier ist die einfache Erklärung ihrer Entdeckungen, gemischt mit ein paar kreativen Vergleichen:

1. Die zwei Hauptwerkzeuge: Die Quelle und der Koch

Stellen Sie sich die KI-Suche wie das Kochen eines Gerichts vor.

  • Die Feedback-Quelle (Die Zutaten):

    • Option A: Die echte Bibliothek (Korpus). Der Bibliothekar sucht in den echten Büchern nach Hinweisen. Das ist wie das Sammeln von echten, frischen Zutaten aus dem Garten.
    • Option B: Die KI-Erfindung (LLM). Der Bibliothekar schließt die Augen und erfindet eine Geschichte, die wie eine Antwort klingt, ohne in echten Büchern zu suchen. Das ist wie das Erschaffen einer imaginären, perfekten Speisekarte aus dem Kopf.
    • Option C: Eine Mischung. Man nimmt beides.
  • Das Feedback-Modell (Der Koch):

    • Wie verarbeitet der Bibliothekar die Informationen? Nimmt er einfach alles und wirft es in einen Topf (einfaches Zusammenfügen)? Oder mischt er die Zutaten sorgfältig ab, gewichtet sie und kocht sie nach einem genauen Rezept (komplexe Algorithmen wie Rocchio)?

2. Was haben die Forscher herausgefunden?

Die Studie hat gezeigt, dass man nicht einfach „KI" sagen und fertig ist. Die Art und Weise, wie man die Zutaten mischt, ist entscheidend.

A. Der Koch ist wichtiger als man denkt (Feedback-Modell)

Wenn die KI die Zutaten selbst erfindet (Option B), ist es extrem wichtig, wie man sie verarbeitet.

  • Die Analogie: Wenn Sie einen genialen, aber chaotischen Koch haben, der fantastische Zutaten erfindet, aber alles einfach wild durcheinanderwirft, wird das Essen schmecken. Aber wenn Sie einen Koch haben, der diese Zutaten sorgfältig abwiegt und kombiniert (der „Rocchio"-Algorithmus), wird das Gericht ein Meisterwerk.
  • Ergebnis: Bei komplexen Suchmaschinen (dichten Retrievalern) macht die Wahl des „Koch-Rezepts" einen riesigen Unterschied. Ein einfaches Mischen reicht oft nicht; man braucht ein intelligentes Rezept.

B. Fake-Zutaten vs. Echte Zutaten (Feedback-Quelle)

Hier wird es spannend. Sollte der Bibliothekar in echten Büchern suchen oder sich Dinge ausdenken?

  • Die einfache Lösung: Oft ist es am besten und schnellsten, wenn die KI sich einfach eine perfekte Antwort ausdenkt (Option B). Es ist wie ein Traum: Schnell, billig und oft sehr gut.
  • Die teure Lösung: Echte Bücher aus der Bibliothek zu durchsuchen (Option A) ist nur dann besser, wenn der Bibliothekar sehr gut darin ist, die richtigen Bücher zuerst zu finden. Wenn er schlechte Bücher aussucht, bringt das Suchen in der echten Bibliothek nichts.
  • Der Kompromiss: Wenn man die echte Bibliothek nutzt, muss man sehr viele Bücher prüfen, um gute Zutaten zu finden. Das kostet aber viel Zeit (Latenz). Die KI-Erfindung ist oft der „Sweet Spot" zwischen Geschwindigkeit und Qualität.

C. Die Kombination: 1 + 1 = 3?

Kombiniert man echte Bücher und KI-Erfindungen, wird es dann noch besser?

  • Bei dichten Suchmaschinen: Ja! Es ist wie ein Duett. Man nimmt die KI-Idee und fügt echte Fakten aus der Bibliothek hinzu. Das funktioniert am besten, wenn man beide Quellen getrennt vorbereitet und dann zusammenfügt.
  • Bei einfachen Suchmaschinen (BM25): Hier ist es komplizierter. Manchmal hilft die Kombination, aber nur, wenn die echten Bücher von einem sehr starken Sucher stammen. Oft reicht es, einfach die KI-Erfindung zu nutzen, es sei denn, man hat einen super-effizienten Sucher, der die besten echten Bücher findet.

3. Das Preis-Leistungs-Verhältnis (Geschwindigkeit)

Die Forscher haben auch gemessen, wie lange alles dauert.

  • Die KI-Erfindung (HyDE) ist wie ein Blitz. Sie ist extrem schnell, weil sie keine echten Bücher durchsuchen muss.
  • Die Suche in echten Büchern ist wie eine Wanderung durch einen riesigen Wald. Je mehr Bücher man prüfen muss, desto länger dauert es. Wenn man versucht, durch mehr Bücher bessere Ergebnisse zu erzielen, verliert man schnell an Geschwindigkeit.

Fazit für den Alltag

Wenn Sie eine KI-Suchmaschine bauen wollen:

  1. Nicht alles mischen: Verlassen Sie sich nicht blind darauf, dass KI alles automatisch löst. Das „Rezept" (wie man die Ergebnisse verarbeitet) ist genauso wichtig wie die Zutaten.
  2. Die schnelle Lösung: Oft ist es am klügsten, der KI zu erlauben, sich eine Antwort zu erfinden (Fake-Dokumente), statt in Millionen von echten Dokumenten zu suchen. Das ist schnell und oft fast genauso gut.
  3. Die Premium-Lösung: Wenn Sie absolute Höchstleistung brauchen und Zeit keine Rolle spielt, suchen Sie in echten Dokumenten – aber nur, wenn Sie einen sehr starken Sucher haben, der die besten Dokumente findet.

Zusammenfassend sagen die Autoren: Wir haben lange gedacht, KI-Suche sei einfach nur „KI hinzufügen". Aber diese Studie zeigt, dass es darauf ankommt, woher die KI ihre Informationen nimmt und wie man sie dann verarbeitet. Es ist der Unterschied zwischen einem Koch, der einfach alles in den Topf wirft, und einem Meisterkoch, der die perfekten Zutaten mit dem perfekten Rezept kombiniert.