Actions Speak Louder than Prompts: A Large-Scale Study of LLMs for Graph Inference

Diese groß angelegte Studie zeigt, dass LLMs als Code-Generatoren bei Graph-Aufgaben die beste Leistung erzielen, insbesondere bei langen Texten oder komplexen Strukturen, und widerlegt die Annahme, dass LLM-basierte Methoden bei heterophilen Graphen versagen, indem sie flexibel zwischen Struktur, Merkmalen und Labels adaptieren.

Ben Finkelshtein, Silviu Cucerzan, Sujay Kumar Jauhar, Ryen White

Veröffentlicht 2026-03-03
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Stell dir vor, du hast einen riesigen, verworrenen Stadtplan (ein Graph), auf dem jeder Punkt eine Person, ein Produkt oder eine Webseite ist. Diese Punkte sind durch Straßen miteinander verbunden. Deine Aufgabe ist es, für eine bestimmte Person zu erraten, was sie macht (z. B. ist sie ein Betrüger? Ist sie ein Fan von Sci-Fi-Filmen?), basierend auf dem, was über sie geschrieben steht und wer ihre Nachbarn sind.

Früher nutzten Computer dafür spezielle, starre Werkzeuge (die sogenannten GNNs). Aber jetzt haben wir Künstliche Intelligenzen (LLMs), die wie superkluge, weltreisende Detektive sind, die alles lesen und verstehen können. Die Frage war: Wie lassen wir diese Detektive am besten auf diesem Stadtplan arbeiten?

Die Forscher haben drei verschiedene Methoden getestet, um herauszufinden, welche am besten funktioniert. Hier ist die einfache Erklärung ihrer Entdeckungen:

1. Die drei Methoden: Wie sprechen wir mit dem Detektiv?

Stell dir vor, du musst dem Detektiv Informationen über die Stadt geben.

  • Methode A: Der "Prompt" (Das große Gedränge)
    Du nimmst den Detektiv und drückst ihm einen riesigen Stapel Papier in die Hand. Auf diesem Papier stehen alle Informationen: die Beschreibung der gesuchten Person, ihre Nachbarn, die Nachbarn der Nachbarn, alles auf einmal.

    • Das Problem: Wenn die Stadt groß ist oder die Beschreibungen sehr lang sind, wird der Papierstapel so dick, dass der Detektiv ihn gar nicht mehr lesen kann (er "explodiert" vor Informationen). Er verliert den Überblick.
  • Methode B: Das "Werkzeug-Set" (Der Telefonanruf)
    Du gibst dem Detektiv ein Telefon und eine Liste mit Tasten. Er kann sagen: "Ruf mir die Adresse von Nachbar Nr. 5 an" oder "Ruf mir die Beschreibung von Nachbar Nr. 10 an". Er ruft nach und nach einzelne Informationen ab.

    • Das Problem: Das ist gut, aber es dauert lange. Er muss viele kleine Anrufe tätigen, um ein Bild zu bekommen.
  • Methode C: "Code schreiben" (Der Baumeister)
    Das ist der Gewinner! Hier sagst du dem Detektiv: "Du bist jetzt ein Baumeister. Du hast einen Computer, auf dem die ganze Stadt als Datenbank gespeichert ist. Schreibe dir ein kleines Programm, das genau die Informationen holt, die du brauchst, und berechne die Antwort selbst."

    • Der Vorteil: Der Detektiv schreibt sich ein Skript, das automatisch die richtigen Daten filtert, zusammenfasst und berechnet. Er muss nicht den ganzen Papierstapel lesen oder hundert Anrufe tätigen. Er holt sich nur das, was er gerade braucht, und ignoriert den Rest.

2. Was haben die Forscher herausgefunden?

Die Studie verglich diese Methoden in verschiedenen Szenarien (kleine Dörfer, riesige Metropolen, homogene Gruppen vs. gemischte Gruppen). Hier sind die wichtigsten Erkenntnisse:

  • Der "Code-Schreiber" gewinnt fast immer:
    Die Methode, bei der die KI Code schreibt (Graph-as-Code), war überall am besten. Besonders bei großen Städten mit vielen langen Beschreibungen (z. B. E-Commerce oder soziale Netzwerke) war sie unschlagbar. Warum? Weil sie nicht von der "Papierstapel-Grenze" (Token-Limit) der KI gebremst wird. Sie kann sich ihre eigene, effiziente Art der Informationsbeschaffung programmieren.

  • Seltsame Nachbarn sind kein Problem:
    Früher dachte man, KIs scheitern, wenn Nachbarn sehr unterschiedlich sind (z. B. in einem Stadtteil, wo sich sehr verschiedene Menschen treffen). Die Studie zeigt: Nein! Die KIs sind schlau genug, auch dort zu erkennen, wer wer ist, indem sie sich auf die Texte konzentrieren, nicht nur auf die Nachbarschaft.

  • Anpassungsfähigkeit ist der Schlüssel:
    Der "Code-Schreiber" ist wie ein flexibler Taktiker.

    • Wenn die Nachbarn sehr aussagekräftig sind, nutzt er die Struktur des Graphen.
    • Wenn die Texte der Nachbarn verrauscht sind, ignoriert er sie und konzentriert sich auf die eigenen Daten.
    • Wenn Labels fehlen, nutzt er andere Hinweise.
      Die anderen Methoden (das große Papier oder die einzelnen Anrufe) sind starr. Wenn eine Information fehlt oder zu viel ist, brechen sie oft zusammen.

3. Die große Metapher: Der Bibliothekar

Stell dir vor, du suchst ein Buch in einer riesigen Bibliothek.

  • Der "Prompt"-Ansatz ist so, als würdest du den Bibliothekar zwingen, dir alle Bücher des Regals auf einmal auf den Tisch zu werfen, damit er das richtige findet. Wenn das Regal riesig ist, liegt das Buch unter einem Berg Papier begraben.
  • Der "Tool"-Ansatz ist, als würdest du dem Bibliothekar sagen: "Geh zu Regal A, nimm Buch 1, dann Regal B, nimm Buch 2..." Das funktioniert, ist aber langsam und umständlich.
  • Der "Code"-Ansatz ist, als würdest du dem Bibliothekar einen Roboter geben, den er programmieren kann. Der Roboter läuft schnell durch die Bibliothek, scannt nur die Titel, die relevant sind, und bringt dir genau das eine Buch, das du brauchst.

Fazit für die Praxis

Wenn man heute KI-Systeme baut, die mit komplexen Daten und Netzwerken arbeiten sollen (z. B. für Betrugserkennung oder Empfehlungssysteme), sollte man nicht einfach nur "Fragen stellen" (Prompting). Stattdessen sollte man der KI erlauben, Programme zu schreiben, um die Daten zu analysieren. Das ist effizienter, robuster und funktioniert auch dann noch, wenn die Daten riesig oder unordentlich sind.

Kurz gesagt: Lass die KI nicht nur lesen, lass sie arbeiten wie ein Programmierer. Das bringt die besten Ergebnisse.