Real Money, Fake Models: Deceptive Model Claims in Shadow APIs

Diese Studie führt die erste systematische Überprüfung durch und deckt auf, dass Shadow-APIs, die in zahlreichen wissenschaftlichen Arbeiten genutzt werden, oft betrügerisch vorgehen, indem sie Zugang zu Frontier-LLMs vortäuschen, obwohl sie signifikante Leistungsunterschiede, Sicherheitsrisiken und Identitätsfälschungen aufweisen, was die Reproduzierbarkeit der Forschung und die Interessen der Nutzer gefährdet.

Yage Zhang, Yukun Jiang, Zeyuan Chen, Michael Backes, Xinyue Shen, Yang Zhang

Veröffentlicht 2026-03-06
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Hier ist eine einfache Erklärung der Studie „Real Money, Fake Models" auf Deutsch, verpackt in anschauliche Bilder und Metaphern.

🕵️‍♂️ Die Geschichte vom „Schatten-Imbiss"

Stell dir vor, es gibt eine Welt, in der die besten Köche der Welt (die offiziellen KI-Modelle wie GPT-5 oder Gemini) nur in bestimmten Ländern oder gegen hohe Eintrittsgelder arbeiten. Viele Menschen wollen diese Köche aber unbedingt ausprobieren, können aber nicht direkt zu ihnen gehen.

Da tauchen plötzlich Schatten-APIs auf. Das sind wie illegale Imbissstände auf der Straße. Sie behaupten: „Wir servieren dir genau das gleiche Essen wie der berühmte Sternekoch, nur billiger und ohne Wartezeit!"

Die Forscher von CISPA haben sich diese Imbissstände genauer angesehen. Ihr Fazit? Es ist fast immer Betrug.


🔍 Was haben die Forscher herausgefunden?

Die Studie untersucht drei große Fragen, die wir uns wie folgt vorstellen können:

1. Wie weit verbreitet sind diese Imbissstände? (Die Popularität)

Es stellt sich heraus, dass diese Schatten-APIs extrem beliebt sind.

  • Die Metapher: Stell dir vor, du gehst in eine Bibliothek und findest 187 Bücher, die Rezepte von diesen Imbissständen verwenden.
  • Die Realität: Fast 200 wissenschaftliche Arbeiten (die in Top-Journalen wie ACL oder CVPR veröffentlicht wurden) basieren auf diesen Schatten-APIs. Der beliebteste Imbissstand hat fast 60.000 Sterne auf GitHub (wie eine riesige Fan-Community). Viele Forscher aus Ländern wie China nutzen sie, weil sie den offiziellen Zugang nicht haben.

2. Ist das Essen wirklich das gleiche? (Die Leistung)

Die Forscher haben bestellt: „Ein Steak wie beim Original!" und dann verglichen, was auf dem Teller landete.

  • Die Metapher: Du bestellst ein zartes Rinderfilet (das Original). Der Imbissstand serviert dir aber ein altes, zähes Stück Fleisch oder sogar nur eine Kartoffel, die wie ein Steak aussieht.
  • Die Realität:
    • Fehlerquote: Bei schwierigen Aufgaben (wie Mathe oder Medizin) lieferten die Schatten-APIs bis zu 47 % schlechtere Ergebnisse als das Original.
    • Beispiel: Ein KI-Modell, das im Original 84 % der medizinischen Fragen richtig beantwortet, schaffte über die Schatten-API nur noch 37 %. Das ist, als würde ein Arzt, der normalerweise 8 von 10 Diagnosen richtig stellt, plötzlich nur noch 3 von 10 richtig haben.
    • Sicherheit: Die Schatten-APIs waren auch unvorhersehbar. Manchmal ließen sie „giftige" Antworten durch (wie wenn ein Imbissstand versehentlich giftige Pilze serviert), manchmal blockierten sie harmlose Fragen.

3. Können wir den Betrug beweisen? (Der Fingerabdruck)

Wie kann man wissen, ob der Imbissstand wirklich den Original-Koch nutzt?

  • Die Metapher: Die Forscher haben einen digitalen Fingerabdruck-Scanner benutzt. Jedes KI-Modell hat einen einzigartigen „Stil" in seiner Sprache, wie ein Fingerabdruck.
  • Die Realität:
    • Bei fast der Hälfte der getesteten Schatten-APIs (45,8 %) passte der Fingerabdruck nicht zum angeblichen Modell.
    • Oft wurde ein teures, hochintelligentes Modell (z. B. GPT-5) durch ein billiges, einfaches Modell (z. B. ein älteres Open-Source-Modell) ersetzt.
    • Manchmal wurde sogar ein „Denk-Modell" (das lange nachdenkt) durch ein normales, schnelles Modell ersetzt, das gar nicht nachdenkt.

💸 Warum machen die das? (Der wirtschaftliche Trick)

Die Betreiber dieser Schatten-APIs nutzen drei Tricks, um Geld zu verdienen:

  1. Der „Premium"-Trick: Sie verlangen den vollen Preis für ein teures Modell, servieren aber ein billigeres, neueres Modell, das sie günstiger einkaufen können.
  2. Der „Rabatt"-Trick: Sie verkaufen ein teures Modell zum Originalpreis, servieren aber ein kostenloses Open-Source-Modell im Hintergrund.
  3. Der „Aufschlag"-Trick: Sie nehmen sogar noch mehr Geld als das Original, liefern aber trotzdem ein schlechteres Modell.

Das Ergebnis für den Nutzer: Du zahlst für ein Ferrari, bekommst aber einen alten Traktor geliefert. Und das Schlimmste: Du merkst es oft gar nicht, bis du ein falsches Ergebnis hast.


⚠️ Warum ist das ein Problem?

  1. Wissenschaft in Gefahr: Wenn Forscher ihre Experimente auf diesen Schatten-APIs basieren, sind ihre Ergebnisse oft falsch. Das ist wie wenn ein Architekt auf einem Fundament aus Sand baut – das Haus (die Forschung) wird einstürzen.
  2. Gefahr für die Gesellschaft: Wenn diese KIs in der Medizin oder im Rechtswesen eingesetzt werden (z. B. für Diagnosen oder Urteile), können die falschen Antworten von Schatten-APIs zu echten Schäden führen.
  3. Vertrauensverlust: Die Betreiber der offiziellen Modelle (wie OpenAI oder Google) bekommen einen schlechten Ruf, weil die Schatten-APIs Fehler machen, die eigentlich nicht von ihnen stammen.

💡 Was ist die Lösung?

Die Forscher geben eine klare Empfehlung:

  • Vertraue keinen Schatten-Imbissständen. Wenn du wissenschaftlich arbeiten willst, nutze nur die offiziellen Quellen.
  • Prüfe deine Quellen: Bevor man eine KI nutzt, sollte man testen, ob sie wirklich das ist, was sie vorgibt zu sein (Fingerabdruck-Check).
  • Transparenz: Forscher sollten in ihren Papieren genau angeben, welche API sie genutzt haben, damit andere das Ergebnis überprüfen können.

Kurz gesagt: Schatten-APIs sind wie gefälschte Markenartikel. Sie sehen vielleicht ähnlich aus und sind billiger, aber sie funktionieren nicht so, wie sie sollen, und können dich am Ende teuer zu stehen kommen – besonders wenn es um wichtige Entscheidungen geht.