EDINET-Bench: Evaluating LLMs on Complex Financial Tasks using Japanese Financial Statements

Die Studie stellt EDINET-Bench vor, einen Open-Source-Benchmark auf Basis japanischer Jahresabschlüsse, der zeigt, dass selbst fortschrittliche Large Language Models bei komplexen Finanzaufgaben wie der Betrugserkennung nur marginal besser abschneiden als einfache logistische Regressionen und somit einen Bedarf an realistischeren, unterstützenden Evaluierungsrahmen aufzeigen.

Issa Sugiura, Takashi Ishida, Taro Makino, Chieko Tazuke, Takanori Nakagawa, Kosuke Nakago, David Ha

Veröffentlicht 2026-03-06
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stell dir vor, du bist ein junger, sehr intelligenter Detektiv, der gerade erst angefangen hat, Fälle zu lösen. Er kann Tausende von Büchern lesen, Gedichte schreiben und sogar Matheaufgaben lösen, die für normale Menschen unmöglich sind. Aber dann wirfst du ihm einen ganz besonderen Fall vor: Eine riesige, 300-seitige Akte voller Zahlen, Tabellen und langweiliger Texte über eine japanische Firma.

Deine Frage an den Detektiv lautet: „Ist diese Firma ehrlich oder betrügt sie die Leute? Wird sie nächstes Jahr mehr oder weniger Geld verdienen? Und zu welcher Branche gehört sie eigentlich?"

Genau das ist die Geschichte hinter dem Papier „EDINET-Bench". Hier ist die Erklärung in einfachen Worten:

1. Das Problem: Der „Finanz-Dschungel"

Bisher haben wir KI-Modelle (die „Detektive") hauptsächlich an Aufgaben gemessen, die wie ein Vokabeltest oder ein Mathe-Quiz waren. Das ist gut, aber im echten Leben ist Finanzanalyse wie das Navigieren durch einen dichten Dschungel.

  • Du musst nicht nur einzelne Wörter verstehen, sondern ganze Sätze.
  • Du musst Zahlen aus Tabelle A mit Text aus Seite 50 vergleichen.
  • Du musst erkennen, wenn jemand die Zahlen schönredet, obwohl die Realität schlecht aussieht.

Bisher gab es kaum Tests für KI, die so schwer sind wie die echte Arbeit eines Finanzexperten. Die meisten Tests waren wie „Was ist 2+2?" – zu einfach.

2. Die Lösung: EDINET-Bench (Der neue Prüfungsraum)

Die Forscher von Sakana AI und der Universität Kyoto haben einen neuen, extrem schwierigen Test gebaut, den sie EDINET-Bench nennen.

  • Die Quelle: Sie haben sich die offiziellen Jahresberichte von tausenden japanischen Firmen aus den letzten 10 Jahren geholt (das sind über 40.000 Dokumente!).
  • Die Aufgabe: Die KI muss drei Dinge tun:
    1. Betrug aufdecken: Finden, ob eine Firma die Bücher gefälscht hat (wie bei einem Krimi).
    2. Zukunft vorhersagen: Erraten, ob die Gewinne nächstes Jahr steigen oder fallen.
    3. Kategorie finden: Herausfinden, ob die Firma Autos macht, Banken betreibt oder Lebensmittel verkauft, nur basierend auf ihren Zahlen.

3. Das Experiment: Der Schockmoment

Die Forscher haben die besten KIs der Welt (wie GPT-4o, Claude 3.7 und andere) diesen Test machen lassen. Sie haben ihnen die ganzen Akten gegeben und gefragt: „Was denkst du?"

Das Ergebnis war enttäuschend:
Die super-intelligenten KIs haben schlecht abgeschnitten.

  • Bei der Betrugserkennung waren sie kaum besser als ein einfacher, alter Taschenrechner (eine logistische Regression).
  • Bei der Vorhersage von Gewinnen waren sie oft ratlos.
  • Selbst die neuesten Modelle, die sonst alles können, scheiterten daran, die komplexen Zusammenhänge in den ganzen Texten und Tabellen zu verstehen.

Die Analogie:
Stell dir vor, du gibst einem Genie einen riesigen Haufen Puzzleteile (die Jahresberichte). Das Genie kann die Teile einzeln lesen, aber es schafft es nicht, das ganze Bild zusammenzusetzen, um zu sehen, ob da ein Monster (Betrug) versteckt ist. Es ist, als würde man jemandem einen Roman geben und fragen: „Wer ist der Mörder?", aber die Person liest nur die Seitenzahlen und ignoriert die Handlung.

4. Warum ist das so schwierig?

Die KIs haben ein Problem: Sie bekommen die Daten oft einfach nur „hingeschmissen".

  • Ein echter Finanzexperte würde nicht einfach alles lesen. Er würde gezielt suchen: „Schauen wir mal, ob die Cashflow-Tabelle mit dem Gewinn übereinstimmt." oder „Warum hat die Firma plötzlich ihre Lagerbestände erhöht?"
  • Die KIs versuchen oft, alles auf einmal zu verarbeiten, ohne eine klare Strategie. Sie fehlen ihnen die Werkzeuge, die ein echter Analyst hat (wie die Fähigkeit, gezielt nach bestimmten Mustern zu suchen oder externe Nachrichten zu prüfen).

5. Was bedeutet das für die Zukunft?

Die Forscher sagen: Es reicht nicht, den KI einfach nur die Akten zu geben.
Wir brauchen neue Art von Tests und neue Art von KI-Hilfen:

  • Richtiges Training: Die KI muss lernen, wie ein echter Analyst zu denken, nicht nur wie ein Texter.
  • Bessere Werkzeuge: Die KI sollte in der Lage sein, wie ein Agent zu agieren – also selbstständig nach Informationen zu suchen, Tabellen zu vergleichen und Hypothesen aufzustellen.
  • Realistische Simulationen: Statt nur eine Frage zu stellen, sollten wir die KI in eine Simulation stecken, in der sie wie ein echter Finanzberater arbeiten muss.

Fazit

EDINET-Bench ist wie ein Spiegel, der uns zeigt, dass unsere KI-Modelle zwar sehr klug sind, aber im Bereich Finanzen noch nicht wirklich „erwachsen" geworden sind. Sie können gut reden, aber wenn es darum geht, komplexe, lebenswichtige Entscheidungen auf Basis von langweiligen Zahlen zu treffen, hinken sie noch hinterher.

Die gute Nachricht: Jetzt haben wir einen Maßstab (den Test), um zu sehen, ob die KI in Zukunft wirklich besser wird. Die schlechte Nachricht: Der Weg dorthin ist noch lang und steinig.