OCR or Not? Rethinking Document Information Extraction in the MLLMs Era with Real-World Large-Scale Datasets

Diese Studie zeigt anhand großskaliger Datensätze, dass Multimodale Large Language Models (MLLMs) bei der Dokumenteninformationsextraktion ohne OCR oft gleichwertige Ergebnisse erzielen wie traditionelle OCR-Methoden und durch optimierte Anweisungen sowie Beispielmuster weiter verbessert werden können.

Jiyuan Shen, Peiyue Yuan, Atin Ghosh, Yifan Mai, Daniel Dahlmeier

Veröffentlicht 2026-03-04
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Titel: Brauchen wir noch den „Text-Scanner"? Eine neue Art, Dokumente zu verstehen

Stellen Sie sich vor, Sie haben einen riesigen Stapel alter Rechnungen, Verträge und Lieferlisten vor sich. Früher war die Lösung für Computer immer dieselbe: Zuerst muss ein Scanner (eine Art digitaler Augenarzt, genannt OCR) jeden einzelnen Buchstaben auf dem Papier ablesen und in Text umwandeln. Erst danach durfte ein zweiter, smarter Computer (das KI-Modell) diesen Text lesen und die wichtigen Zahlen herauspicken.

Das war wie ein zweistufiger Prozess: Erst der Übersetzer, dann der Manager. Aber was, wenn der Manager selbst so schlau wäre, dass er die Rechnung direkt ansehen und verstehen könnte, ohne dass der Übersetzer dazwischenfunkt?

Genau darum geht es in diesem Papier von SAP und Stanford. Die Forscher haben herausgefunden, dass die neuen, extrem starken Multimodalen KI-Modelle (MLLMs) vielleicht gar keinen Scanner mehr brauchen.

Hier ist die einfache Erklärung der wichtigsten Punkte:

1. Der alte Weg vs. der neue Weg

  • Der alte Weg (OCR + KI): Wie ein Schüler, der erst einen Text kopieren muss, bevor er ihn verstehen kann. Wenn der Kopierer einen Buchstaben falsch schreibt (z. B. eine „1" als „I"), macht der Schüler später einen Fehler. Das ist komplex und fehleranfällig.
  • Der neue Weg (Nur Bild): Die neuen KI-Modelle sind wie ein Super-Detektiv. Sie schauen sich das Originalfoto der Rechnung an und „sehen" die Zahlen und Buchstaben direkt auf dem Bild. Sie müssen den Text nicht erst in eine andere Sprache übersetzen.

2. Das große Experiment

Die Forscher haben eine riesige Menge an echten Geschäftsunterlagen (aus Lieferketten und Finanzen) gesammelt. Diese waren schwierig: viele Sprachen, krumme Tabellen und unübersichtliche Layouts. Sie haben verschiedene KI-Modelle getestet:

  1. Nur mit dem gescannten Text.
  2. Nur mit dem Bild der Rechnung.
  3. Mit beidem zusammen.

Das überraschende Ergebnis:
Bei den stärksten Modellen (wie Gemini oder Nova) war das Ergebnis mit nur dem Bild genauso gut oder sogar besser als mit dem gescannten Text!

  • Die Analogie: Es ist, als würde ein Mensch eine Rechnung ansehen und sofort die Summe verstehen, anstatt erst jeden Buchstaben abzutippen. Das direkte Sehen war schneller und genauer.

3. Warum funktioniert das?

Die Forscher haben eine Art „Fehler-Analyse-Tool" gebaut (eine digitale Autopsie), um zu sehen, wo die KI scheitert.

  • Das Problem mit dem Scanner: Manchmal verwirrt der Scanner das Layout. Er mischt Zeilen durcheinander oder liest ein „I" als „1". Das verwirrt dann die KI.
  • Die Stärke des Bildes: Die KI sieht das Bild so, wie wir es sehen. Sie erkennt, dass eine Zahl in einer bestimmten Spalte steht, auch wenn der Text daneben etwas verschmiert ist. Sie versteht den „Kontext" besser.

4. Größe zählt (aber nicht immer)

Je größer und mächtiger das KI-Modell ist, desto besser wird es – das ist bekannt. Aber hier gab es eine Überraschung: Bei manchen sehr großen Modellen half der zusätzliche Text vom Scanner sogar nicht mehr. Die KI war so gut darin, Bilder zu lesen, dass der extra Text nur noch „Rauschen" verursachte.

5. Was lernen wir daraus?

Die Studie zeigt uns drei wichtige Dinge für die Zukunft:

  1. Der Scanner ist vielleicht überflüssig: Für die allerbesten KIs reicht das Bild allein. Das spart Zeit, Geld und Komplexität.
  2. Die Anleitung ist wichtig: Damit die KI perfekt arbeitet, muss man ihr sehr klare Regeln geben (wie ein Kochrezept). Wenn man ihr genau sagt, was sie suchen soll, wird sie noch besser.
  3. Einfacher ist besser: Statt einen komplizierten Maschinenbau aus Scanner und zwei KI-Modellen zu bauen, reicht oft ein einziges, sehr starkes Modell, das direkt auf das Bild schaut.

Fazit:
Die Ära, in der wir Dokumente erst mühsam in Text umwandeln mussten, könnte zu Ende gehen. Die neuen KI-Modelle sind wie Menschen, die Dokumente direkt „lesen" können, ohne Zwischenhändler. Das macht Prozesse in Unternehmen schneller, günstiger und weniger fehleranfällig.

Kurz gesagt: Manchmal ist es besser, direkt hinzuschauen, als erst abzutippen.