MathScape: Benchmarking Multimodal Large Language Models in Real-World Mathematical Contexts

Die Arbeit stellt MathScape vor, ein neues Benchmark mit 1.369 realen mathematischen Problemen, das zeigt, dass selbst fortschrittliche multimodale Sprachmodelle bei der Lösung komplexer, realweltlicher Aufgaben hinter menschlichen Leistungen zurückbleiben und sich ihre Ergebnisse bei synthetischen Daten nicht auf reale Szenarien übertragen lassen.

Hao Liang, Linzhuang Sun, Minxuan Zhou, Zirong Chen, Meiyi Qiang, Mingan Lin, Tianpeng Li, Fan Yang, Zenan Zhou, Wentao Zhang

Veröffentlicht 2026-02-24
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie haben einen sehr schlauen Roboter, der Mathematikaufgaben lösen kann. Bisher haben wir diesen Roboter nur in einem perfekten, sterilen Labor getestet. Man hat ihm saubere, digitale Kopien von Mathebüchern gezeigt, bei denen jede Linie scharf ist und jedes Wort perfekt lesbar. In diesem Labor war der Roboter ein Genie.

Aber wie sieht es aus, wenn Sie ihn in die echte Welt schicken?

Genau das ist die Frage, die sich die Autoren des Papers „MathScape" gestellt haben. Hier ist eine einfache Erklärung ihrer Arbeit, gespickt mit ein paar bildhaften Vergleichen:

1. Das Problem: Der Roboter im Labor vs. der Roboter im Alltag

Bisherige Tests (wie „MathVista") waren wie ein Flugtraining in einem Simulator. Der Simulator ist perfekt: Kein Wind, keine Wolken, keine plötzlichen Turbulenzen. Der Pilot (der KI-Modell) fliegt dort hervorragend.

Aber im echten Leben muss ein Pilot mit Regen, Nebel und unebenen Landebahnen zurechtkommen.
Die Forscher sagen: „Unsere KIs sind super im Simulator, aber wir wissen nicht, ob sie auch einen echten Flug überleben."

In der echten Welt machen Menschen keine perfekten Fotos von Matheaufgaben. Sie knipsen ein Foto von einem zerknitterten Heft, einem schiefen Bildschirm oder einem Buch, das im schrägen Licht liegt. Das ist für eine KI wie ein Nebel, der die Sicht trübt.

2. Die Lösung: MathScape – Der „Echte-Welt-Parcours"

Um das herauszufinden, haben die Forscher MathScape gebaut.
Stellen Sie sich MathScape nicht als trockene Datenbank vor, sondern als einen großen, echten Parcours.

  • Die Aufgaben: Sie haben 1.369 echte Matheaufgaben gesammelt – von der Grundschule bis zum Gymnasium.
  • Der Clou: Diese Aufgaben sind nicht als saubere PDFs gespeichert. Sie wurden fotografiert! Jemand hat ein echtes Heft abfotografiert, einen Bildschirm abgefilmt oder ein Blatt Papier schief gehalten.
  • Das Ziel: Sie wollten sehen, ob die KI auch dann noch rechnen kann, wenn das Bild unscharf ist, das Licht schlecht ist oder das Papier geknickt ist.

3. Der Test: Wer besteht die Prüfung?

Die Forscher haben die besten KI-Modelle der Welt (sowohl die kostenlosen Open-Source-Modelle als auch die teuren, geschlossenen wie GPT-4) durch diesen Parcours gejagt.

Das Ergebnis war eine ziemliche Überraschung:

  • Im Labor (saubere PDFs): Die KIs waren super. Sie lösten fast alles richtig.
  • Im echten Leben (Fotos): Plötzlich stolperten sie. Selbst die stärksten Modelle (wie GPT-4o) machten viele Fehler.

Ein anschaulicher Vergleich:
Stellen Sie sich vor, Sie können ein Buch perfekt lesen, wenn es auf einem Tisch liegt. Aber wenn jemand das Buch schnell durch die Luft wirft und Sie es in der Luft fangen und lesen müssen, während es sich dreht – dann schaffen Sie das vielleicht nicht mehr so gut. Genau das passiert den KIs mit den echten Fotos.

4. Was haben wir gelernt?

Die Studie zeigt drei wichtige Dinge:

  1. Der „Simulator-Trick" funktioniert nicht mehr: Nur weil eine KI auf sauberen digitalen Bildern brilliert, heißt das nicht, dass sie im echten Leben funktioniert. Wir müssen sie im „Schmutz" testen.
  2. Die KIs sind noch nicht so schlau wie Menschen: Selbst die besten KIs lagen bei diesen echten Aufgaben weit hinter menschlichen Schülern zurück. Sie scheiterten oft an kleinen Details, die ein Mensch sofort sieht (z. B. „Oh, das ist ein geknicktes Blatt, die Zahl ist hier leicht verzerrt").
  3. Stabilität ist ein Problem: Wenn man dieselbe Aufgabe fünfmal hintereinander gibt, liefert die KI manchmal fünfmal unterschiedliche Antworten. Sie ist nicht zuverlässig genug, wie ein verlässlicher Assistent.

Fazit

MathScape ist wie ein Realitäts-Check für künstliche Intelligenz. Es sagt uns: „Halt, wir sind noch nicht so weit, wie wir denken." Die KIs müssen lernen, nicht nur perfekte Bilder zu lesen, sondern auch mit dem Chaos der echten Welt umzugehen – mit schiefen Fotos, schlechtem Licht und zerknittertem Papier.

Erst wenn sie diesen Parcours bestehen, können wir ihnen wirklich vertrauen, wenn sie uns im echten Leben bei Mathe helfen sollen.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →