MMTU: A Massive Multi-Task Table Understanding and Reasoning Benchmark

Die Arbeit stellt MMTU vor, ein umfassendes Benchmark mit über 28.000 Fragen zu 25 realen Tabellenaufgaben, das die aktuellen Grenzen von KI-Modellen bei der Experten-Nutzung strukturierter Daten aufzeigt und als Impuls für zukünftige Fortschritte dient.

Junjie Xing, Yeye He, Mengyu Zhou, Haoyu Dong, Shi Han, Lingjiao Chen, Dongmei Zhang, Surajit Chaudhuri, H. V. Jagadish

Veröffentlicht Tue, 10 Ma
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Stell dir vor, Daten sind wie ein riesiger, chaotischer Schatzkeller voller alter Bücher, Zettel und Kisten. In der Vergangenheit waren nur spezialisierte Schatzhüter (Datenanalysten, Datenbank-Verwalter) in der Lage, diesen Schatz zu finden, zu sortieren und zu verstehen. Sie mussten die alten Sprachen (wie SQL oder Programmcode) beherrschen, um die Kisten zu öffnen.

Künstliche Intelligenz (KI), genauer gesagt die großen Sprachmodelle (LLMs), hat in den letzten Jahren gelernt, wie ein genialer Bibliothekar zu lesen und zu schreiben. Aber gibt es einen Test, der wirklich prüft, ob diese KI auch ein echter Schatzmeister werden kann, wenn es um komplexe Tabellen geht?

Bisher gab es nur sehr einfache Tests, wie zum Beispiel: „Hier ist eine Frage, hier ist eine Tabelle, beantworte die Frage." Das ist wie ein Kind, das lernt, nur rote Autos zu erkennen. Aber im echten Leben muss man auch wissen, wie man ein Auto repariert, wie man Teile austauscht und wie man einen ganzen Park verwaltet.

Das ist genau das Problem, das die Forscher mit ihrer neuen Arbeit „MMTU" lösen wollen.

Was ist MMTU? (Der große „Tabellen-Führerschein")

Stell dir MMTU nicht als einen einzelnen Test vor, sondern als einen riesigen, extrem anspruchsvollen Fahrprüfungsparcours für KI-Modelle.

  • Die Größe: Der Parcours hat fast 28.000 verschiedene Aufgaben. Das ist wie eine Bibliothek, die so voll ist, dass man Jahre bräuchte, um sie alle durchzulesen.
  • Die Vielfalt: Es gibt 25 verschiedene Arten von Aufgaben. Manche sind wie: „Füge diese beiden Listen zusammen" (Tabelle verbinden), andere wie: „Finde den Fehler in dieser Rechnung" (Daten bereinigen) oder „Schreibe ein Programm, das diese Tabelle umformt" (Code schreiben).
  • Das Ziel: Es geht nicht darum, ob die KI eine einfache Frage beantworten kann, sondern ob sie wie ein Experte denken und handeln kann. Kann sie eine Tabelle so verstehen, als wäre sie ein menschlicher Daten-Profi?

Wie funktioniert der Test? (Die 25 Disziplinen)

Stell dir vor, die KI steht vor einem riesigen Schreibtisch voller Papierstapel. MMTU prüft, ob sie in folgenden Situationen bestehen kann:

  1. Der Detektiv (Datenbereinigung): „Hier ist eine Tabelle mit einem fehlenden Wert. Was steht dort?" Die KI muss raten, basierend auf dem Kontext.
  2. Der Übersetzer (Tabellen-Transformation): „Nimm diese Tabelle und mach daraus eine neue Form." Die KI muss oft Programmcode (wie SQL oder Python) schreiben, um das zu tun.
  3. Der Architekt (Tabellen-Verknüpfung): „Diese zwei Tabellen gehören zusammen. Welche Spalten passen zueinander?"
  4. Der Mathe-Genie (Beziehungen erkennen): „Sieh dir die Zahlen an. Ist Spalte A das Ergebnis von Spalte B minus Spalte C?"
  5. Der Nadel-im-Heuhaufen-Sucher: „In dieser riesigen Tabelle mit 10.000 Zeilen: Wo steht genau der Name 'Max Mustermann'?"

Was haben die Forscher herausgefunden? (Die Prüfungsergebnisse)

Die Forscher haben die besten KI-Modelle der Welt (wie GPT-5, DeepSeek R1 und andere) auf diesen Parcours geschickt. Das Ergebnis war eine Mischung aus „Wow" und „Noch lange nicht".

  • Die Hürde ist hoch: Selbst die klügsten KIs, die wir heute haben, schaffen nur etwa 69 % der Aufgaben. Das klingt gut, aber für eine KI, die als „intelligent" gilt, ist das wie ein Schüler, der in einer schwierigen Matheprüfung eine 2,5 schreibt. Es gibt also noch viel zu lernen!
  • Denker vs. Chatter: Die Modelle, die speziell darauf trainiert wurden, erst nachzudenken (die sogenannten „Reasoning-Modelle"), waren deutlich besser als die normalen Chat-Bots. Es ist, als ob ein Student, der sich erst 5 Minuten überlegt, wie er eine Aufgabe löst, bessere Noten macht als einer, der sofort aus dem Bauch heraus antwortet.
  • Das Problem mit dem Chaos: Wenn die Tabellen sehr groß sind oder die Reihenfolge der Zeilen und Spalten durcheinander gewürfelt wird (was für Menschen egal ist, da die Bedeutung gleich bleibt), machen die KIs oft Fehler. Sie scheinen sich noch zu sehr auf die „Reihenfolge" zu verlassen, statt auf das echte Verständnis der Daten.
  • Der Code-Faktor: Viele Aufgaben erfordern, dass die KI Programmcode schreibt. Hier zeigen die Modelle ihre Stärke, aber auch ihre Schwäche: Sie können Code schreiben, aber manchmal ist er „fast richtig" und scheitert an einem kleinen Detail.

Warum ist das wichtig? (Der große Nutzen)

Warum sollten wir uns dafür interessieren?

Stell dir vor, du möchtest einen persönlichen Assistenten für deine Excel-Tabellen oder deine Datenbank. Du willst ihm sagen: „Hey, sortiere diese Kundenliste nach Umsatz, finde die Fehler in den Rechnungen und erstelle mir eine neue Übersicht."

Bis jetzt war dieser Assistent oft wie ein kleiner Praktikant, der nur einfache Befehle versteht. Mit MMTU wollen die Forscher herausfinden, wie weit wir noch gehen müssen, damit dieser Assistent ein erfahrener Manager wird, dem wir blind vertrauen können.

Zusammengefasst:
MMTU ist wie ein riesiger, strenger Lehrmeister, der den KI-Modellen sagt: „Ihr seid gut im Lesen, aber im echten Umgang mit komplexen Tabellen und Daten habt ihr noch viel zu lernen." Es ist ein Werkzeug, um die KI zu trainieren, damit sie uns eines Tages wirklich bei der Arbeit mit Daten entlasten kann – nicht nur als Chatbot, sondern als echter Daten-Experte.