On the definition and importance of interpretability in scientific machine learning

Dieser Artikel kritisiert die in der wissenschaftlichen Machine-Learning-Forschung vorherrschende Gleichsetzung von Interpretierbarkeit mit mathematischer Sparsamkeit und schlägt stattdessen eine operative Definition vor, die das Verständnis zugrunde liegender Mechanismen über die bloße Formelvereinfachung stellt, um die Integration datengetriebener Modelle in das wissenschaftliche Wissen zu ermöglichen.

Ursprüngliche Autoren: Conor Rowan, Alireza Doostan

Veröffentlicht 2026-04-23
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Dies ist eine KI-generierte Erklärung des untenstehenden Papers. Sie wurde nicht von den Autoren verfasst oder gebilligt. Für technische Genauigkeit konsultieren Sie das Originalpaper. Vollständigen Haftungsausschluss lesen

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ Das Rätsel der „Blackbox": Warum Wissenschaftler nicht nur Ergebnisse, sondern auch die „Warum"-Frage wollen

Stell dir vor, du hast einen genialen Koch, der die besten Gerichte der Welt zaubert. Er kann jeden Auftrag erfüllen: Er kocht Suppe, Braten und Desserts perfekt. Aber wenn du ihn fragst: „Warum hast du genau diese Zutaten gewählt und in dieser Reihenfolge?", antwortet er nur: „Ich habe einfach probiert, bis es gut geschmeckt hat."

Das ist das Problem, mit dem sich Wissenschaftler heute im Bereich „Scientific Machine Learning" (SciML) konfrontiert sehen.

1. Der alte Weg vs. der neue Weg

Früher (wie bei den alten „Experten-Systemen") mussten Wissenschaftler alle Regeln selbst in den Computer schreiben. Das war wie ein Kochbuch, das man Schritt für Schritt befolgt.
Heute nutzen wir Neuronale Netze (eine Art KI). Diese lernen aus riesigen Datenmengen. Sie sind wie der Koch oben: Sie liefern perfekte Ergebnisse (Vorhersagen), aber sie sind eine „Blackbox". Man sieht nicht, wie sie zu dem Ergebnis kommen. Für Ingenieure und Physiker ist das beunruhigend. Sie wollen nicht nur wissen, was passiert (z. B. wie stark ein Brückenbalken durchbiegt), sondern auch warum es passiert. Sie suchen nach den fundamentalen Gesetzen der Natur, nicht nur nach einer Formel, die gut funktioniert.

2. Der große Irrtum: „Weniger ist mehr" (Sparsity)

Viele Forscher glauben bisher, dass das Problem gelöst ist, wenn sie eine kurze, einfache mathematische Formel finden. Im Fachjargon nennt man das „Sparsity" (Sparsamkeit).
Die Idee dahinter: Wenn die KI eine komplizierte Gleichung mit 1000 Teilen findet, ist das schlecht. Findet sie aber eine mit nur 3 Teilen, ist das „interpretierbar" und damit wissenschaftlich wertvoll.

Das Paper sagt dazu: „Stopp! Das ist ein Trugschluss."

Die Analogie des Kochrezepts:
Stell dir vor, die KI findet ein Rezept:

  • Rezept A (Komplex): „Nimm 3 Eier, 200g Mehl, 50g Zucker, 1 Prise Salz, 200ml Milch..."
  • Rezept B (Sparsam): „Nimm 100g X, 50g Y und 20g Z."

Rezept B ist kürzer (sparsamer). Aber wenn du nicht weißt, was X, Y und Z sind, bringt dir die Kürze nichts! Du kannst das Gericht nicht nachkochen, und du verstehst nicht, warum es schmeckt.
Das Paper zeigt: Eine kurze Formel ist nicht automatisch verständlich. Wenn die Formel neue, unbekannte Begriffe enthält, ist sie für einen Wissenschaftler immer noch eine Blackbox, egal wie kurz sie ist.

3. Was ist also „Interpretierbarkeit"?

Die Autoren schlagen eine neue Definition vor. Interpretierbarkeit bedeutet nicht, dass die Formel kurz ist. Es bedeutet, dass man die Formel mit dem Wissen verbinden kann, das wir schon haben.

Die Analogie des Detektivs:

  • Sparsity (Kürze): Der Detektiv findet nur drei Hinweise. Das ist gut, aber wenn die Hinweise in einer fremden Sprache sind, bringt es nichts.
  • Interpretierbarkeit (Verständnis): Der Detektiv findet Hinweise, die er sofort zuordnen kann: „Ah, das ist ein Fingerabdruck von Smith!" oder „Das ist ein bekanntes Werkzeug."

In der Wissenschaft heißt das: Eine Gleichung ist nur dann „interpretierbar", wenn ihre Teile (die Terme) eine physikalische Bedeutung haben, die wir kennen.

  • Beispiel: Wenn eine Gleichung den Begriff „Advektion" (Transport von Materie durch Strömung) enthält, verstehen Physiker sofort, was das bedeutet.
  • Gegenbeispiel: Wenn die KI einen Term findet, der mathematisch einfach aussieht, aber physikalisch keinen Sinn ergibt (wie ein mysteriöses „Geister-Element"), dann ist die Gleichung nicht interpretierbar, auch wenn sie kurz ist.

4. Das Beispiel Kepler und Newton

Die Autoren nutzen ein historisches Beispiel: Keplers Gesetze über die Planetenbewegung.

  • Kepler fand sehr kurze, elegante Formeln. Aber er wusste nicht, warum sie funktionierten. Für ihn waren sie nur Beobachtungen.
  • Erst Newton (70 Jahre später) konnte diese Formeln aus seinen eigenen Gesetzen (Schwerkraft, Mechanik) ableiten.
  • Ergebnis: Erst durch Newtons Erklärung wurden Keplers Formeln wirklich „interpretierbar". Die Kürze allein reichte nicht; es brauchte den Zusammenhang zu den grundlegenden Prinzipien.

5. Das Fazit: Warum das wichtig ist

Die Autoren warnen davor, dass wir uns zu sehr auf das Finden kurzer Formeln (Sparsity) versteifen.

  • Das Gute: Kurze Formeln sind trotzdem nützlich. Sie sind wie ein „offenes Fenster". Wenn eine Formel kurz ist, ist es wahrscheinlicher, dass wir später herausfinden, wie man sie aus den Grundgesetzen der Physik ableiten kann.
  • Das Wichtige: Echte wissenschaftliche Entdeckung passiert nicht durch das bloße Finden kurzer Formeln. Sie passiert, wenn wir verstehen, welche physikalischen Mechanismen dahinterstecken.

Zusammengefasst in einem Satz:
Eine Formel ist für einen Wissenschaftler nicht dann verständlich, weil sie kurz ist, sondern weil sie uns erzählt, was in der Natur wirklich vor sich geht – und das können wir nur verstehen, wenn wir sie mit dem verbinden, was wir bereits über die Welt wissen.


Kurz gesagt: Wir wollen nicht nur einen Zaubertrick sehen, der funktioniert. Wir wollen den Zauberer verstehen, der den Trick ausführt. Und dafür reicht es nicht, wenn der Zauberer nur wenige Worte spricht; er muss uns die Magie erklären können.

Ertrinken Sie in Arbeiten in Ihrem Fachgebiet?

Erhalten Sie tägliche Digests der neuesten Arbeiten passend zu Ihren Forschungsbegriffen — mit technischen Zusammenfassungen, in Ihrer Sprache.

Digest testen →