A comparative study of transformer models and recurrent neural networks for path-dependent composite materials

Diese Studie vergleicht systematisch Transformer-Modelle und rekurrente neuronale Netze (RNNs) als Surrogatmodelle für pfadabhängige Verbundwerkstoffe und stellt fest, dass RNNs bei kleinen Datensätzen und Extrapolation überlegen sind, während Transformer-Modelle zwar eine siebenfach schnellere Inferenz bieten, aber bei Extrapolation schlechter abschneiden.

Petter Uvdal, Mohsen Mirkhalaf

Veröffentlicht 2026-03-03
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie sind ein Ingenieur, der versucht, das Verhalten von Kunststoffteilen mit eingebetteten kurzen Fasern (wie in Autoteilen oder Sportgeräten) vorherzusagen. Diese Materialien sind stark, leicht und nachhaltig, aber ihr Verhalten ist kompliziert: Wenn Sie sie belasten, verformen sie sich nicht nur einmalig, sondern „erinnern" sich an jede vorherige Belastung. Das nennt man pfadabhängiges Verhalten.

Um zu verstehen, wie sich diese Materialien unter extremen Bedingungen verhalten, müssten Sie normalerweise riesige, extrem rechenintensive Simulationen auf einem Supercomputer laufen lassen. Das dauert ewig und kostet viel Geld.

Um das zu umgehen, haben Wissenschaftler Künstliche Intelligenz (KI) als „Stellvertreter" (Surrogatmodell) entwickelt. Diese KI lernt aus den wenigen vorhandenen Simulationen und sagt dann blitzschnell voraus, wie sich das Material verhält.

In dieser Studie vergleichen die Forscher zwei verschiedene Arten von KI-Modellen, die für solche „Erinnerungsaufgaben" bekannt sind:

  1. RNNs (Recurrent Neural Networks): Man kann sich diese wie einen sehr fleißigen, aber langsamen Studenten vorstellen. Er liest eine Geschichte Satz für Satz, merkt sich den Kontext und schreibt dann weiter. Er ist sehr gut darin, Zusammenhänge zu verstehen, wenn er nur wenig Text (wenig Daten) hat. Aber er liest langsam und kann sich manchmal Dinge aus dem Anfang der Geschichte nicht mehr genau merken, wenn die Geschichte sehr lang wird.
  2. Transformer-Modelle: Diese sind wie ein genialer, aber etwas arrogant schneller Lektoren. Sie können einen ganzen Text auf einmal lesen (parallel verarbeiten) und sofort alle Zusammenhänge erkennen. Sie sind extrem schnell und skalieren hervorragend, wenn sie mit riesigen Datenmengen gefüttert werden. Aber: Wenn sie nur wenig Text haben, machen sie oft Fehler, weil sie nicht genug „Beispiele" gesehen haben, um das Muster zu verstehen.

Was haben die Forscher herausgefunden?

Die Forscher haben beide Modelle trainiert, um das Verhalten dieser Faserverbundwerkstoffe vorherzusagen, und zwar mit unterschiedlich großen Datenmengen. Hier sind die wichtigsten Erkenntnisse, einfach erklärt:

  • Bei wenig Daten gewinnt der „fleißige Student" (RNN):
    Wenn die Forscher nur wenige Trainingsdaten hatten (was in der Wissenschaft oft der Fall ist), war das RNN-Modell deutlich genauer. Es machte weniger Fehler bei der Vorhersage.

    • Das Bild: Der RNN war wie ein guter Schüler, der auch mit einem dünnen Lehrbuch gute Noten schreibt.
  • Bei vielen Daten holt der „schnelle Lektor" (Transformer) auf:
    Als die Datenmenge riesig wurde, wurde das Transformer-Modell genauso genau wie das RNN.

    • Das Bild: Der Transformer braucht ein riesiges Archiv, um sein volles Potenzial zu entfalten. Sobald er genug Beispiele gesehen hat, ist er genauso gut.
  • Der Test mit dem „Unbekannten" (Extrapolation):
    Das war der spannendste Teil. Die Forscher gaben den Modellen eine völlig neue Art von Belastung (zyklisches Hin-und-Her-Belasten), die sie in den Trainingsdaten nie gesehen hatten.

    • RNN: Schaffte es, das neue Muster relativ gut zu erraten und lieferte stabile Ergebnisse.
    • Transformer: Versagte hier fast komplett. Es war wie ein Lektor, der nur Romane gelesen hat und nun versucht, ein Kochbuch zu verstehen – er weiß nicht, wie er das Gelernte auf eine völlig neue Situation anwenden soll.
    • Die Moral: Wenn Sie unsichere, neue Szenarien vorhersagen müssen, ist der RNN oft robuster.
  • Die Geschwindigkeit:
    Hier glänzte der Transformer. Er war 7-mal schneller als das RNN.

    • Das Bild: Der Transformer braucht nur 0,5 Millisekunden für eine Vorhersage, während der RNN 3,5 Millisekunden braucht. In einer riesigen Simulation mit Millionen von Punkten kann diese Geschwindigkeit den Unterschied zwischen einer Simulation, die einen Tag dauert, und einer, die nur wenige Stunden braucht, ausmachen.

Das Fazit für die Praxis

Die Studie sagt uns, dass es keine „beste" KI für alle Fälle gibt:

  • Wenn Sie wenig Daten haben oder das Materialverhalten unter ganz neuen, unbekannten Bedingungen vorhersagen müssen, sollten Sie zum RNN greifen. Es ist verlässlicher und robuster.
  • Wenn Sie riesige Datenmengen haben und es auf Geschwindigkeit ankommt (z. B. für Echtzeit-Simulationen in der Produktion), ist der Transformer die bessere Wahl. Er ist schnell und skaliert gut.

Die Wissenschaftler hoffen, dass diese Erkenntnisse helfen, die richtigen Werkzeuge für die Entwicklung neuer, nachhaltiger Materialien auszuwählen, ohne dabei in rechenintensiven Simulationen stecken zu bleiben.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →