Using GPUs And LLMs Can Be Satisfying for Nonlinear Real Arithmetic Problems

Die Autoren stellen den neuen SMT-Solver GANRA vor, der durch die Kombination von Large Language Models und GPU-Beschleunigung nichtlineare reelle Arithmetik-Probleme signifikant effizienter löst als der aktuelle Stand der Technik.

Christopher Brix, Julia Walczak, Nils Lommen, Thomas Noll

Veröffentlicht 2026-03-10
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Das große Rätsel: Wo liegen die Punkte?

Stell dir vor, du hast ein riesiges mathematisches Puzzle. Die Aufgabe lautet: Finde eine Kombination von Zahlen, die eine sehr komplizierte Gleichung erfüllt. In der Welt der Informatik nennt man das "Satisfiability Modulo Theories" (SMT).

Ein konkretes Beispiel aus dem Papier ist das "Kissing Number Problem" (Kuss-Zahl-Problem): Stell dir vor, du hast Kugeln auf einer Oberfläche. Wie viele Kugeln kannst du so anordnen, dass sie sich alle berühren, aber nicht ineinander dringen? Oder: Finde zwei Punkte auf einer Kugel, die genau 1 Meter voneinander entfernt sind.

Das Problem ist: Diese Gleichungen sind oft so komplex, dass normale Computer sie nur extrem langsam lösen können. Sie müssen quasi jede einzelne Möglichkeit durchprobieren, wie ein Mensch, der ein Labyrinth blindlings durchläuft.

Die neue Idee: Ein Team aus Superhirn und Superkraft

Die Autoren aus Aachen haben eine clevere Lösung gefunden, die zwei moderne Technologien kombiniert:

  1. LLMs (Large Language Models): Das sind die KI-Modelle wie ChatGPT oder o1, die sehr gut darin sind, Muster zu erkennen und Code zu schreiben.
  2. GPUs (Grafikprozessoren): Das sind die extrem schnellen Chips, die eigentlich für Videospiele gemacht sind. Sie können Millionen von kleinen Rechenaufgaben gleichzeitig erledigen, statt sie nacheinander abzuarbeiten.

Die Metapher: Der Architekt und der Bagger

Stell dir das Lösen dieser mathematischen Probleme wie den Bau eines Hauses vor:

  • Der normale Computer (CPU) ist wie ein einzelner Maurer. Er legt einen Ziegel, dann den nächsten, dann den dritten. Das dauert ewig, wenn du eine ganze Stadt bauen musst.
  • Die GPU ist wie ein armee von 10.000 Baggern. Wenn du 10.000 Gräben gleichzeitig ausheben musst, ist das in Sekunden erledigt. Aber die Bagger sind dumm. Du musst ihnen genau sagen, was sie tun sollen. Wenn du ihnen sagst, sie sollen nacheinander graben, verschwenden sie ihre Kraft.
  • Das LLM (die KI) ist der Architekt. Seine Aufgabe ist es, den Bauplan zu lesen und zu erkennen: "Hey, hier müssen wir 500 mal das Gleiche tun! Wir können das alle gleichzeitig machen!"

Wie funktioniert das in der Praxis?

Bisher mussten Menschen (die Forscher) den Code für jede neue Art von mathematischem Problem manuell schreiben, damit die Bagger (GPUs) effizient arbeiten konnten. Das ist wie wenn man für jeden neuen Bauplan händisch den Bagger umbauen müsste. Das geht nicht schnell genug.

Der Trick im Papier (GANRA):
Die Forscher haben eine KI (OpenAI o1-preview) gebeten, sich die mathematischen Probleme anzusehen.

  1. Die KI schaut sich die Formeln an (z. B. "x hoch 2 plus y hoch 2").
  2. Sie erkennt das Muster: "Aha, hier werden viele ähnliche Multiplikationen gemacht!"
  3. Die KI schreibt automatisch den perfekten Code, der diese Aufgaben so gruppiert, dass die GPU sie alle parallel abarbeiten kann.

Es ist, als würde die KI dem Bagger-Team sagen: "Statt nacheinander zu graben, grabt ihr alle gleichzeitig in einer Reihe!"

Das Ergebnis: Ein Geschwindigkeits-Sprung

Die Forscher haben ihr neues Tool namens GANRA getestet. Die Ergebnisse sind beeindruckend:

  • Auf einem speziellen Testset (Sturm-MBO) konnte GANRA mehr als fünfmal so viele Probleme lösen wie die besten alten Methoden.
  • Und das Ganze dauerte weniger als 1/20 der Zeit.

Das ist, als würde ein Rennwagen, der vorher 100 km/h fuhr, plötzlich 2000 km/h erreichen, nur weil der Fahrer (die KI) den Motor (die GPU) endlich richtig eingestellt hat.

Warum ist das wichtig?

Früher waren diese mathematischen Rätsel oft zu schwer für Computer, um sie in vernünftiger Zeit zu lösen. Das limitierte, was wir in Bereichen wie Software-Sicherheit, Robotik oder Chip-Design prüfen konnten.

Mit diesem Ansatz können wir:

  • Schneller Fehler finden: Bevor ein Auto-Software-Update auf die Straße kommt, kann man prüfen, ob es unter allen Umständen sicher ist.
  • Komplexere Systeme bauen: Wir können Systeme entwerfen, die heute noch zu kompliziert wären, weil wir sie nicht mehr "ausrechnen" können.

Fazit

Die Botschaft des Papiers ist: Wir müssen nicht mehr alles selbst programmieren. Wir können die KI bitten, den Code zu schreiben, der unsere Supercomputer (GPUs) effizient nutzt. Es ist eine Symbiose aus menschlicher Intelligenz (die Idee), künstlicher Intelligenz (das Mustererkennen) und roher Rechenkraft (die GPU).

Das Ergebnis ist ein Werkzeug, das mathematische Probleme löst, die bisher als "unlösbar" oder "zu langsam" galten – und das mit einer Geschwindigkeit, die früher undenkbar war.