Layer-wise QUBO-Based Training of CNN Classifiers for Quantum Annealing

Diese Arbeit präsentiert einen iterativen QUBO-basierten Ansatz zum Training von CNN-Klassifikatoren mittels Quantenannealing, der durch eingefrorene Faltungsfilter und ein quadratisches Surrogat gradientenbasierte Optimierung vermeidet und auf mehreren Bilddatensätzen wettbewerbsfähige Ergebnisse liefert.

Mostafa Atallah, Rebekah Herrman

Veröffentlicht 2026-03-03
📖 4 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie wollen einem Computer beibringen, Bilder zu erkennen – zum Beispiel, ob auf einem Foto eine Katze oder ein Hund zu sehen ist. Das machen wir heute mit künstlichen neuronalen Netzen (KI). Aber was, wenn wir diese KI nicht mit herkömmlichen Computern, sondern mit Quantencomputern trainieren wollen?

Das ist genau das Problem, das diese Forscher angehen. Hier ist eine einfache Erklärung ihrer Arbeit, ohne komplizierte Fachbegriffe.

1. Das Problem: Der verlorene Wanderer

Stellen Sie sich vor, Sie wollen einen Berg hinabsteigen, um ins Tal (die beste Lösung) zu kommen.

  • Der klassische Weg: Sie schauen auf den Boden und gehen immer bergab. Das funktioniert gut, aber manchmal bleiben Sie in einem kleinen Loch stecken, das nicht das tiefste Tal ist.
  • Der Quanten-Weg (Variational Circuits): Hier gibt es ein Problem namens „Barren Plateau" (wüste Ebene). Stellen Sie sich vor, Sie stehen auf einer riesigen, flachen Wüste. Es gibt keinen Abhang, keine Richtung. Der Computer weiß nicht, wo er lang soll, und die KI lernt nichts.

Die Forscher wollten einen Weg finden, wie man eine KI trainiert, ohne in dieser „wüsten Ebene" stecken zu bleiben und ohne dass die Rechenzeit explodiert, wenn man mehr Bilder hat.

2. Die Lösung: Der eingefrorene Fotograf

Normalerweise lernt eine KI alles: Sie lernt, wie man Kanten erkennt (wie ein Fotograf, der die Kamera einstellt), und sie lernt, wie man das Ergebnis bewertet (der Fotograf, der entscheidet, ob es ein Hund ist).

Diese Forscher haben einen cleveren Trick angewandt, ähnlich wie beim „Extreme Learning Machine"-Konzept:

  • Die Kamera ist fest: Die ersten Teile der KI (die „Convolutional Filters"), die das Bild ansehen, werden zufällig eingestellt und dann eingefroren. Sie ändern sich nie mehr. Das ist wie ein Fotograf, der die Kamera einmal zufällig auf eine Landschaft richtet und dann den Stativ festklemmt.
  • Nur der Kopf lernt: Nur der letzte Teil der KI (der „Classifier"), der entscheidet „Das ist ein Hund", wird trainiert.

Warum? Weil es viel einfacher ist, nur einen kleinen Teil zu optimieren, als den ganzen riesigen Berg zu bewegen.

3. Die Sprache der Quanten: Das QUBO-Puzzle

Quantencomputer (speziell die sogenannten „Annealer" von D-Wave) verstehen keine normalen Zahlen wie 3,14. Sie verstehen nur Schalter: An oder Aus (0 oder 1).

Um die KI auf diesen Computer zu bringen, haben die Forscher die Mathematik umgebaut:

  • Das QUBO: Das steht für „Quadratische Ungebundene Binäre Optimierung". Vereinfacht gesagt: Sie verwandeln das Lernproblem in ein riesiges Puzzle, bei dem es darum geht, eine bestimmte Anzahl von Schaltern so zu stellen, dass der „Energieverbrauch" minimal ist.
  • Die Brücke: Da das eigentliche Lernen (Cross-Entropy Loss) für Quantencomputer zu kompliziert ist, haben sie eine Vereinfachung gebaut. Sie nutzen eine Art „Landkarte der Fehler" (Gram-Matrix), die zeigt, wie die verschiedenen Bildmerkmale zusammenhängen. Diese Karte ist statisch und ändert sich nicht, was die Sache viel stabiler macht.

4. Die Feinabstimmung: Wie viele Bits?

Da Quantencomputer nur Schalter verstehen, müssen sie die Zahlen der KI in Binärcode umwandeln.

  • 5 Bits: Wie ein Lineal mit nur groben Strichen. Die KI lernt nicht richtig (nur ca. 33% Genauigkeit).
  • 20 Bits: Wie ein Mikroskop. Die KI kann sehr fein unterscheiden.
  • Das Ergebnis: Die Forscher haben herausgefunden, dass man mindestens 10 Bits braucht, damit es funktioniert. Mit 20 Bits war die KI so gut oder sogar besser als herkömmliche Computer auf bestimmten Tests (wie MNIST, einem Standard-Test für handschriftliche Zahlen).

5. Die Ergebnisse: Hat es geklappt?

Die Forscher haben ihre Methode an sechs verschiedenen „Prüfungen" getestet (Bilder von Zahlen, Kleidung, Objekten).

  • Vergleich: Sie haben die Quanten-Methode (simuliert auf einem klassischen Computer) gegen eine normale KI (Gradient Descent) angetreten.
  • Ergebnis: Bei einfachen Bildern (wie handschriftlichen Zahlen) war die Quanten-Methode mit 20-Bit-Genauigkeit besser als die normale KI. Bei komplexeren Bildern (wie bunten Fotos) war sie ähnlich gut.
  • Wichtig: Sie haben das noch nicht auf einem echten Quantencomputer laufen lassen, sondern mit einer Simulation. Aber sie haben bewiesen, dass die Idee funktioniert und die Daten für einen echten Quantencomputer passen würden.

6. Zusammenfassung in einem Satz

Die Forscher haben eine KI erfunden, die wie ein Fotograf mit feststehender Kamera ist, deren „Gehirn" aber mit Hilfe von Quanten-Logik (Schalter-Puzzles) trainiert wird, um Bilder zu erkennen – und das funktioniert überraschend gut, ohne dass die KI in mathematischen Sackgassen stecken bleibt.

Was bedeutet das für die Zukunft?

  • Vorteil: Man braucht keine riesigen Datenmengen, um das Quanten-Teil zu trainieren. Es ist stabiler.
  • Nachteil: Derzeit ist es noch langsamer als ein normaler Computer.
  • Ausblick: Wenn die Quantencomputer in Zukunft stärker werden, könnte diese Methode helfen, KI schneller und effizienter zu trainieren, ohne dass sie in „wüsten Ebenen" der Mathematik verloren geht.