Defending Quantum Classifiers against Adversarial Perturbations through Quantum Autoencoders

Dieser Artikel schlägt einen Verteidigungsrahmen für Quantenklassifikatoren vor, der ohne adversariales Training auskommt, einen Quantenautoencoder zur Bereinigung adversarialer Beispiele und zur Identifizierung nicht bereinigbarer Eingaben nutzt und unter adversarialen Angriffen die Vorhersagegenauigkeit deutlich über die des Standes der Technik hinaussteigert.

Ursprüngliche Autoren: Emma Andrews, Sahan Sanjaya, Prabhat Mishra

Veröffentlicht 2026-05-01
📖 4 Min. Lesezeit🧠 Tiefgang

Dies ist eine KI-generierte Erklärung des untenstehenden Papers. Sie wurde nicht von den Autoren verfasst oder gebilligt. Für technische Genauigkeit konsultieren Sie das Originalpaper. Vollständigen Haftungsausschluss lesen

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie haben einen sehr intelligenten Roboter, der ein Bild einer handschriftlichen Zahl (wie eine „7") betrachten und Ihnen genau sagen kann, was sie ist. Dieser Roboter ist ein Quanten-Machine-Learning-Modell, eine supersofistikierte Version der KI, die wir heute nutzen.

Allerdings kann dieser Roboter, genau wie ein Mensch durch einen Zaubertrick getäuscht werden, auch getäuscht werden. Ein Angreifer kann eine winzige, unsichtbare Schicht aus „Statik" oder „Rauschen" zum Bild hinzufügen. Für Ihr Auge sieht die „7" immer noch wie eine „7" aus, aber der Roboter denkt plötzlich, es sei eine „2". Dies wird als adversarialer Angriff bezeichnet.

Die Autoren dieses Papers wollten einen Schild für diesen Roboter bauen, damit er nicht getäuscht wird. Hier ist, wie sie es taten, einfach erklärt:

Das Problem mit alten Schilden

Normalerweise müssen Sie, um einem Roboter beizubringen, diese Tricks zu ignorieren, ihm Tausende von gefälschten, getäuschten Bildern zeigen und sagen: „Das ist immer noch eine 7, lassen Sie sich nicht täuschen!" Dies wird als adversariales Training bezeichnet.

  • Der Haken: Manchmal können Sie dies nicht tun. Vielleicht wissen Sie nicht, welche Art von Tricks der Angreifer verwenden wird, oder vielleicht wird der Roboter so gut darin, einen spezifischen Trick zu erkennen, dass er vergisst, wie er mit neuen umgehen soll. Es ist, als würde man nur für einen bestimmten Typ von Mathe-Test lernen und dann scheitern, wenn sich die Fragen leicht ändern.

Die neue Lösung: Der „Quantum Autoencoder" (Der magische Filter)

Anstatt den Roboter neu zu trainieren, bauten die Autoren einen Quantum Autoencoder (QAE). Stellen Sie sich dies als einen High-Tech-Fotofilter oder einen Geräuschunterdrückungskopfhörer für Bilder vor.

  1. Der Filter: Bevor der Roboter das Bild betrachtet, nimmt der QAE das Bild (auch das mit dem unsichtbaren Rauschen) und versucht, es zu „rekonstruieren".
  2. Die Reinigung: Der QAE wird nur auf sauberen, perfekten Bildern trainiert. Wenn er ein verrauschtes, getäuschtes Bild sieht, versucht er, das seltsame Rauschen zu entfernen und das Bild basierend auf dem, was er weiß, wie ein „echtes" Bild aussieht, wiederherzustellen. Es ist wie ein Restaurator, der ein schmutziges Gemälde reinigt, um die ursprüngliche Kunst darunter freizulegen.
  3. Das Ergebnis: Der Roboter betrachtet dann diese aufgeräumte Version. Da das Rauschen weg ist, kann der Roboter die „7" wieder korrekt identifizieren.

Das „Vertrauensmessgerät" (Der Türsteher)

Manchmal ist das Rauschen so stark, dass der Filter das Bild nicht perfekt reinigen kann. Wenn der Roboter versucht, auf einem unordentlichen Bild zu raten, könnte er immer noch falsch liegen.

Um dies zu beheben, fügten die Autoren ein Vertrauensmessgerät hinzu. Dies wirkt wie ein strenger Türsteher in einem Club:

  • Die Prüfung: Das System überprüft zwei Dinge:
    1. Wie gut hat der Filter das Bild gereinigt? (Ist das Rauschen verschwunden?)
    2. Wie sicher ist der Roboter? (Ist der Roboter zuversichtlich, dass es eine „7" ist, oder rät er?)
  • Die Entscheidung: Wenn das Bild immer noch zu unordentlich ist oder der Roboter unsicher ist, sagt der Türsteher: „Kein Eintritt!" und lehnt die Probe ab. Er macht keinen falschen Vorschlag; er verweigert einfach die Antwort, was besser ist als zu lügen.

Was sie fanden

Das Team testete dies an berühmten Bilddatensätzen (MNIST für Zahlen und FashionMNIST für Kleidung).

  • Die Ergebnisse: Wenn Angreifer starke Tricks verwendeten, um den Roboter zu täuschen, versagten die alten Methoden (unter Verwendung herkömmlicher Computerfilter) jämmerlich, wobei die Genauigkeit auf nahe Null sank.
  • Der Sieg: Ihr neues System (QAE++) hielt den Roboter korrekt funktionierend. In einigen Fällen verbesserte es die Genauigkeit des Roboters um 68 % im Vergleich zu den besten bestehenden Methoden.
  • Effizienz: Ihr Quantenfilter war auch viel kleiner und leichter als die alten Computerfilter und benötigte weit weniger Speicher, um zu laufen.

In Kürze

Das Paper schlägt eine Methode vor, um Quanten-KI davor zu schützen, getäuscht zu werden, ohne sie auf jeden möglichen Trick neu trainieren zu müssen. Sie verwenden einen Quantenfilter, um die Bilder zu reinigen, und ein Vertrauensmessgerät, um alles abzulehnen, was zu verdächtig aussieht. Dies hält die KI genau und zuverlässig, selbst wenn jemand versucht, unsichtbares Rauschen einzuschleusen, um sie zu verwirren.

Ertrinken Sie in Arbeiten in Ihrem Fachgebiet?

Erhalten Sie tägliche Digests der neuesten Arbeiten passend zu Ihren Forschungsbegriffen — mit technischen Zusammenfassungen, in Ihrer Sprache.

Digest testen →