Defending Quantum Classifiers against Adversarial Perturbations through Quantum Autoencoders

Dit artikel stelt een verdedigingskader voor kwantumclassificatoren voor dat geen adversariale training vereist, gebruikmakend van een kwantumauto-encoder om adversariale samples te zuiveren en onreinigbare invoer te identificeren, en dat aanzienlijk beter presteert dan de state-of-the-art methoden qua voorspellingsnauwkeurigheid onder adversariale aanvallen.

Oorspronkelijke auteurs: Emma Andrews, Sahan Sanjaya, Prabhat Mishra

Gepubliceerd 2026-05-01
📖 4 min leestijd🧠 Diepgaand

Dit is een AI-gegenereerde uitleg van het onderstaande artikel. Het is niet geschreven of goedgekeurd door de auteurs. Raadpleeg het oorspronkelijke artikel voor technische nauwkeurigheid. Lees de volledige disclaimer

Each language version is independently generated for its own context, not a direct translation.

Stel je een zeer slimme robot voor die naar een foto van een handgeschreven cijfer (zoals een "7") kan kijken en je precies kan vertellen wat het is. Deze robot is een Quantum Machine Learning-model, een supergeavanceerde versie van de AI die we vandaag de dag gebruiken.

Echter, net zoals een mens kan worden bedrogen door een goocheltruc, kan deze robot worden misleid. Een aanvaller kan een tiny, onzichtbare laag "statische ruis" of "ruis" aan de foto toevoegen. Voor je ogen ziet de "7" er nog steeds uit als een "7", maar de robot denkt plotseling dat het een "2" is. Dit wordt een adversariale aanval genoemd.

De auteurs van dit artikel wilden een schild bouwen voor deze robot zodat hij niet bedrogen zou worden. Hier is hoe ze dat deden, eenvoudig uitgelegd:

Het probleem met oude schilden

Meestal moet je, om een robot te leren deze trucs te negeren, hem duizenden neppe, bedrieglijke afbeeldingen laten zien en zeggen: "Dit is nog steeds een 7, laat je niet bedriegen!" Dit heet adversariaal trainen.

  • De valstrik: Soms kun je dit niet doen. Misschien weet je niet welke soort trucs de aanvaller zal gebruiken, of misschien wordt de robot zo goed in het opsporen van één specifieke truc dat hij vergeet hoe hij met nieuwe moet omgaan. Het is alsof je alleen studeert voor één specifiek type wiskundetoets en faalt wanneer de vragen iets veranderen.

De nieuwe oplossing: de "Quantum Autoencoder" (Het magische filter)

In plaats van de robot opnieuw te trainen, bouwden de auteurs een Quantum Autoencoder (QAE). Denk hierbij aan een hightech fotofilter of een ruisannulerende koptelefoon voor afbeeldingen.

  1. Het filter: Voordat de robot naar de foto kijkt, neemt de QAE de afbeelding (zelfs die met de onzichtbare ruis) en probeert deze te "reconstrueren".
  2. De zuivering: De QAE is alleen getraind op schone, perfecte afbeeldingen. Wanneer het een ruisende, bedrieglijke afbeelding ziet, probeert het de vreemde ruis weg te halen en de afbeelding opnieuw op te bouwen op basis van wat het weet dat een "echte" afbeelding eruit ziet. Het is alsof een restaurator een modderig schilderij schoonmaakt om de originele kunst eronder te onthullen.
  3. Het resultaat: De robot kijkt vervolgens naar deze opgepoetste versie. Omdat de ruis weg is, kan de robot de "7" weer correct identificeren.

De "Zekerheidsmeter" (De portier)

Soms is de ruis zo sterk dat het filter de afbeelding niet perfect kan reinigen. Als de robot een rommelige afbeelding probeert te raden, kan hij het nog steeds fout hebben.

Om dit op te lossen, voegden de auteurs een Zekerheidsmeter toe. Dit werkt als een strenge portier bij een club:

  • De controle: Het systeem controleert twee dingen:
    1. Hoe goed heeft het filter de afbeelding gereinigd? (Is de ruis verdwenen?)
    2. Hoe zeker is de robot? (Is de robot zeker dat het een "7" is of raadt hij?)
  • De beslissing: Als de afbeelding nog te rommelig is of de robot onzeker is, zegt de portier: "Geen toegang!" en verwerpt het voorbeeld. Hij maakt geen verkeerde gok; hij weigert simpelweg te antwoorden, wat beter is dan liegen.

Wat ze vonden

Het team testte dit op beroemde beelddatasets (MNIST voor cijfers en FashionMNIST voor kleding).

  • De resultaten: Toen aanvangers sterke trucs gebruikten om de robot te bedriegen, faalden de oude methoden (met standaard computerfilters) op erbarmelijke wijze, met een nauwkeurigheid die daalde tot bijna nul.
  • De winst: Hun nieuwe systeem (QAE++) hield de robot correct werkend. In sommige gevallen verbeterde het de nauwkeurigheid van de robot met 68% ten opzichte van de beste bestaande methoden.
  • Efficiëntie: Hun quantumfilter was ook veel kleiner en lichter dan de oude computerfilters, en vereiste veel minder geheugen om te draaien.

In het kort

Het artikel stelt een manier voor om quantum-AI te beschermen tegen bedrog zonder dat het op elke mogelijke truc opnieuw getraind hoeft te worden. Ze gebruiken een quantumfilter om de afbeeldingen te reinigen en een zekerheidsmeter om alles wat te verdacht lijkt te verwerpen. Dit houdt de AI nauwkeurig en betrouwbaar, zelfs wanneer iemand probeert onzichtbare ruis binnen te smokkelen om hem in de war te brengen.

Verdrinkt u in papers in uw vakgebied?

Ontvang dagelijkse digests van de nieuwste papers die bij uw onderzoekswoorden passen — met technische samenvattingen, in uw taal.

Probeer Digest →