Layer-wise QUBO-Based Training of CNN Classifiers for Quantum Annealing

이 논문은 컨볼루션 필터를 고정하고 완전 연결 레이어만 이터레이티브 QUBO 기반 양자 어닐링으로 훈련하는 CNN 분류기 프레임워크를 제안하여, 변분 양자 회로의 barren plateau 문제를 우회하면서도 여러 이미지 분류 벤치마크에서 기존 경사 하강법과 경쟁력 있는 성능을 달성함을 보였다.

Mostafa Atallah, Rebekah Herrman

게시일 2026-03-03
📖 4 분 읽기🧠 심층 분석

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"양자 컴퓨터를 이용해 AI(인공지능) 가 사진을 더 잘 구별하도록 가르치는 새로운 방법"**을 소개합니다.

기존의 AI 학습 방식은 마치 복잡한 미로를 하나하나 헤매며 길을 찾는 것처럼, 모든 수치를 미세하게 조정하며 학습합니다. 하지만 양자 컴퓨터를 쓸 때는 이 방식이 잘 맞지 않습니다. 이 논문은 그 문제를 해결하기 위해 **"고정된 렌즈 + 양자 퍼즐"**이라는 독특한 방식을 제안합니다.

이해하기 쉽게 4 가지 핵심 비유로 설명해 드릴게요.


1. 문제: 양자 AI 는 왜 학습이 어려울까요?

일반적인 AI 학습은 **'경사 하강법'**이라는 방식을 씁니다. 언덕 위에서 아래로 내려가듯, 실수가 줄어들的方向으로 수치를 조금씩 조정하는 거죠.

하지만 양자 컴퓨터 (특히 '양자 어닐링' 방식) 는 이 '경사'를 계산하는 게 어렵습니다. 마치 안개가 자욱한 산에서 어디가 아래인지 방향을 잃어버리는 것과 비슷합니다. 이를 '메마른 대지 (Barren Plateaus)' 현상이라고 부릅니다. 그래서 기존 양자 AI 는 학습이 잘 안 되거나, 데이터가 조금만 많아져도 계산이 폭발해버리는 문제가 있었습니다.

2. 해결책 1: "렌즈는 고정하고, 초점만 맞춘다" (ELM 방식)

이 연구팀은 AI 의 두 부분을 나눕니다.

  • 이미지 인식부 (렌즈): 사진에서 '고양이 귀'나 '바퀴' 같은 특징을 찾아내는 부분입니다.
  • 판단부 (머리): 찾아낸 특징을 보고 "이건 고양이구나"라고 결론 내리는 부분입니다.

보통은 두 부분 모두를 학습시킵니다. 하지만 이 논문은 렌즈 부분을 처음에 무작위로 만들고, 절대 건드리지 않습니다 (고정). 대신, 판단부 (머리) 만 양자 컴퓨터로 학습시킵니다.

비유: 카메라의 렌즈는 이미 좋은 것을 사서 고정해두고, 우리가 조절하는 건 '초점 (포커스)' 버튼 하나만 조절하는 것과 같습니다. 이렇게 하면 학습할 게 훨씬 줄어들어 양자 컴퓨터가 처리하기 훨씬 쉬워집니다.

3. 해결책 2: "복잡한 수학 문제를 양자 퍼즐로 바꾼다" (QUBO)

AI 가 학습할 때 쓰는 수학 공식 (손실 함수) 은 양자 컴퓨터가 이해하기 너무 복잡합니다.
연구팀은 이 복잡한 공식을 양자 컴퓨터가 가장 잘 푸는 **'QUBO(이차 무제약 이진 최적화)'**라는 퍼즐 형태로 바꿨습니다.

비유: 원래는 "이 복잡한 미로를 빠져나가세요"라고 하는 대신, **"이 퍼즐 조각을 맞춰서 가장 낮은 골짜기를 찾으세요"**라고 바꾸는 것입니다. 양자 컴퓨터는 이 '골짜기 찾기'를 매우 잘합니다.

4. 해결책 3: "한 번에 다 하지 말고, 나누어 해결하자" (분해)

사진을 10 가지 종류 (0~9 숫자 등) 로 분류해야 한다면, 보통은 한 번에 모든 것을 결정하려 합니다. 하지만 이 논문은 10 가지 종류를 10 개의 작은 문제로 쪼갭니다.
각각의 문제 (예: "이게 0 일 확률이 높은가?") 를 독립적으로 양자 컴퓨터에 맡깁니다.

비유: 10 명을 뽑는 시험을 한 번에 치르는 대신, 10 개의 작은 시험지를 만들어 각각 따로 채점하는 방식입니다. 이렇게 하면 양자 컴퓨터의 메모리 (큐비트) 한도를 넘지 않습니다.


실험 결과: 얼마나 잘할까요?

연구팀은 이 방법을 6 가지 이미지 데이터셋 (숫자, 옷, 사물 등) 으로 테스트했습니다.

  1. 정밀도 (Bit Precision) 의 중요성:
    양자 컴퓨터는 숫자를 얼마나 정밀하게 표현하느냐 (비트 수) 가 중요합니다.

    • 5 비트: 너무 뭉개져서 그림이 흐릿함 (학습 실패).
    • 10~20 비트: 선명한 그림 (학습 성공).
    • 결론: 최소 10 비트 이상은 되어야 제 기능을 합니다.
  2. 성능:

    • MNIST(숫자) 데이터: 기존 컴퓨터 (클래식) 가 79.8% 를 맞췄다면, 이 양자 방식은 **81.5%**를 맞춰 더 잘했습니다.
    • 복잡한 데이터 (옷, 사물): 기존 컴퓨터와 비슷하거나 약간 뒤처지기도 했지만, 양자 컴퓨터의 한계 내에서 매우 경쟁력 있는 결과를 냈습니다.
  3. 현재의 한계:
    아직은 실제 양자 컴퓨터 (D-Wave 등) 에 바로 넣기엔 데이터가 너무 커서, 연구팀은 **'시뮬레이션 (가상 양자 컴퓨터)'**으로 실험했습니다. 하지만 이 방식은 실제 양자 하드웨어에 바로 적용할 수 있도록 설계되었습니다.


요약: 이 연구가 왜 중요할까요?

이 논문은 **"양자 컴퓨터로 AI 를 학습시킬 때, 무작정 모든 것을 양자화할 필요는 없다"**는 것을 보여줍니다.

  • 기존 방식: AI 전체를 양자 컴퓨터에 맡기려다 실패.
  • 이 논문: AI 의 '눈 (렌즈)'은 기존 컴퓨터로, '머리 (판단)'만 양자 컴퓨터로 맡기는 하이브리드 방식.

이는 마치 고성능 엔진 (양자 컴퓨터) 을 달기 위해 차체 (AI 구조) 를 가볍게 개조한 것과 같습니다. 현재 양자 컴퓨터의 기술 수준 (큐비트 수) 에 맞춰 AI 학습 방식을 재설계한, 매우 실용적인 첫걸음이라고 볼 수 있습니다.

한 줄 결론:

"AI 의 눈은 고정하고, 양자 컴퓨터로 '결정'만 빠르게 내리게 하여, 기존 컴퓨터 못지않게 사진을 잘 구별하게 만든 새로운 학습법!"