Kraken: Higher-order EM Side-Channel Attacks on DNNs in Near and Far Field

이 논문은 기존 CUDA 코어뿐만 아니라 최신 GPU 의 텐서 코어에서도 근거리 물리적 사이드 채널 공격을 통해 DNN 파라미터를 추출할 수 있음을 최초로 증명하고, 100cm 떨어진 원거리에서도 LLM 의 하이퍼파라미터와 가중치가 유출될 수 있음을 보여줍니다.

Peter Horvath, Ilia Shumailov, Lukasz Chmielewski, Lejla Batina, Yuval Yarom

게시일 Thu, 12 Ma
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ 핵심 이야기: "AI 의 비밀을 귀로 듣다"

상상해 보세요. 어떤 회사가 수천억 원을 들여 만든 **초고성능 AI(대규모 언어 모델)**가 있습니다. 이 AI 의 두뇌 (가중치) 는 회사의 가장 큰 비밀이자 자산입니다. 보통 해커들은 이 비밀을 빼내기 위해 AI 에게 질문을 많이 하거나 (API 공격), 소프트웨어적인 방법을 쓰죠.

하지만 이 논문은 "물리적으로 전자기파를 훔쳐듣는" 완전히 새로운 방법을 제시합니다. 마치 옆방에서 벽을 뚫지 않고도, 벽을 통해 새어 나오는 소리를 듣고 대화 내용을 알아내는 것과 같습니다.

🚀 1. 새로운 타겟: "Tensor Core"라는 초고속 주방

기존의 해킹 연구는 GPU(그래픽 카드) 의 일반 부품인 'CUDA 코어'를 노렸습니다. 하지만 요즘 AI 는 훨씬 빠른 **'Tensor Core(텐서 코어)'**라는 특수 부품을 주로 사용합니다.

  • 비유: 일반 주방 (CUDA 코어) 에서 요리를 하는 해커가 있었지만, 이 연구팀은 **초고속 자동화 주방 (Tensor Core)**에서 요리하는 과정을 훔쳐듣는 데 성공했습니다.
  • 결과: 훨씬 빠르고 효율적으로 AI 의 비밀 레시피 (모델 가중치) 를 알아낼 수 있게 되었습니다.

🔍 2. 두 가지 공격 방식: "귀에 대고 듣기" vs "멀리서 훔쳐듣기"

이 연구는 두 가지 거리에서 공격을 시도했습니다.

A. 근거리 공격 (Near Field): "귀를 대고 속삭이는 것"

  • 방법: GPU 칩 바로 옆에 전자기파 탐지기를 붙입니다.
  • 기술적 혁신 (워프 레벨 모델):
    • GPU 는 32 명의 요리사 (스레드) 가 한 팀 (워프) 을 이루어 동시에 일합니다.
    • 기존 해커들은 "한 명 한 명의 소리"를 들으려다 소음에 가려 실패했습니다.
    • 이 연구팀은 **"한 팀 전체가 만드는 합성음"**을 분석하는 새로운 방법을 개발했습니다.
    • 효과: 소음 속에서 원하는 신호를 훨씬 빠르게 찾아내어, 필요한 데이터 양을 수백만 개에서 수십만 개로 줄였습니다.

B. 고차원 공격 (Higher-Order): "조각난 퍼즐 맞추기"

  • 비유: AI 가 같은 비밀 레시피 (가중치) 를 여러 번 반복해서 사용합니다.
  • 전략: 해커는 한 번의 요리 과정 (중간 계산값) 만으로는 비밀을 알 수 없지만, 여러 번의 요리 과정을 합쳐서 (고차원 공격) 퍼즐을 맞추면 훨씬 적은 노력으로 비밀을 알아낼 수 있습니다.
  • 결과: 기존 방법보다 훨씬 빠르게 AI 의 두뇌를 복제할 수 있게 되었습니다.

📡 3. 원거리 공격 (Far Field): "유리창 너머의 비밀"

가장 놀라운 부분은 1 미터 (100cm) 떨어진 곳에서도 공격이 가능하다는 것입니다.

  • 상황: 해커가 AI 가 달린 컴퓨터 앞에 서 있지 않고, 유리창 너머에서 안테나로 전자기파를 훔쳐듣습니다.
  • 결과: 유리창이라는 장애물이 있어 신호가 약해지기는 했지만, AI 가 어떤 단어를 생성하는지나 **모델의 일부 비밀 (LoRA 가중치)**을 알아내는 데 성공했습니다.
  • 의미: 이제 AI 를 보호하기 위해 방을 비워두거나, 유리벽을 두르는 것만으로는 더 이상 안전하지 않을 수 있음을 보여줍니다.

⚠️ 4. 왜 이것이 위험한가? (양자화와 정보 유출)

또 다른 흥미로운 점은, 해커가 공격을 시작하기 전에도 이미 정보를 얻을 수 있다는 것입니다.

  • 비유: AI 모델의 숫자 (가중치) 를 압축할 때 (양자화), 특정 규칙을 따릅니다. 이 규칙을 알면, 해커는 "가장 큰 숫자는 이 정도일 거야"라고 미리 추측할 수 있습니다.
  • 위험: 이렇게 미리 알고 있는 정보와 전자기파를 합치면, 해커는 훨씬 적은 노력으로 AI 를 복제해낼 수 있습니다.

🛡️ 결론: 무엇을 해야 할까?

이 논문은 "AI 모델 도둑질"이 이제 소프트웨어를 넘어 물리적인 세계에서도 가능해졌음을 경고합니다.

  • 현재 상황: 아직은 100% 완벽한 모델을 훔쳐내는 것은 어렵지만, 중요한 부분 (LoRA 등) 을 훔치는 것은 이미 가능해졌습니다.
  • 대응책:
    • 근거리: 전자기파를 차단하는 금속 차폐재 (Shielding) 가 필요합니다.
    • 원거리: 유리창 너머에서도 신호가 새어나가므로, 물리적 보안과 함께 전자기파를 흐리게 만드는 기술이 필요합니다.

한 줄 요약:

"이제 AI 의 비밀은 컴퓨터 화면을 훔쳐보는 것뿐만 아니라, 컴퓨터가 내뿜는 '전자기파 소리'를 멀리서 훔쳐듣는 것으로도 도둑질당할 수 있습니다."