VidDoS: Universal Denial-of-Service Attack on Video-based Large Language Models

본 논문은 기존 이미지 중심 공격의 한계를 극복하고, 가림된 교사 강제 (masked teacher forcing) 와 거부 패널티 등을 활용한 보편적 에너지 - 지연 공격 프레임워크 'VidDoS'를 제안하여 비디오 LLM 의 추론 지연을 15 배 이상 증가시키고 자율주행 등 안전-중요 응용 분야에서 치명적인 위험을 초래할 수 있음을 입증합니다.

Duoxun Tang, Dasen Dai, Jiyao Wang, Xiao Yang, Jianyu Wang, Siqi Cai

게시일 2026-03-03
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎬 비디오 LLM 을 마비시키는 '비디오 도스 (VidDoS)' 공격 설명

이 논문은 최신 기술인 **'비디오 기반 인공지능 (Video-LLM)'**을 속여서 계산 자원을 고갈시키고 반응을 멈추게 만드는 새로운 해킹 방법을 소개합니다. 마치 고속도로를 달리는 자율주행차의 뇌를 혼란스럽게 만들어, 긴급 상황에서 멈추게 만드는 것과 같습니다.

이 복잡한 내용을 일상적인 비유로 쉽게 설명해 드릴게요.


1. 배경: 인공지능의 '뇌'가 너무 바빠요

최근 자율주행차나 보안 시스템은 카메라로 보는 영상을 실시간으로 분석하고, "앞에 차가 있니?"라고 물으면 "있어요"라고 짧고 빠르게 대답하는 인공지능 (Video-LLM) 을 사용합니다.

하지만 문제는 이 인공지능이 너무 많은 정보를 처리하려다 지쳐버릴 수 있다는 점입니다.

2. 기존 해킹의 실패: "물방울을 쏟아부어도 소용없어요"

과거에는 정지된 사진 (이미지) 에 아주 미세한 노이즈를 섞어 인공지능을 혼란스럽게 만드는 방법이 있었습니다. 하지만 동영상에는 통하지 않았습니다.

  • 비유: 만약 당신이 강물 (동영상) 에 물방울 (노이즈) 하나를 떨어뜨린다면? 강물은 그 물방울을 순식간에 희석시켜버립니다.
  • 이유: 비디오 AI 는 영상을 볼 때 프레임 (장면) 을 빠르게 넘겨가며 핵심 내용만 추려냅니다. 한 장의 사진에 넣은 해킹 신호는 이 과정에서 사라져버려 효과가 없습니다.

3. 새로운 해킹: VidDoS (비디오 도스) 의 등장

연구진은 **"물방울"이 아니라 "강력한 빨간색 스티커"**를 붙이는 방식을 고안했습니다. 이것이 바로 VidDoS입니다.

🎯 핵심 전략 1: '보이지 않는 스티커' (Universal Patch)

  • 비유: 동영상 화면의 구석 (예: 오른쪽 하단) 에 사람 눈에는 잘 안 보이지만, AI 에게는 아주 눈에 띄는 특수 스티커를 붙입니다.
  • 효과: 이 스티커는 영상 내용이 무엇이든 (도로, 숲, 도시) 상관없이 붙일 수 있습니다. 마치 모든 차에 붙일 수 있는 '범용 스티커'처럼요. AI 는 이 스티커를 보고 "아! 이걸 봐야 해!"라고 집중하게 됩니다.

🎯 핵심 전략 2: "답변을 멈추지 마!" (강제 연설)

AI 는 보통 "네/아니오"처럼 짧게 대답하도록 훈련되어 있습니다. 하지만 VidDoS 는 AI 의 뇌를 속여 다음과 같이 만듭니다.

  1. 강제 시작: "이건 네가 답해야 해!"라고 강요합니다.
  2. 멈춤 금지: "아니, 대답 끝났어!"라고 말하려 하면 AI 가 "아니야, 아직 더 말할 게 있어!"라고 계속 말하게 만듭니다.
  3. 결과: AI 는 "네, 아니오" 대신 **수천 마디의 쓸모없는 말 (할루시네이션)**을 쏟아냅니다.

4. 어떤 일이 벌어질까요? (실제 피해)

이 공격이 성공하면 다음과 같은 일이 발생합니다.

  • 말의 폭주: AI 가 보통 2 초 만에 "차 있어요"라고 대답해야 하는데, 30 분 동안 "차 있어요... 차가 있어요... 차가 있네요..."라고 계속 반복하며 말을 늘어놓습니다.
  • 자원 고갈: AI 가 말을 멈출 수 없게 되니, 컴퓨터의 메모리와 전력을 다 써버립니다.
  • 치명적 지연: 자율주행차가 "앞에 장애물이 있다"고 판단해야 할 때, AI 가 말을 멈추지 못해 대응이 15 배 이상 늦어집니다.
    • 비유: 비상 브레이크를 밟아야 할 때, 운전자가 "잠깐, 내일 날씨 어때요? 오늘 점심 뭐 먹지?"라고 10 분간 떠들고 있다면? 충돌이 일어납니다.

5. 실험 결과: 얼마나 무서운가요?

연구진은 LLaVA, Qwen 등 최신 비디오 AI 3 종을 대상으로 실험했습니다.

  • 토큰 (말) 폭증: 평소보다 205 배 이상 많은 말을 생성했습니다.
  • 지연 시간: 응답 시간이 15 배 이상 늘어났습니다.
  • 범용성: 한 번 만든 '스티커'로 다양한 동영상 (자율주행, 일반 영상) 을 모두 마비시킬 수 있었습니다.
  • 방어 불가: AI 가 답변을 무작위로 선택하게 설정해도 (온도 조절), 이 공격은 여전히 통했습니다.

6. 결론: 우리가 알아야 할 점

이 논문은 **"AI 가 너무 똑똑해져서 오히려 약점이 생겼다"**는 것을 보여줍니다.

  • 문제: 우리가 AI 에게 "빠르고 간결하게" 대답하라고 가르쳤는데, 해커는 그 반대로 "계속 말하게" 만들어 시스템을 마비시킵니다.
  • 경고: 자율주행차나 긴급 구조 시스템처럼 생명이 걸린 곳에 AI 를 쓸 때는, 이런 '지연 공격'에 대한 방어책이 반드시 필요합니다.

한 줄 요약:

"비디오 AI 의 구석에 붙인 작은 스티커 하나로, AI 가 멈추지 않고 떠들게 만들어 시스템을 마비시키는 새로운 해킹 방법이 발견되었습니다. 이는 자율주행차 같은 안전 시스템에 치명적인 위협이 될 수 있습니다."