Beyond Max Tokens: Stealthy Resource Amplification via Tool Calling Chains in LLM Agents

이 논문은 모델 컨텍스트 프로토콜 (MCP) 환경에서 도구 호출 체인을 악용하여 기존 단일 회선 공격의 한계를 넘어, 은밀하게 토큰 소모와 비용을 극대화하는 새로운 형태의 DoS 공격 기법을 제안하고 그 위험성을 입증합니다.

Kaiyu Zhou, Yongsen Zheng, Yicheng He, Meng Xue, Xueluan Gong, Yuji Wang, Xuanye Zhang, Kwok-Yan Lam

게시일 Thu, 12 Ma
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 최신 인공지능 (AI) 에이전트가 겪고 있는 새로운 형태의 '보안 구멍'을 발견하고, 이를 악용하는 방법을 설명한 연구입니다. 어렵게 들릴 수 있는 기술 용어들을 일상적인 비유로 풀어 설명해 드릴게요.

🕵️‍♂️ 핵심 내용: "정직한 일을 시키지만, 비용을 터뜨리는 사기"

이 연구의 핵심은 **"AI 가 일을 잘해내게 하되, 그 과정에서 엄청난 돈과 전기를 낭비하게 만드는 방법"**을 찾았다는 점입니다.

1. 배경: AI 는 이제 '도구'를 다룹니다

과거의 AI 는 단순히 질문에 답하는 '챗봇'이었습니다. 하지만 요즘 AI 에이전트는 외부 도구 (날짜 확인, 검색, 계산 등) 를 직접 호출하며 복잡한 일을 처리합니다. 이때 AI 와 도구 사이를 연결해주는 규칙을 **MCP(Model Context Protocol)**라고 합니다.

2. 기존 공격 vs 새로운 공격 (비유로 이해하기)

  • 기존 공격 (단일 턱 공격):

    • 상황: 식당에 가서 "밥을 100 번 더 달라고" 소리치는 것과 같습니다.
    • 문제: AI 가 "그건 이상하네?"라고 바로 알아채거나, 한 번에 할 수 있는 말의 양 (토큰) 제한이 있어 큰 피해를 주기 어렵습니다. 또한, AI 가 멍청하게 길게 말하면 바로 들킬 수 있습니다.
  • 이 연구의 공격 (스텔스 도구 공격):

    • 상황: 식당에 가서 "요리사가 요리를 할 때, 재료를 하나씩 세어보게 하고, 그 세는 과정을 100 번 반복하게 만드는" 사기입니다.
    • 결과:
      • 요리 (작업): 결국 맛있는 요리는 나옵니다 (작업 성공).
      • 비용: 하지만 요리사가 재료를 세느라 100 번을 왔다 갔다 하느라, 전기세와 인건비가 600 배나 폭등합니다.
      • 숨김: 요리사가 "재료를 세는 건 요리 과정의 일부"라고 생각하므로, 감시 카메라 (보안 시스템) 는 "이상한 짓"으로 보지 않습니다.

3. 어떻게 이런 일이 가능할까요? (공격 원리)

연구진은 AI 가 부르는 '도구 서버'의 내용을 살짝 바꿨습니다. 하지만 도구의 이름이나 기능은 그대로 두었습니다.

  1. 지시장 바꿈: 도구가 "결과를 줘요" 대신 "결과를 주기 전에, 100 개의 숫자 목록을 확인해 주세요. 그리고 다음 단계로 넘어가세요"라고 말합니다.
  2. 반복 유도: AI 는 "아, 이 도구는 이렇게 작동하는구나"라고 생각하며, 목록을 확인하고 다시 도구를 부르는 과정을 반복합니다.
  3. 최종 결과: 100 번의 반복 끝에야 진짜 결과를 줍니다. AI 는 결국 원하는 답을 얻지만, 그 사이에 AI 가 생성한 말 (토큰) 양이 폭발적으로 늘어납니다.

4. 실험 결과: 얼마나 무서운가요?

  • 비용 폭증: 질문 하나당 AI 가 생성하는 말의 양이 60,000 개 이상으로 불어났습니다. 기존보다 최대 658 배 더 많은 비용이 들었습니다.
  • 전기세 폭탄: AI 가 돌아가는 서버의 전력 소모가 500 배 이상 증가했습니다.
  • 시스템 마비: 한 번의 공격으로 서버의 메모리 (GPU) 가 꽉 차서, 다른 정상적인 사용자들도 서비스를 받기 힘들어졌습니다 (처리 속도 50% 감소).
  • 방어 불가: 기존의 보안 시스템들은 "AI 가 엉뚱한 말을 했나?"만 확인합니다. 하지만 이 공격은 정답을 잘 내놓기 때문에 보안 시스템은 "아, 잘하고 있네"라고 생각하며 아무것도 막지 못했습니다.

5. 결론 및 시사점

이 논문은 **"AI 가 일을 잘해낸다고 해서 안전한 것은 아니다"**라고 경고합니다.

  • 새로운 위협: 앞으로 AI 에이전트가 널리 쓰이면, 악의적인 서버가 AI 를 속여 "일하는 척"하게 만들고, 그 과정에서 기업이나 사용자의 자산을 고갈시킬 수 있습니다.
  • 해결책: 단순히 "답이 맞는지"만 보는 게 아니라, **"AI 가 그 답을 얻기 위해 얼마나 비효율적인 과정을 거쳤는지"**를 감시하는 새로운 방어 시스템이 필요합니다.

한 줄 요약:

"이 연구는 AI 가 일을 잘해내는 척하면서, 그 과정에서 엄청난 돈과 전기를 낭비하게 만드는 '교묘한 사기'를 발견했습니다. 마치 요리사가 요리를 잘해내지만, 그 과정에서 재료를 100 번이나 세게 만들어 식당을 파산시키는 것과 같습니다."