Cyber Threat Intelligence for Artificial Intelligence Systems

이 논문은 인공지능 시스템의 고유한 취약점과 공격 벡터를 분석하여 기존 사이버 위협 인텔리전스 프레임워크의 한계를 지적하고, AI 공급망 전반에 걸친 구체적인 침해 지표와 유사성 측정 기법을 포함한 AI 전용 위협 인텔리전스 체계의 필요성과 방향성을 제시합니다.

Natalia Krawczyk, Mateusz Szczepkowski, Adrian Brodzik, Krzysztof Bocianiak

게시일 2026-03-06
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"인공지능 (AI) 을 지키기 위한 새로운 '경보 시스템'을 어떻게 만들 것인가?"**에 대한 이야기입니다.

기존의 사이버 보안은 전통적인 컴퓨터나 서버를 보호하는 데 초점을 맞췄지만, 이제 AI 가 우리 생활의 핵심이 되면서 AI 를 공격하는 새로운 방식들이 등장했습니다. 이 논문은 기존 보안 지식으로는 AI 를 지킬 수 없으므로, **AI 만을 위한 새로운 '지능형 위협 정보 (CTI)'**를 어떻게 구축해야 하는지 제안합니다.

이 복잡한 내용을 쉽게 이해할 수 있도록 세 가지 핵심 비유로 설명해 드리겠습니다.


1. 상황: 왜 기존 보안은 AI 에게 무력한가?

비유: "고급 로봇 요리사에게 낡은 보안 요원"

과거의 사이버 보안은 마치 건물 경비원과 같았습니다. 도둑이 창문을 깨거나 (SQL 인젝션), 문을 부수고 들어오면 (버퍼 오버플로우) 경비원이 이를 막았습니다.

하지만 AI 는 다릅니다. AI 는 고급 로봇 요리사입니다.

  • 기존 보안: "창문 깨지 마!"라고 외칩니다.
  • 새로운 위협: 도둑이 창문을 깨지 않고, 요리사의 레시피 책 (학습 데이터) 에 독을 넣거나, 요리사가 보지 못하게 식탁 위에 아주 작은 스티커 (적대적 예제) 를 붙여 "이건 소금인데, 이건 설탕이야"라고 속입니다.

기존 경비원 (보안 시스템) 은 이런 새로운 수법을 전혀 몰라요. 그래서 이 논문은 **"AI 요리사를 지키기 위한 새로운 보안 매뉴얼"**이 필요하다고 말합니다.

2. 해결책: AI 를 위한 '지능형 위협 정보 (CTI)'란 무엇인가?

비유: "범인 수첩과 범죄 패턴 분석대"

기존 보안에서는 해커의 얼굴 사진 (IP 주소) 나 지문 (파일 해시) 을 모아 '범인 수첩'을 만들었습니다. 하지만 AI 공격은 훨씬 더 추상적입니다.

이 논문은 AI 를 위한 새로운 **'범인 수첩'**이 어떤 내용을 담아야 하는지 제안합니다.

  • 새로운 증거 (IoC):

    • 단순히 파일 해시만 보는 게 아니라, 모델의 '성격'이 변했는지 (가중치 이상), 학습 데이터가 오염되었는지, 질문을 잘못하면 엉뚱한 대답을 하는지 (프롬프트 인젝션) 등을 기록해야 합니다.
    • 예시: "어떤 AI 모델이 특정 질문을 받으면 갑자기 비밀을 털어놓는다"는 패턴을 기록하는 것.
  • 새로운 지도 (MITRE ATLAS 등):

    • 해커가 AI 를 공격할 때 어떤 순서로 움직이는지 (레시피를 훔쳐보기 -> 독을 섞기 -> 요리사 속이기) 를 단계별로 정리한 지도가 필요합니다.

3. 실행 방법: 어떻게 정보를 모으고 비교할까?

비유: "유령 같은 범인을 찾아내는 '후각'과 '유사도 검색'"

AI 모델은 텍스트 파일처럼 똑같은 복사본이 아닙니다. 조금만 수정해도 완전히 다른 파일이 될 수 있습니다. 그래서 "이 파일이 범인이다!"라고 딱 잘라 말하기 어렵습니다.

이 논문은 유사성을 측정하는 새로운 기술을 제안합니다.

  • 딥 해싱 (Deep Hashing):
    • 비유: 범인의 얼굴 특징을 기억하는 대신, 걸음걸이나 목소리 톤을 분석해서 "이 사람은 범인과 비슷해!"라고 판단하는 기술입니다.
    • AI 모델의 복잡한 구조를 압축된 '지문'으로 바꾸어, 변형된 악성 모델도 빠르게 찾아냅니다.
  • 데이터 소스:
    • AVID, OWASP: AI 의 약점 목록 (취약점) 을 정리한 백과사전.
    • AIID (사건 데이터베이스): 실제로 AI 가 실수하거나 해킹당한 사례를 모아둔 '범죄 수사 기록'.
    • MITRE ATLAS: 해커들의 전술을 정리한 '범인 행동 분석 보고서'.

📝 요약: 이 논문이 우리에게 주는 메시지

  1. 문제: AI 가 발전하면서 해커들도 AI 를 공격하는 새로운 방법 (데이터 독살, 모델 속이기 등) 을 개발했습니다. 기존 보안은 이걸 못 잡습니다.
  2. 해결: AI 만을 위한 **'새로운 위협 정보 시스템'**이 필요합니다. 이는 단순한 해킹 기록이 아니라, AI 모델의 행동 패턴, 학습 데이터의 이상 징후 등을 포함해야 합니다.
  3. 방법:
    • 데이터 모으기: 실제 AI 사고 사례와 해커 전술을 수집합니다.
    • 비교하기: 새로운 AI 모델이 악성인지 판단할 때, '완벽한 일치'가 아니라 '유사성'을 찾아내는 기술 (딥 해싱 등) 을 사용합니다.
  4. 목표: 이 시스템을 통해 AI 가 해킹당하기 전에 미리 경보를 울리고, 공격을 자동으로 차단할 수 있게 만드는 것입니다.

한 줄 결론:

"기존의 '문단속'으로는 AI 라는 '지능형 로봇'을 지킬 수 없으니, 로봇의 생각 방식과 행동 패턴까지 분석하는 초정밀 AI 전용 보안 시스템을 만들어야 합니다."