MalURLBench: A Benchmark Evaluating Agents' Vulnerabilities When Processing Web URLs

이 논문은 LLM 기반 웹 에이전트가 악성 URL 처리 시 가지는 취약점을 평가하기 위해 10 가지 실세계 시나리오와 7 가지 악성 웹사이트 카테고리를 포함한 최초의 벤치마크인 'MalURLBench'를 제안하고, 기존 모델들의 취약성을 분석하며 경량 방어 모듈인 'URLGuard'를 소개합니다.

Dezhang Kong, Zhuxi Wu, Shiqi Liu, Zhicheng Tan, Kuichen Lu, Minghao Li, Qichen Liu, Shengyu Chu, Zhenhua Xu, Xuan Liu, Meng Han

게시일 2026-03-16
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ "말하는 AI 비서"를 속이는 새로운 사기 수법: MalURLBench 연구 설명

이 논문은 최근 우리 일상과 업무에 깊숙이 들어온 AI 웹 에이전트 (웹을 보고 행동하는 AI) 가 겪고 있는 치명적인 약점을 발견하고, 이를 테스트하는 새로운 기준을 제시한 연구입니다.

이해하기 쉽게 비유를 섞어 설명해 드릴게요.


1. 상황 설정: 똑똑하지만 속기 쉬운 AI 비서

상상해 보세요. 여러분에게 매우 똑똑한 AI 비서가 있습니다. 이 비서는 "이 링크를 열어보고 내용을 요약해 줘"라고 하면, 인터넷을 검색해서 내용을 읽어옵니다.

하지만 이 비서에게는 치명적인 단점이 하나 있습니다.

  • 진짜 링크가짜 링크를 구별하는 눈이 아직 부족하다는 것입니다.

2. 새로운 사기 수법: "위장한 URL"

과거의 해커들은 AI 비서가 방문한 웹사이트 안에 **악성 코드 (바이러스)**를 심는 방식으로 공격했습니다. 하지만 이번 연구는 그보다 더 교활한 방법을 발견했습니다.

비유:
해커가 AI 비서에게 "여기 공식 정부 사이트야!"라고 말하며 링크를 건넵니다.

  • 진짜 링크: gov.kr (공식)
  • 가짜 링크 (위장): gov-secure-login-12345.gov.kr (보안 로그인 12345 라고 적힌 가짜)

AI 비서는 링크의 **구조 (주소 형식)**를 잘 분석하지 못합니다. 그래서 "아, gov 가 들어갔으니 안전한 곳이겠지?"라고 생각하며 가짜 링크를 믿고 방문해 버립니다.

이 연구는 **"AI 가 이런 위장된 링크를 얼마나 잘 속아넘어가는가?"**를 테스트하기 위해 MalURLBench라는 도구를 만들었습니다.


3. MalURLBench: AI 의 '사기 탐지 능력' 시험지

연구팀은 이 시험지를 만들기 위해 다음과 같은 작업을 했습니다:

  • 10 가지 상황 (시험 과목): "택배 추적", "날씨 확인", "음식 주문", "구직 활동" 등 우리가 매일 하는 10 가지 상황을 만들었습니다.
  • 7 가지 악성 사이트 (가짜 지폐): 실제 해킹당하거나 사기성인 7 가지 유형의 웹사이트를 수집했습니다.
  • 61,845 개의 함정 (시험 문제): 이 상황과 사이트들을 조합해, 6 만 개 이상의 위장된 링크를 만들었습니다.
    • 예시: "오늘 날씨를 알려줘"라는 명령에 weather-forecast-official-2024.com 같은 가짜 주소를 넣는 식입니다.

4. 실험 결과: AI 는 여전히 "어리석은" 학생?

연구팀은 GPT-4, Llama, DeepSeek 등 유명한 AI 12 개를 이 시험지에 응시시켰습니다. 결과는 충격적이었습니다.

  • 대부분의 AI 가 속았습니다: 어떤 AI 는 **99.9%**의 확률로 가짜 링크를 믿고 방문했습니다. (100 번 중 99 번 이상 실패)
  • 작은 AI vs 큰 AI: 보통 "머리가 좋은 (큰) AI"가 더 잘할 것 같지만, 이 문제에서는 크기가 커도 여전히 많이 속았습니다. 다만, 모델이 클수록 조금은 더 잘 구별하긴 했습니다.
  • 왜 그럴까?
    • 이유 1: AI 는 훈련 데이터에서 "긴 주소"나 "이상한 도메인 (.link, .art 등)"을 본 적이 거의 없습니다. 그래서 "짧고 깔끔한 주소 = 안전"이라고 잘못 배웠습니다.
    • 이유 2: AI 는 주소를 읽을 때, "이 주소가 어떤 의미인가?"보다는 "문자열 자체"에 집중하는 경향이 있어, 위장된 문구를 진짜로 착각합니다.

5. 해결책: URLGuard (AI 의 '경비원')

연구팀은 이 문제를 해결하기 위해 URLGuard라는 작은 AI 경비원을 개발했습니다.

  • 역할: AI 비서가 링크를 방문하기 에, 이 경비원이 먼저 링크를 검사합니다.
  • 효과: 이 경비원을 붙인 결과, 공격 성공률이 30%~99% 까지 급격히 떨어졌습니다.
  • 의미: 기존 AI 가 악성 링크에 대한 지식이 부족해서 실패했다는 것을 증명했고, 아주 적은 데이터로도 AI 를 안전하게 만들 수 있다는 것을 보여줬습니다.

📝 핵심 요약 (한 줄 정리)

"AI 비서가 '공식 사이트'라고 속여넘어가는 가짜 주소를 구별하지 못해 위험에 빠질 수 있다. 이 연구를 통해 그 약점을 발견하고, '경비원 (URLGuard)'을 세워 AI 를 보호하는 방법을 제시했다."

💡 왜 이 연구가 중요한가요?

앞으로 AI 가 우리 대신 은행 업무를 하거나, 쇼핑을 하고, 중요한 정보를 검색할 것입니다. 만약 AI 가 사기성 링크를 믿고 접속한다면, 우리 개인정보가 털리거나 금전적 피해를 입을 수 있습니다. 이 연구는 AI 가 우리 생활의 핵심 도구가 되기 전에, 보안이라는 '방패'를 먼저 갖추어야 함을 경고하고 있습니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →