An Agentic LLM Framework for Adverse Media Screening in AML Compliance

이 논문은 기존 키워드 기반 검색의 한계를 극복하고 거짓 양성률을 줄이기 위해, 검색·문서 처리·점수 산출을 자동화하는 다단계 LLM 에이전트 프레임워크를 통해 AML 규정 준수 내 부정적 미디어 선별을 혁신하는 방안을 제시합니다.

Pavel Chernakov, Sasan Jafarnejad, Raphaël Frank

게시일 2026-03-02
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ 1. 문제: "바보 같은 검색"과 "지친 조사관"

은행이나 금융 기관은 새로운 고객이 들어오면 "이 사람이 범죄를 저지른 적이 있을까?"를 확인해야 합니다. 이를 **'부정적 미디어 스크리닝 (Adverse Media Screening)'**이라고 합니다.

  • 기존 방식 1 (키워드 검색): "사기", "체포", "부패" 같은 단어가 포함된 기사를 찾습니다.
    • 문제점: "사기"라는 단어가 들어간 요리 레시피나, "체포"라는 단어가 들어간 영화 리뷰까지 다 찾아와서 **거짓 경보 (False Positive)**를 울립니다. 마치 "치킨"을 검색했는데 "치킨"을 좋아하는 사람뿐만 아니라 "치킨"을 먹은 모든 사람을 용의자로 보는 것과 같습니다.
  • 기존 방식 2 (사람이 직접 확인): 컴퓨터가 찾은 수천 개의 기사를 사람이 하나하나 읽어서 걸러냅니다.
    • 문제점: 너무 비싸고 느립니다. 사람이 밤새도록 기사를 읽느라 지쳐버리면, 진짜 위험한 사람을 놓칠 수도 있습니다.

🤖 2. 해결책: "AI 탐정 (Agent)"의 등장

저자들은 **LLM(거대 언어 모델)**을 이용한 새로운 **'AI 탐정 (AMI Agent)'**을 만들었습니다. 이 AI 는 단순히 단어를 찾는 게 아니라, 문맥을 이해하고 판단하는 능력을 갖췄습니다.

이 시스템은 마치 유능한 조사관이 다음과 같은 과정을 거치는 것처럼 작동합니다:

  1. 수색 (Search Engine): 인터넷 전체를 뒤져서 해당 인물의 이름과 관련된 기사들을 찾아냅니다.
  2. 수집 (Web Crawler): 찾은 기사들을 다운로드해서 내용을 읽을 수 있게 정리합니다.
  3. 분석 (Document Processor): 긴 기사들을 잘게 쪼개고, 핵심 내용이 어디에 있는지 '색인'을 만들어 둡니다. (마치 도서관에서 책의 목차를 미리 만들어두는 것과 같습니다.)
  4. 심문 (LLM Agent - RAG):
    • AI 는 찾아낸 기사들을 바탕으로 세 가지 질문을 스스로 던집니다.
      • "이 기사가 정말 이 사람의 이야기인가?" (동일인 확인)
      • "이 내용이 얼마나 부정적인가?" (부정성 평가)
      • "이 행위가 얼마나 위험한 범죄인가?" (위험도 평가)
    • 이때 AI 는 RAG(검색 증강 생성) 기술을 써서, 자신이 아는 지식뿐만 아니라 실제 찾아낸 기사 내용을 근거로 답합니다. (이게 중요합니다. AI 가 헛소리를 하는 '환각'을 막아줍니다.)
  5. 판단 (Verdict Generator): 모든 증거를 종합해서 **"이 사람과 거래해도 될까?"**에 대한 최종 점수 (AMI 점수) 와 이유를 한국어로 설명해 줍니다.

🎯 3. 실험 결과: "진짜 범인"과 "무고한 사람"을 구별하다

연구팀은 이 AI 를 네 가지 그룹으로 테스트했습니다.

  • 🧹 깨끗한 사람 (Clean): 유명한 컴퓨터 과학자 (범죄와 무관함).
  • 👔 공직자 (PEP): 정치인이나 고위 공직자 (부패 위험이 있을 수 있음).
  • ⚖️ 규제 대상 (Watchlist): 금융 규제 위반으로 경고받은 사람.
  • 🚫 제재 대상 (Sanctioned): 미국 등 국제적으로 제재받은 범죄자.

결과:

  • 깨끗한 사람: AI 는 거의 0 점에 가까운 점수를 주었습니다. (거짓 경보가 거의 없음)
  • 제재 대상: AI 는 0.8~0.9 점의 높은 위험 점수를 주었습니다.
  • 중간 그룹: 공직자나 규제 대상은 그 사이의 점수를 받았습니다.

즉, AI 는 "무고한 사람을 괴롭히지 않으면서, 진짜 위험한 사람을 찾아내는" 능력을 보여줬습니다.

💡 4. 이 시스템의 장점과 한계

✅ 장점:

  • 이해할 수 있는 이유: AI 가 "이 사람은 위험합니다"라고만 말하지 않고, "왜 위험한지" 구체적인 기사 내용을 인용해서 설명해 줍니다. (예: "2023 년 기사에서 사기 혐의로 체포되었다고 나와 있습니다.")
  • 유연함: 은행마다 규칙이 다를 수 있는데, 이 시스템은 설정만 바꾸면 새로운 규칙도 적용할 수 있습니다.
  • 학습 불필요: 별도의 데이터를 가르칠 필요 없이, 이미 알고 있는 지식을 활용합니다.

⚠️ 한계:

  • 검색 엔진의 한계: 만약 범죄 기사가 검색 엔진에 올라와 있지 않다면, AI 는 찾을 수 없습니다. (보이지 않는 것은 찾을 수 없죠.)
  • 이름이 같은 사람: "김철수"라는 이름이 너무 흔하면, 다른 김철수의 범죄 기록을 혼동할 수 있습니다.
  • 언어: 현재는 영어 기사가 주를 이루는데, 다른 언어의 기사는 잘 못 찾습니다.

🏁 결론

이 논문은 **"AI 가 단순히 키워드를 찾는 게 아니라, 인간처럼 문맥을 읽고 판단하여 금융 범죄를 막는 데 도움을 줄 수 있다"**는 것을 보여줍니다.

마치 초능력을 가진 수사관이 매일 수천 편의 뉴스를 훑어보며, "이건 가짜야, 저건 진짜야"라고 판단해 주는 것과 같습니다. 앞으로 금융 기관은 이렇게 더 똑똑하고 빠른 AI 비서를 통해, 돈을 더 안전하게 지키게 될 것입니다.