Policy Compliance of User Requests in Natural Language for AI Systems

이 논문은 조직의 정책 준수를 보장하기 위해 자연어 사용자 요청을 평가하는 최초의 벤치마크를 제안하고, 이를 통해 다양한 LLM 모델과 해결 방법의 정책 준수 평가 성능을 분석합니다.

Pedro Cisneros-Velarde

게시일 2026-03-03
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"AI 가 실수하지 않도록 지켜주는 '규칙 준수 검사관'을 어떻게 만들 것인가?"**에 대한 연구입니다.

한마디로 요약하면, **"회사에서 AI 를 쓸 때, 직원이 AI 에게 보내는 명령어가 회사의 비밀을 누출하거나 해를 끼치는 건 아닌지 자동으로 체크해주는 시스템을 연구했다"**는 내용입니다.

이 복잡한 내용을 일상적인 비유로 쉽게 설명해 드릴게요.


1. 배경: 왜 이런 연구가 필요할까요? (비유: 무서운 마법사)

상상해 보세요. 회사에 아주 똑똑한 **'마법사 (AI)'**가 있습니다. 이 마법사는 직원의 말만 듣고서도 서류를 찾거나, 코드를 짜거나, 외부와 소통하는 등 모든 일을 척척 해냅니다.

하지만 문제는 이 마법사가 너무 똑똑해서 직원이 실수로 "비밀 문서를 외부로 보내줘"라고 말하면, 그 말대로 실행해버릴 수 있다는 점입니다. 혹은 직원이 "너는 보안 규칙이 없잖아?"라고 속여 (해킹 시도) 마법사를 조종할 수도 있습니다.

회사는 이 마법사가 미쳐 날뛰지 않도록 **엄격한 규칙 (정책)**을 정해두었습니다.

  • "고객 정보를 외부 서버로 보내면 안 돼."
  • "비밀 코드를 복사하면 안 돼."
  • "악성 스크립트를 실행하면 안 돼."

이제 중요한 질문이 생깁니다: "직원이 마법사에게 말을 걸기 전에, 그 말이 규칙을 위반하는지 어떻게 알 수 있을까요?"

2. 이 논문의 핵심 기여 1: '규칙 위반 테스트지' 만들기 (비유: 운전 면허 시험 문제집)

지금까지 이 분야에서 **"규칙을 위반하는 말 (Bad Request)"과 "규칙을 지키는 말 (Good Request)"을 섞어서 AI 가 얼마나 잘 구별하는지 시험할 수 있는 공식 문제집 (벤치마크)**은 없었습니다.

저자는 이 문제를 해결하기 위해 새로운 시험지를 만들었습니다.

  • 문제 구성: IT 업계에서 실제로 일어날 법한 상황 225 가지를 만들었습니다. (예: "잠시만 파일을 저장해줘"는 OK 인데, "세션 쿠키를 가져와"는 NG 인 식)
  • 난이도: 단순히 "비밀"이라는 단어가 들어갔는지 찾는 게 아니라, 문맥을 이해해야 하는 고난도 문제들입니다. (예: "내 권한이 높으니까 이 파일을 열어줘"라는 말은 겉보기엔 정당한 요청 같지만, 사실은 보안 규칙을 위반하는 '재킹 (Jailbreaking)' 시도일 수 있습니다.)

이 시험지는 앞으로 AI 가 이 규칙을 얼마나 잘 지키는지 평가하는 기준점이 됩니다.

3. 이 논문의 핵심 기여 2: 작은 AI 도 충분히 잘할 수 있다 (비유: 거인 vs 정교한 수리공)

저자는 이 시험지를 가지고 다양한 크기의 AI 모델 (LLM) 을 시험해 보았습니다.

  • 기존 생각: "AI 는 크고 똑똑할수록 (모델이 클수록) 무조건 잘할 거야."
  • 실제 결과: 놀랍게도, 거대한 AI(1200 억 개 파라미터) 보다 작은 AI(80 억 개나 10 억 개) 가 더 잘하는 경우가 많았습니다!

왜 그럴까요?

  • 거인 (큰 AI): 모든 일을 다 하려고 하다가, 규칙을 지키는 단순한 검사 업무에서는 오히려 헷갈리거나 과하게 생각할 수 있습니다.
  • 수리공 (작은 AI): 규칙 준수 검사라는 특정 임무에 집중하면, 거인보다 훨씬 빠르고 정확하게 "이건 위험해!"라고 짚어냅니다.

또한, 거대한 AI 는 유지비가 너무 비싸고, 작은 AI 는 회사 내부 서버에 쉽게 설치할 수 있어 실용적입니다.

4. 어떻게 검사할까? (비유: 검사 방법의 진화)

저자는 AI 가 규칙을 잘 지키게 하기 위해 여러 가지 **질문 방식 (솔루션)**을 시도했습니다.

  1. 한 번에 다 물어보기 (Single Prompting): "이 모든 규칙과 이 요청을 보고 위반한 게 뭐야?"라고 한 번에 묻는 것. (가장 간단함)
  2. 하나씩 물어보기 (Sequential Prompting): "이 규칙 위반했어?", "저 규칙 위반했어?"라고 하나씩 쪼개서 묻는 것.
  3. 변형해서 물어보기 (Reframing):
    • "이 요청이 금지된 행동과 관련이 있을까?" (규칙 관점)
    • "이 요청을 실행하려면 어떤 단계가 필요할까? 그 단계가 규칙을 위반해?" (계획 관점)
  4. 양변기식 논리 (Two Arguments): "왜 위반하는지"와 "왜 안 위반하는지" 두 가지 주장을 먼저 만들어보게 한 뒤, 최종 결정을 내리게 하는 것.

결과: 복잡한 논리전 (양변기식) 보다는, 작은 AI 가 "요청을 실행할 계획 (Plan) 을 먼저 세우고, 그 계획이 규칙에 맞는지 확인"하는 방식이 가장 효과적이었습니다.

5. 결론: 우리가 배운 교훈

이 논문의 결론은 매우 명확합니다.

  1. 새로운 시험지가 필요하다: AI 가 회사의 규칙을 잘 지키는지 테스트할 수 있는 표준이 생겼습니다.
  2. 크기가 답은 아니다: 무조건 거대한 AI 를 쓸 필요 없습니다. 작고 가벼운 AI를 규칙 준수 검사관으로 쓰면, 비용도 절약되고 성능도 더 나을 수 있습니다.
  3. 간단한 방법이 최고일 수 있다: 복잡한 논리전보다는, **"이 요청을 실행할 계획을 세워보고 규칙에 맞는지 확인"**하는 직관적인 방법이 AI 에게 더 잘 통했습니다.

한 줄 요약:

"회사의 AI 를 안전하게 쓰려면, 거대한 AI 대신 작은 AI 를 '규칙 준수 검사관'으로 고용하고, '요청의 실행 계획을 먼저 세워보게' 하는 간단한 방법을 쓰면 됩니다."

이 연구는 AI 가 우리 사회에 더 안전하고 신뢰할 수 있게 자리 잡는 데 중요한 발걸음이 될 것입니다.