OpenKedge: Governing Agentic Mutation with Execution-Bound Safety and Evidence Chains

OpenKedge 는 자율 에이전트 시스템의 안전성을 보장하기 위해 API 호출을 즉시 실행하는 대신 의도 제안, 정책 검증, 실행 계약 및 암호학적 증거 체인을 통해 변형을 통제하고 검증 가능한 프로세스로 전환하는 새로운 프로토콜을 제시합니다.

Jun He, Deying Yu

게시일 2026-04-13
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

오픈케지 (OpenKedge): AI 에이전트의 '무분별한 행동'을 막는 스마트 안전장치

이 논문은 인공지능 (AI) 에이전트들이 우리 시스템을 운영할 때 발생할 수 있는 치명적인 실수를 막기 위해 고안된 새로운 규칙, **'오픈케지 (OpenKedge)'**에 대해 설명합니다.

기존 방식과 오픈케지의 차이를 이해하기 위해, **'무책임한 요리사'**와 **'엄격한 주방 관리자'**의 비유를 들어보겠습니다.


1. 문제: 왜 AI 에이전트는 위험할까요? (무책임한 요리사)

지금까지의 시스템은 마치 요리사에게 "요리해!"라고만 말하고 아무런 지시도 안 한 상황과 같습니다.

  • 기존 방식 (API 중심): AI 에이전트가 "이 서버를 끄세요"라고 요청하면, 시스템은 그 명령을 즉시 실행합니다.
  • 문제점: AI 는 때때로 **환각 (Hallucination)**을 겪거나 상황을 잘못 이해할 수 있습니다. 예를 들어, "아무도 안 쓰는 서버니까 끄자"라고 생각했는데, 사실 그 서버는 중요한 은행 거래를 처리 중일 수 있습니다.
  • 결과: AI 가 실수하면 서비스는 멈추고, 데이터는 사라지며, 복구하기 힘든 재앙이 일어납니다. 기존 시스템은 "명령을 내린 사람이 옳을 거라"고 맹신하는 구조라, AI 의 실수를 막을 수 없습니다.

2. 해결책: 오픈케지 (OpenKedge) 는 무엇인가요? (엄격한 주방 관리자)

오픈케지는 AI 가 직접 행동을 취하는 것이 아니라, 먼저 '의도 (Intent)'를 제출하고 승인을 받아야만 행동할 수 있게 만드는 새로운 규칙입니다.

이를 4 단계의 주방 프로세스로 비유해 볼까요?

① 의도 제출 (요리 주문서 작성)

  • 상황: AI 요리사가 "소스를 끓여!"라고 외치는 대신, 정식 주문서를 작성합니다.
  • 핵심: "무엇을 할지 (의도)"만 말하고, "어떻게 할지는 시스템이 결정"합니다.

② 검토 및 승인 (식자재와 시간 확인)

  • 상황: 주방 관리자 (오픈케지 시스템) 가 주문서를 받습니다.
    • "지금 소스 재고가 있나?" (시스템 상태 확인)
    • "지금 다른 요리사가 그 냄비를 쓰고 있나?" (충돌 확인)
    • "이 요리사가 오늘 실수가 많았나?" (신뢰도 확인)
  • 핵심: AI 의 명령이 현재 상황과 규칙에 맞는지 철저히 따져봅니다. 위험하면 즉시 거절합니다.

③ 실행 계약서 발급 (제한된 권한 부여)

  • 상황: 승인이 나면, 관리자는 AI 에게 **완벽하게 제한된 '실행 계약서'**를 줍니다.
    • 예: "소스만 끓일 수 있음. 다른 냄비는 건드리면 안 됨. 5 분 안에 끝내야 함."
  • 핵심: AI 는 이 계약서 범위 안에서만만 움직일 수 있습니다. 계약서 밖의 행위는 물리적으로 불가능합니다.

④ 실행 및 기록 (모든 과정의 녹화)

  • 상황: AI 가 소스를 끓입니다. 이 모든 과정은 **블랙박스 (증거 체인)**에 암호화되어 기록됩니다.
  • 핵심: 나중에 문제가 생기면, "왜 이걸 했는지", "누가 승인했는지", "어떤 조건에서 했는지"를 완벽하게 추적할 수 있습니다.

3. 오픈케지의 핵심 아이디어 3 가지

이 시스템은 세 가지 강력한 무기를 가지고 있습니다.

  1. 의도 기반 거버넌스 (Intent-Governed Mutation)

    • AI 가 "행동"을 명령하는 게 아니라 "목표"를 제안합니다. 시스템이 그 목표를 현실과 비교해 "괜찮은지" 먼저 판단합니다.
    • 비유: "가서 그 사람을 때려!" (X) vs "저 사람이 나를 공격했으니 방어할 수 있을까?" (O, 시스템이 판단)
  2. 실행 범위 제한 (Execution-Bound Safety)

    • 승인된 행동이라도 시간, 장소, 권한이 철저히 제한됩니다.
    • 비유: AI 가 "서버를 끄겠다"고 해도, "오직 A 서버만 10 분 동안만 끄는 것"으로 권한이 제한됩니다. 실수로 B 서버를 끄는 것은 기술적으로 불가능해집니다.
  3. 의도 - 실행 증거 사슬 (IEEC)

    • 모든 결정 과정이 암호화된 연쇄 기록으로 남습니다.
    • 비유: 범죄 수사처럼 "누가, 언제, 왜, 어떻게, 어떤 조건에서" 결정했는지 완벽한 증거가 남습니다. 그래서 AI 가 실수해도 누구의 책임인지, 왜 그런 일이 일어났는지 명확히 알 수 있습니다.

4. 결론: 왜 이것이 중요한가요?

지금까지 우리는 AI 가 똑똑해지기를 기다렸습니다. 하지만 AI 가 완벽해질 수는 없습니다. 오픈케지는 AI 가 실수해도 시스템이 무너지지 않도록 '안전장'을 치는 것입니다.

  • 기존: AI 가 실수하면 -> 시스템 붕괴.
  • 오픈케지: AI 가 실수하더라도 -> 시스템이 "아, 이건 위험하구나"라고 막고 -> "어떤 조건에서 실수했는지" 기록만 남김.

이 논문은 AI 가 우리 사회의 핵심 인프라 (클라우드, 금융, 의료 등) 를 운영하게 될 미래에, AI 의 실수를 시스템이 스스로 통제하고 검증할 수 있는 가장 확실한 방법을 제시합니다.

한 줄 요약:

"AI 에게는 '하고 싶은 일 (의도)'만 말하게 하고, 시스템이 '해도 좋은 일'을 철저히 심사하여, 승인된 범위 안에서만 행동하게 만드는 AI 안전 수칙입니다."

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →