Agentic Peer-to-Peer Networks: From Content Distribution to Capability and Action Sharing

이 논문은 엣지 디바이스상의 자율 에이전트들이 협업할 수 있는 '능동적 P2P 네트워크'를 위해 신원, 발견, 실행을 분리한 아키텍처와 위조 방지 및 신뢰성 보장을 위한 계층적 검증 메커니즘을 제안하고 시뮬레이션을 통해 그 유효성을 입증합니다.

Taotao Wang, Lizhao You, Jingwen Tong, Chonghe Zhao, Shengli Zhang

게시일 2026-03-05
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"지능형 에이전트 (AI 비서) 들이 서로 직접 손잡고 일하는 새로운 세상"**에 대한 이야기입니다.

기존의 인터넷은 우리가 파일을 주고받는 방식 (예: 토렌트) 이 주를 이루었지만, 앞으로는 AI 에이전트들이 서로의 '능력'과 '행동'을 주고받으며 복잡한 일을 해결하는 시대가 온다는 것입니다. 이 논문은 그 과정에서 발생할 수 있는 위험을 막고, 어떻게 하면 안전하게 협력할 수 있을지 해결책을 제시합니다.

이 복잡한 내용을 세 가지 핵심 비유로 쉽게 설명해 드릴게요.


1. 비유: "파일 공유"에서 "기능 임대"로의 변화

기존의 인터넷 (토렌트 등):
마치 도서관과 같습니다. 누군가 "책 (파일)"을 빌려주면, 우리는 그 책이 원래 책인지 확인하기만 하면 됩니다. 책의 내용은 변하지 않고, 복사본을 만들어도 똑같습니다.

새로운 인터넷 (에이전트 P2P):
이제 도서관이 아니라 **거대한 '기능 임대 시장'**이 됩니다.

  • "여행 계획 짜줘", "이 사진 편집해줘", "내 은행 계좌에서 결제해줘" 같은 **일 (행동)**을 다른 사람의 AI 비서에게 맡기는 것입니다.
  • 문제는 책과 달리 행동은 매번 다르고, 위험할 수도 있다는 점입니다.
    • 예: "여행 계획 짜줘"라고 했을 때, 상대방 AI 가 내 개인 정보를 훔쳐가거나, 엉뚱한 곳으로 돈을 보낼 수도 있습니다.

핵심: 우리는 더 이상 '파일'을 검증하는 게 아니라, **"이 AI 가 정말로 그 일을 안전하게 해줄 수 있는가?"**를 검증해야 합니다.


2. 해결책: "3 단계 안전 검사 시스템" (Tiered Verification)

이 논문은 위험한 일을 맡길 때, 무조건 믿거나 아예 안 믿는 게 아니라 상황에 따라 3 단계로 안전 장치를 두는 것을 제안합니다.

  • 1 단계 (저위험): "인기 투표" (평판)
    • 상황: "오늘 날씨 어때?", "맛집 추천해줘" 같은 사소한 일.
    • 방법: "이 AI 는 예전부터 잘했으니 믿자"라고 평판만 보고 맡깁니다. (빠르고 간편함)
  • 2 단계 (중위험): "시험 문제 풀기" (캔버리 테스트)
    • 상황: "이 문서 요약해줘"나 "간단한 코드 짜줘" 같은 일.
    • 방법: 일을 맡기기 전에 **"작은 시험 문제 (캔버리)"**를 하나 던져봅니다. "이 간단한 수학 문제 풀어봐"라고 했을 때, AI 가 바로 정답을 못 내거나 게으르게 대답하면, 그 AI 는 신뢰할 수 없다고 판단하고 다른 사람을 찾습니다. (사기꾼을 걸러냄)
  • 3 단계 (고위험): "공인된 증빙 서류" (검증)
    • 상황: "내 은행 계좌에서 100 만 원 이체해줘"나 "개인정보 처리" 같은 치명적인 일.
    • 방법: AI 가 일을 끝낸 후, **"내가 정말로 이 일을 했다는 암호화된 영수증 (증거)"**을 제출해야만 돈을 줍니다. 만약 영수증이 없거나 조작된 것 같으면, 절대 실행하지 않습니다. (완벽한 안전)

3. 기술적 장치: "3 개의 층 (Plane)"으로 나누어 관리하기

이 시스템이 제대로 작동하려면 일을 크게 3 가지 영역으로 나누어 관리해야 합니다. 마치 건물의 층처럼 말이죠.

  1. 지하층 (연결 및 신원):
    • AI 들이 서로 누구인지 (신원) 확인하고, **전화 (연결)**가 잘 통하게 하는 곳입니다. IP 주소가 바뀌어도 AI 는 고유한 신원증 (PeerID) 을 가지고 있어 항상 찾을 수 있습니다.
  2. 1 층 (검색 및 발견):
    • "누가 여행 계획을 잘 짜줄까?"라고 찾아주는 곳입니다. 단순히 이름만 찾는 게 아니라, "내 요구사항 (제약 조건) 에 맞는 AI"를 찾아줍니다.
    • 중요: AI 의 상태 (배터리, 정책 등) 는 자주 변하므로, **"유효기간 (TTL)"**이 있는 명함을 주고받습니다. 유효기간이 지나면 자동으로 사라져서, 전화를 걸어도 안 나오는 '고스트 (zombie)' AI 에게 일을 맡기지 않게 됩니다.
  3. 2 층 (실행 및 감사):
    • 실제 일을 시키는 곳입니다. 여기서 AI 는 안전한 방 (샌드박스) 안에서만 일할 수 있고, 모든 행동을 기록합니다.
    • 가장 중요한 층: 이 층은 감시관처럼 작동합니다. 1 층에서 찾은 AI 가 정말로 일을 잘했는지, 3 단계 안전 검사 시스템을 통해 최종 확인합니다.

요약: 왜 이것이 중요한가요?

이 논문은 **"AI 들이 서로 손잡고 일할 때, 사기꾼이나 해킹을 막으면서도 효율적으로 일하게 하는 방법"**을 제시합니다.

  • 기존 방식: 파일을 공유하는 것만 생각함.
  • 새로운 방식: AI 의 능력을 공유하되, 위험 수준에 따라 검증 강도를 조절함.

결론적으로, 이 기술이 완성되면 우리 개인 AI 비서들은 더 이상 혼자 고립되어 일하지 않고, 전 세계의 다른 AI 비서들과 안전하게 협력하여 복잡한 문제 (여행 계획, 금융 관리, 코드 개발 등) 를 해결할 수 있게 됩니다. 마치 신뢰할 수 있는 이웃들이 서로 도우며 살아가는 마을처럼 말이죠.