Your Inference Request Will Become a Black Box: Confidential Inference for Cloud-based Large Language Models

이 논문은 클라우드 기반 대형 언어 모델의 민감한 데이터와 모델 지식재산권을 동시에 보호하면서도 성능과 효율성을 유지하는 새로운 비밀 추론 프레임워크 'Talaria'를 제안합니다.

Chung-ju Huang, Huiqiang Zhao, Yuanpeng He, Lijian Li, Wenpin Jiao, Zhi Jin, Peixuan Chen, Leye Wang

게시일 2026-03-03
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"클라우드에 있는 거대한 인공지능 (LLM) 을 쓰면서, 내 비밀을 지키고 동시에 AI 의 성능도 잃지 않는 방법"**을 소개합니다.

이 기술의 이름은 **'탈라리아 (Talaria)'**입니다. 그리스 신화에서 신과 인간을 오가며 자유롭게 날아다니게 해주는 '날개 달린 신발'에서 이름을 따왔습니다. 이 기술도 클라우드 (신) 와 사용자 (인간) 사이를 안전하게 오가며 데이터를 보호한다는 뜻입니다.

이 복잡한 기술을 일상적인 비유로 쉽게 설명해 드릴게요.


1. 왜 이 기술이 필요한가요? (현재의 문제)

지금 우리가 클라우드 AI(예: 챗GPT) 를 쓸 때의 상황을 상상해 보세요.

  • 상황: 당신이 "내 비밀 일기"나 "회사 기밀 문서"를 AI 에게 물어봅니다.
  • 문제: AI 를 운영하는 회사 (클라우드 제공자) 는 당신의 질문과 답변을 모두 볼 수 있습니다. 마치 편지를 우체국에 맡겼는데, 우체국 직원이 편지를 열어 읽고 내용을 다 알아버리는 것과 같습니다.
  • 현재의 해결책들:
    • 비밀번호로 잠그기 (암호화): 편지를 자물쇠로 잠가서 보내면 직원은 못 읽지만, AI 가 답을 만들려면 잠금을 풀어야 해서 속도가 매우 느려집니다.
    • 내용을 비틀기 (데이터 변조): 질문을 "내 일기" 대신 "어떤 사람의 일기"라고 바꿔서 보냅니다. 하지만 이렇게 하면 AI 가 엉뚱한 답을 하거나 성능이 떨어집니다.

2. 탈라리아 (Talaria) 는 어떻게 해결하나요?

탈라리아는 **"일부만 맡기고, 나머지는 내가 처리한다"**는 독특한 방식을 사용합니다.

🏭 비유: 거대한 공장과 정교한 요리사

AI 모델을 거대한 **공장 (클라우드)**이라고 상상해 보세요. 이 공장에는 **비밀 레시피 (모델의 가중치/Weights)**가 있습니다. 이 레시피는 공장 주인만 알고 싶어 합니다.

당신은 **비밀 요리사 (사용자)**입니다. 당신은 **비밀 재료 (질문/프롬프트)**를 가지고 있습니다.

기존 방식의 문제:

  • 재료와 레시피를 모두 공장에 맡기면, 공장 직원이 당신의 재료를 훔쳐보고, 레시피도 훔쳐볼 수 있습니다.
  • 재료만 당신 손에 쥐고 공장에 보내면, 공장은 레시피를 다 보여줘야만 요리를 해줍니다.

탈라리아의 방식 (분할 작업):
탈라리아는 요리를 두 단계로 나눕니다.

  1. 무거운 기계 작업 (클라우드가 함):
    • 공장 (클라우드) 에서는 **비밀 레시피 (모델 가중치)**를 사용해서 재료를 가공합니다.
    • 하지만 공장 직원은 당신의 진짜 재료가 무엇인지 모릅니다. 왜냐하면 당신이 재료를 보낼 때 **마법 가루 (마스크)**를 섞어서 보냈기 때문입니다. 직원은 "무언가 가공된 재료"만 보게 됩니다.
  2. 정교한 맛내기 (내가 함):
    • 가공된 재료가 다시 당신에게 돌아옵니다.
    • 당신은 비밀 가루를 제거하는 도구를 가지고 있어서, 다시 진짜 재료의 맛을 되찾습니다.
    • 그리고 **최종 맛보기 (답변 생성)**는 당신이 직접 합니다.

결과:

  • 공장 주인: 당신의 질문 (재료) 을 볼 수 없고, 당신의 답변 (최종 요리) 도 볼 수 없습니다.
  • 당신: 공장 레시피 (비밀 지식) 를 볼 수 없습니다.
  • 요리 결과: 원래 AI 가 했을 때와 **완전히 똑같은 맛 (정확도)**이 나옵니다.

3. 핵심 기술: '되돌릴 수 있는 마법 가루' (ReMO)

이 기술의 핵심은 **ReMO(가역적 마스크 아웃소싱)**라는 프로토콜입니다.

  • 마스크 (마법 가루): 당신이 공장에 보낼 때, 데이터에 무작위 숫자 (마스크) 를 더합니다. 공장 직원은 이 숫자가 섞인 데이터를 보지만, 원래 데이터가 무엇인지 추측할 수 없습니다. (97.5% 의 정확도로 추측하던 해커들이 이제 1.34% 로 추측만 할 수 있게 됩니다.)
  • 되돌리기 (마법 제거): 공장에서 계산이 끝난 후, 그 결과물에서 당신이 미리 준비해 둔 '비밀 키'로 마법 가루를 빼냅니다.
  • 결과: 원래 데이터와 100% 똑같은 결과가 나옵니다. (손실 없음)

4. 왜 이 기술이 특별한가요? (불가능한 삼각형 해결)

보안 분야에는 **'불가능한 삼각형'**이라는 말이 있습니다. 보통 다음 세 가지를 동시에 만족시키기 어렵습니다.

  1. 보안: 내 데이터도 숨기고, AI 의 비밀도 숨겨야 함.
  2. 성능: AI 가 똑똑하게 잘 대답해야 함.
  3. 속도: 너무 느리면 안 됨.

기존 기술들은 이 중 하나를 포기해야 했습니다.

  • 보안만 지키면 속도가 느리고,
  • 속도를 내면 보안이 약해지고,
  • 성능을 유지하면 데이터가 유출됩니다.

탈라리아는 이 세 가지를 모두 잡았습니다.

  • 보안: 질문과 답변 모두 클라우드에 유출되지 않음.
  • 성능: AI 가 원래 하던 대로 똑똑하게 답함 (비트 단위까지 동일).
  • 속도: 기존 보안 기술들보다 훨씬 빠르고 효율적임.

5. 결론

이 논문의 탈라리아는 마치 **"우체국 직원이 편지를 못 보게 하되, 편지 내용도 변하지 않고, 우편물도 빨리 도착하게 하는 마법의 봉투"**와 같습니다.

이 기술을 통해 우리는 앞으로 클라우드 AI 를 사용할 때, 내 개인정보나 기밀 정보가 유출될까 봐 걱정하지 않고, AI 의 비밀 레시피가 훔쳐질까 봐 걱정하지도 않으면서, 빠르고 똑똑한 서비스를 계속 이용할 수 있게 됩니다.