LEA: Label Enumeration Attack in Vertical Federated Learning

이 논문은 보조 데이터 없이도 다양한 수직 연합 학습 환경에서 레이블을 추론할 수 있는 새로운 '레이블 열거 공격 (LEA)'을 제안하며, 1 차 손실 기울기의 코사인 유사도를 활용한 효율적인 모델 유사도 측정법과 공격 횟수를 획기적으로 줄이는 'Binary-LEA' 기법을 통해 기존 방어 기법까지 우회하는 방법을 제시합니다.

Wenhao Jiang, Shaojing Fu, Yuchuan Luo, Lin Liu

게시일 2026-03-05
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

1. 배경: "함께 요리하지만, 레시피는 숨겨진 식당"

먼저 **수직 연방 학습 (VFL)**이 무엇인지 알아봅시다.

  • 상황: A 식당 (고객 데이터 보유) 과 B 식당 (신용 기록 보유) 이 있습니다. 둘 다 같은 고객들의 정보를 가지고 있지만, A 는 "이 사람이 어떤 옷을 입었는지"만 알고, B 는 "이 사람이 빚을 갚을 수 있는지"만 압니다.
  • 목표: 둘이 합쳐서 "이 고객이 좋은 고객인가?"를 예측하는 모델을 만들고 싶습니다.
  • 문제: 서로의 원본 데이터 (옷장이나 은행 계좌) 를 주고받을 수 없습니다. 오직 **모델이 계산한 중간 결과 (숫자)**만 주고받습니다.
  • 보안: "우리는 데이터만 주고받지, 중요한 정보 (라벨/정답) 는 절대 안 넘겨주니까 안전해!"라고 생각했습니다.

하지만 이 논문은 **"아니요, 그 중간 결과만으로도 정답을 유추해 낼 수 있다"**고 말합니다.

2. 공격의 핵심: "미스터리한 요리사 (공격자) 의 작전"

이 논문에서 공격자는 B 식당의 '호기심 많은 요리사'라고 상상해 보세요. B 는 정답 (고객이 좋은 고객인지) 을 모르는 상태입니다. 하지만 A 가 보내주는 숫자 (손실 함수의 기울기) 를 보고 정답을 알아내려 합니다.

🕵️‍♂️ 공격 방법 1: "모든 경우의 수를 다 시도해보기 (LEA)"

공격자는 이렇게 생각합니다.

"내가 가진 고객 데이터 (옷차림 등) 를 보면, 자연스럽게 몇 개의 그룹으로 나눌 수 있겠어. 예를 들어 '패션 센스가 좋은 그룹', '보통인 그룹' 등으로요. 근데 정답 (라벨) 이 이 그룹들에 어떻게 붙어 있을지 모르잖아? 그럼 모든 가능한 정답 조합을 다 만들어서 시험해 보자!"

  • 과정:
    1. 데이터를 그룹 (클러스터) 으로 나눕니다.
    2. 정답 (예: '부자', '가난한') 을 이 그룹들에 모든 순서대로 다 붙여봅니다. (예: A그룹=부자, B그룹=가난한 / 혹은 A그룹=가난한, B그룹=부자...)
    3. 이렇게 만든 가상의 정답으로 모델을 훈련시킵니다.
    4. 핵심: "내가 만든 가짜 모델 중, 실제 A 식당이 보내준 숫자 (기울기) 와 가장 비슷하게 움직이는 모델이 바로 '진짜 정답을 알고 있는 모델'이야!"라고 찾아냅니다.

이것은 마치 자물쇠를 열 때, 모든 숫자 조합을 다 돌려서 맞는 것을 찾는 '브루트 포스 (Brute-force)' 방식과 비슷합니다.

🚀 공격 방법 2: "계산량을 줄이는 지혜 (Binary-LEA)"

문제는 정답의 종류가 많으면 (예: 10 가지) 모든 조합을 다 만들어보는 데 시간이 너무 오래 걸린다는 점입니다. (10! = 362 만 번!)

그래서 연구자들은 이걸 이진 분류 (Yes/No) 로 쪼개서 해결했습니다.

  • "10 가지 중 2 가지를 골라 '이게 맞나, 저게 맞나'만 비교해보자."
  • 이렇게 하면 계산량이 362 만 번에서 수천 번 수준으로 줄어듭니다. (O(n!) → O(n³))

3. 왜 이 공격이 무서운가?

기존의 공격들은 "약간의 정답이 있는 데이터 (보조 데이터)"가 있어야만 성공했습니다. 마치 비밀번호를 맞추려면 단서 (힌트) 가 있어야 하는 것과 같았습니다.

하지만 이 LEA 공격단서 (보조 데이터) 가 전혀 없어도 성공합니다.

  • 비유: "힌트 없이 비밀번호를 맞추는데, 내가 가진 물건 (데이터) 을 잘 분류만 하면, 모든 경우의 수를 시도해서 정답을 찾아내는 거예요."
  • 결과: 실험 결과, 기존 최고의 공격법보다 정확도가 50%~90% 더 높게 나왔습니다.

4. 방어는 가능한가? (방어막 테스트)

연구자들은 이 공격을 막을 수 있는 방법을 몇 가지 시험해 보았습니다.

  1. 소음 추가 (Noisy Gradients): 정답을 알려주는 숫자에 '잡음'을 섞어서 흐리게 만드는 방법.
    • 결과: 잡음이 너무 심하지 않으면, 공격자는 여전히 "가장 비슷한 모델"을 찾아냅니다. 방어 실패.
  2. 압축 (Gradient Compression): 숫자의 일부만 보내는 방법.
    • 결과: 중요한 정보는 여전히 남아있어 공격이 성공합니다. 방어 실패.
  3. 라벨 매핑 테이블 (Label Mapping Table): 정답을 미리 섞어서 (예: '부자'를 '가난한'으로 바꿔서) 보내는 방법.
    • 결과: 이론적으로는 효과가 있지만, 공격자가 약간의 정답 데이터 (힌트) 를 가지고 있거나, 데이터의 분포가 극단적일 경우 (예: 부자가 90%, 가난한이 10%) 에는 다시 뚫립니다.

5. 결론: "우리는 더 안전한 방어를 찾아야 한다"

이 논문은 **"수직 연방 학습이 안전하다고 생각했던 그 구멍이 생각보다 크고, 새로운 공격법 (LEA) 으로 인해 더 위험할 수 있다"**는 것을 보여줍니다.

  • 핵심 메시지: "데이터를 나누어 가지고 있어도, 서로의 데이터를 분류하고 정답의 모든 경우를 시도해 본다면, 정답을 훔쳐낼 수 있다."
  • 미래: 이제 우리는 이 새로운 공격을 막을 수 있는 더 강력한 방어 기술 (예: 더 강력한 암호화나 새로운 프로토콜) 을 개발해야 합니다.

한 줄 요약:

"비밀을 공유하지 않고도 함께 일하는 시스템 (VFL) 이지만, 모든 가능성을 시뮬레이션해 보는 지능적인 공격으로 인해 정답이 유출될 수 있다는 위험을 발견했습니다. 기존 방어책으로는 막기 어렵기 때문에, 새로운 보안 기술이 시급합니다."

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →