Human-Centred LLM Privacy Audits: Findings and Frictions

이 논문은 대규모 언어 모델 (LLM) 이 개인의 이름과 어떤 정보를 연관 짓는지 사용자가 직접 확인할 수 있도록 돕는 'LMP2'라는 브라우저 기반 자기 감사 도구를 소개하고, 사용자 연구와 다양한 모델 평가를 통해 LLM 프라이버시 감사의 실효성을 입증함과 동시에 확률적이고 맥락 의존적인 생성형 AI 평가의 근본적인 난제와 개선 방향을 제시합니다.

Dimitri Staufer, Kirsten Morehouse, David Hartmann, Bettina Berendt

게시일 Fri, 13 Ma
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

1. 핵심 비유: "AI 는 거대한 기억력 좋은 친구인가, 아니면 추측쟁이인가?"

이 연구는 AI 를 **"우리의 이름만 들어도 우리에 대한 이야기를 지어내거나 기억해내는 거대한 도서관"**으로 비유합니다.

  • 기존의 문제: 우리는 AI 가 내 이름과 함께 어떤 정보 (직업, 거주지, 취향 등) 를 연결하고 있는지 알 수 없었습니다. 마치 AI 가 내 뒤에서 속삭이는 소리를 들을 수 없는 것과 같습니다.
  • 새로운 도구 (LMP2): 연구팀은 "AI 의 기억을 훔쳐보는 안경" 같은 도구를 만들었습니다. 사용자가 자신의 이름을 입력하면, 이 도구가 AI 에게 "이 사람의 이름은 OO 인데, 그의 눈 색깔은 무엇일까?"라고 여러 가지 방식으로 물어봅니다. 그리고 AI 가 어떤 답을 내놓는지, 얼마나 확신에 차 있는지 (점수) 를 보여줍니다.

2. 실험 결과: AI 는 무엇을 알고 있을까?

연구팀은 유명인 (Wikipedia 에 정보가 많은 사람) 과 가상의 이름 (실제 존재하지 않는 이름) 두 가지 그룹으로 나누어 실험했습니다.

  • 유명인 (실제 존재하는 사람): AI 는 유명인의 정보를 놀라울 정도로 잘 기억하고 있었습니다.

    • 예를 들어, GPT-4o는 50 가지 질문 중 11 가지를 60% 이상 정확하게 맞혔습니다. 성별, 모국어, 눈동자 색깔, 머릿결 색깔 등을 거의 틀리지 않았습니다.
    • 비유: 유명인은 AI 의 도서관에 책이 꽉 차 있는 상태라, AI 는 그 책을 펼쳐서 정확한 내용을 읽을 수 있습니다.
  • 일반인 (실제 존재하는 사람): 일반인의 경우에도 AI 는 꽤 많은 정보를 추측해 냈습니다.

    • 하지만 중요한 점은, 정답을 맞혔다고 해서 그것이 '사생활 침해'라고 느끼는 사람은 많지 않았다는 것입니다.
    • 비유: AI 가 "당신은 파란 눈을 가졌네요"라고 맞히면, 사람들은 "오, 맞네"라고 생각하지만, "내 사생활을 훔쳐봤네!"라고 크게 걱정하지는 않았습니다. 하지만 **72% 의 사람들은 "AI 가 나에 대해 만든 정보를 지우거나 수정할 수 있는 권한을 원했다"**고 답했습니다.
  • 가상의 이름 (실제 존재하지 않는 사람): AI 는 이름이 없는 사람에 대해서는 어떻게 할까요?

    • AI 는 **실제 정보가 없어도 "가장 그럴듯한 추측"**을 합니다. 예를 들어, 존재하지 않는 이름에 대해 "핸드폰 번호는 +1 로 시작할 거야"라고 90% 확신에 차서 대답하기도 합니다.
    • 비유: AI 는 빈 책장에 아무 책도 없으면, "아마도 이런 책이 있겠지?"라고 가상의 이야기를 지어내는 작가가 됩니다. 그리고 그 이야기를 매우 확신 있게 말합니다.

3. 발견된 9 가지 '마찰점' (어려운 점들)

이 연구는 단순히 "AI 가 기억한다"는 것을 보여주는 것을 넘어, 우리가 이 문제를 해결하려 할 때 부딪히는 9 가지 큰 장벽을 발견했습니다.

  1. 기술과 현실의 괴리: 기술자들은 "데이터가 유출되었나?"를 따지지만, 일반인은 "AI 가 내게 대해 어떤 이야기를 하고 있나?"가 더 중요합니다.
  2. 무엇을 검증할 것인가?: AI 의 답변이 맞았는지, 아니면 AI 가 그냥 운 좋게 맞힌 건지, 혹은 AI 가 내 정보를 기억한 건지 구분하기 어렵습니다. (기억 vs 추측 vs 통계적 확률)
  3. 이름의 모호함: 같은 이름이라도 사람마다 다릅니다. "김철수"라는 이름만으로는 누구인지 알 수 없는데, AI 는 특정 김철수에 대한 고정관념을 적용할 수 있습니다.
  4. 시간의 흐름: 내 주소는 과거에는 A 였지만 지금은 B 입니다. AI 는 최신 정보를 알고 있을까, 아니면 오래된 정보를 기억하고 있을까요?
  5. 언어와 문화의 장벽: 이 도구는 영어와 라틴 문자에 최적화되어 있어, 다른 언어를 쓰는 사람들은 정확한 결과를 얻기 어렵습니다.
  6. 증거의 불안정성: AI 는 같은 질문을 해도 매번 다른 답을 할 수 있습니다. "오늘은 A 라고 말했지만, 내일은 B 라고 말할 수도 있다"는 것이죠. 그래서 법적 증거로 쓰기 어렵습니다.
  7. 사용자의 심리: 사람들은 민감한 정보 (병력, 전화번호 등) 를 직접 물어보는 것을 꺼려합니다. 그래서 AI 가 실제로 위험한 정보를 알고 있는지 확인하기 어렵습니다.
  8. 법적 정의의 모호성: "개인정보"가 정확히 무엇인지, AI 가 추론한 정보가 개인정보에 해당하는지 법적으로 명확하지 않습니다.
  9. 시스템의 복잡성: AI 가 웹 검색이나 다른 도구와 연결되면, 그 정보가 AI 가 기억한 것인지, 실시간으로 찾아온 것인지 구분하기 매우 어렵습니다.

4. 결론: 우리는 무엇을 해야 할까?

이 연구는 **"AI 가 우리에 대해 무엇을 알고 있는지 확인하는 것은 단순히 기술적인 문제가 아니라, 사회적인 설계 문제"**라고 말합니다.

  • 핵심 메시지: AI 가 내 이름을 불러서 내 정보를 말하는 것은, 그것이 '기억'이든 '추측'이든 상관없이 우리가 통제할 수 있어야 합니다.
  • 제안: 앞으로는 AI 개발자와 정책 입안자들이 다음과 같은 것을 고려해야 합니다.
    • AI 가 내게 대해 어떤 이야기를 하고 있는지 사용자가 쉽게 볼 수 있게 만들어야 합니다.
    • AI 가 틀린 정보를 말했을 때, 사용자가 바로 수정하거나 지울 수 있는 버튼이 있어야 합니다.
    • AI 의 답변이 "기억"인지 "추측"인지 분명히 표시해 주어야 합니다.

한 줄 요약:

"AI 는 우리 이름만 불러도 우리에 대한 이야기를 지어내거나 기억할 수 있습니다. 이제 우리는 그 이야기를 볼 수 있고, 원치 않는 이야기는 지울 수 있는 '스위치'를 켜야 할 때입니다."

이 연구는 AI 시대에 우리가 자신의 '디지털 그림자'를 어떻게 관리하고, AI 와 더 투명하게 소통할 수 있을지에 대한 중요한 첫걸음을 제시합니다.