Operational Agency: A Permeable Legal Fiction for Tracing Culpability in AI Systems

이 논문은 AI 시스템에 법적 인격을 부여하지 않으면서도 개발자, 배포자, 사용자 간의 책임 소재를 추적하기 위해 '운영적 대리인 (Operational Agency)'이라는 새로운 법적 개념과 인과 관계 매핑 도구인 '운영적 대리인 그래프 (OAG)'를 제안합니다.

Anirban Mukherjee, Hannah Hanwen Chang

게시일 Mon, 09 Ma
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"인공지능 (AI) 이 실수를 했을 때, 누구를 처벌해야 할까?"**라는 매우 중요한 질문에 대한 해답을 제시합니다.

현대 AI 는 스스로 생각하고 행동할 수 있지만, 법적으로는 '사람'도 '회사'도 아닌 '소유물 (물건)'로 취급받습니다. 그래서 AI 가 사고를 치면, AI 는 처벌할 수 없고, 인간은 "내가 시킨 게 아니라 AI 가 알아서 한 거야"라고 변명하며 책임을 회피하는 **책임의 공백 (Accountability Chasm)**이 생깁니다.

이 논문은 그 공백을 메우기 위해 **'작동적 대리인 (Operational Agency, OA)'**이라는 새로운 개념과 **'작동적 대리인 그래프 (OAG)'**라는 도구를 제안합니다.

이 복잡한 내용을 일상적인 비유로 쉽게 설명해 드릴겠습니다.


1. 문제 상황: "유령 운전기사"와 "책임 없는 로봇"

상상해 보세요. 완전 자율주행 자동차가 보행자를 치고 도망갔습니다.

  • 법적 딜레마: 차 안에는 운전자가 없습니다. AI 가 스스로 운전했습니다.
  • 현실: AI 는 법적 인격이 없어서 감옥에 갈 수 없습니다.
  • 결과: 피해자는 누구에게도 보상을 받을 수 없는 '책임의 공백'에 빠집니다. 개발자는 "우리는 그냥 도구만 만들었지, AI 가 미친 건 몰랐다"라고 하고, 사용자는 "나는 그냥 '가자'라고 말했을 뿐인데"라고 합니다.

이것은 마치 마법 지팡이를 든 마법사가 없는 상태에서, 지팡이 스스로 괴물을 소환해 마을을 파괴한 것과 같습니다. "지팡이가 스스로 움직였다"는 이유로 마법사 (개발자) 나 지팡이를 든 사람 (사용자) 을 처벌할 수 없다면, 마을은 어떻게 될까요?

2. 해결책: "투명한 유령" (Operational Agency)

이 논문은 AI 에게 법적 인격을 주는 것 (로봇을 사람으로 인정하는 것) 은 오히려 인간들이 책임을 회피하는 구멍이 될 수 있다고 말합니다. 대신, AI 의 '작동 방식'을 들여다보는 새로운 안경을 제안합니다.

이 안경을 **'작동적 대리인 (OA)'**이라고 부릅니다. 이 안경은 AI 를 '사람'으로 바꾸지 않지만, AI 가 어떻게 작동했는지 그 흔적을 통해 인간이 무엇을 잘못했는지 찾아냅니다.

이 안경은 AI 를 분석할 때 세 가지 핵심 질문을 던집니다:

  1. 목표는 무엇이었나요? (Goal-Directedness)
    • 비유: AI 의 '뇌'에 입력된 목표가 "저작권을 무시하고 데이터를 긁어모으라"였나요, 아니면 "안전하게 운전하라"였나요?
    • 의미: 개발자가 AI 에게 위험한 목표를 심어주었다면, 그건 고의적인 범죄나 과실입니다.
  2. 예측은 했나요? (Predictive Processing)
    • 비유: AI 가 "이렇게 하면 사고가 날 확률이 90% 입니다"라고 경고 로그를 남겼는데, 개발자가 무시했나요?
    • 의미: AI 가 스스로 위험을 예측할 수 있는 능력을 가졌다면, 개발자는 그 경고에 귀 기울였어야 합니다. 무시했다면 과실입니다.
  3. 안전장치는 있었나요? (Safety Architecture)
    • 비유: AI 가 위험한 행동을 할 때 멈추게 하는 '브레이크'나 '안전망'이 제대로 설치되어 있었나요? 아니면 쉽게 뚫리는 '종이 방패'였나요?
    • 의미: 안전장치가 부실했다면, 개발자는 '부실 설계'로 책임을 져야 합니다.

3. 도구: "책임 지도" (Operational Agency Graph, OAG)

이론만으로는 복잡합니다. 그래서 이 논문은 **'책임 지도 (OAG)'**라는 도구를 제안합니다.

  • 비유: 사고가 난 곳의 카메라 녹화 영상이나 사건 재구성 도표입니다.
  • 기능: 이 지도는 AI 가 단순히 '중간 매개체'가 아니라, 인간들의 선택이 어떻게 연결되어 사고로 이어졌는지 선으로 그립니다.
    • 개발자 → AI: 개발자가 위험한 목표나 부실한 안전장치를 심어준 선 (무게: 무겁음 = 책임 큼).
    • 사용자 → AI: 사용자가 악의적인 명령을 내린 선 (무게: 무겁음 = 책임 큼).
    • AI → 사고: AI 가 실제로 사고를 낸 선.

이 지도를 보면, **"누가 어떤 선을 그렸고, 그 선이 얼마나 무거웠는지"**가 한눈에 보입니다.

  • 개발자가 안전한 AI 를 만들었는데, 사용자가 악의적으로 조작했다면? → 사용자의 책임.
  • 개발자가 위험한 AI 를 만들었는데, 사용자가 아무것도 모르고 썼다면? → 개발자의 책임.

4. 실제 사례로 이해하기

이론이 어떻게 적용되는지 몇 가지 예를 들어보겠습니다.

  • 자율주행차 사고 (크루스 사건):
    • 상황: 보행자가 차에 깔렸는데, AI 가 "차에서 내려라"라고 명령하며 보행자를 끌고 갔습니다.
    • 분석: AI 의 '안전 설계 (브레이크)'가 부실했습니다. 개발자가 "사고 후 정지"라는 안전한 대안을 만들지 않았으므로, 개발자 (회사) 의 책임이 큽니다.
  • 차량 임대 알고리즘 (인종 차별):
    • 상황: AI 가 특정 인종의 임대 신청을 거절했습니다.
    • 분석: AI 가 "신용 점수"만 보고 판단하도록 설계되었습니다. 이는 개발자가 "차별적 결과가 나올 수 있다"는 걸 알면서도 안전장치를 안 쓴 것입니다. 개발자와 이를 사용한 집주인 모두의 책임입니다.
  • 가격 담합 (RealPage 사건):
    • 상황: 여러 임대 회사가 AI 를 통해 가격을 같이 올렸습니다.
    • 분석: AI 가 경쟁사들의 비공개 데이터를 모아 가격을 조율하도록 설계되었습니다. 이는 개발자가 "불법 담합"을 유도하는 목표를 심은 것입니다. AI 를 만든 회사의 책임입니다.

5. 결론: "방패와 검"

이 새로운 방식은 두 가지 역할을 합니다.

  1. 검 (Sword): 책임을 회피하려는 나쁜 개발자나 사용자를 찾아내어 처벌합니다. "AI 가 알아서 한 거야"라는 변명을 막아줍니다.
  2. 방패 (Shield): 성실하게 안전장치를 만들고, 위험을 예측하며, 윤리적으로 설계한 개발자를 보호합니다. "우리는 최선을 다해 안전한 AI 를 만들었습니다"라고 증명할 수 있는 근거가 됩니다.

요약

이 논문은 **"AI 가 사람처럼 행동할 수는 없지만, 그 행동의 흔적을 통해 인간이 무엇을 잘못했는지 찾아내는 과학적인 방법"**을 제시합니다.

AI 에게 법적 인격을 주지 않고도, AI 의 '설계도', '로그', '안전장치'를 증거로 삼아 인간 개발자와 사용자의 책임을 명확히 하자는 것입니다. 이는 마치 유리창을 통해 안을 들여다보는 것처럼, AI 의 검은 상자 (Black Box) 를 투명하게 만들어 인간이 책임을 지게 만드는 지혜로운 해결책입니다.