Each language version is independently generated for its own context, not a direct translation.
1. 첫 번째 단계: "엄격한 규칙을 외운 로봇" (전문 시스템)
비유: "정해진 레시피대로만 요리를 하는 로봇"
1970~90 년대, AI 연구자들은 법을 컴퓨터에 넣기 위해 전문 시스템을 만들었습니다. 이때의 AI 는 마치 완벽한 레시피를 외운 요리사와 같았습니다.
- 어떻게 작동했나요?
인간 전문가 (요리사) 가 "법"이라는 레시피를 하나하나 입력했습니다. 예를 들어, "공원에 차를 금지한다"는 법을 입력할 때, "자전거는 차인가?"라는 질문이 생깁니다. 이때 인간이 "아니요, 자전거는 제외합니다"라고 미리 정해두면, 로봇은 그 규칙만 따릅니다. - 문제점은?
만약 인간이 실수로 "자전거도 차다"라고 입력해 버리면, 로봇은 아이의 작은 자전거까지 공원에서 쫓아냅니다. 로봇은 상황을 고려하거나 유연하게 생각할 수 없었습니다. 모든 해석을 미리 정해둔 규칙에 맡겼기 때문에, 예상치 못한 상황 (예: 아이의 자전거) 에는 너무 경직되어 버렸습니다.
2. 두 번째 단계: "논쟁을 즐기는 변호사들" (논증)
비유: "법정에서 서로 설득하는 변호사들"
로봇이 너무 경직되자, 연구자들은 **논증 (Argumentation)**이라는 방식을 도입했습니다. 이제 AI 는 법정에서 서로 다른 주장을 펼치는 변호사들처럼 작동합니다.
어떻게 작동하나요?
"공원에 차 금지"라는 법을 두고 두 가지 주장이 충돌합니다.- 경찰 (로봇 A): "일상적인 말로 '차'는 자전거도 포함하니까 금지해야 해!" (일반적 의미)
- 아이의 부모 (로봇 B): "이 법의 목적은 소음과 위험을 막는 거니까, 아이의 자전거는 허용해야 해!" (목적론적 의미)
AI 는 이 두 주장을 동시에 가져와서, "어떤 주장이 더 설득력 있는가?"를 판단합니다. 마치 법정에서 판사가 양쪽 변호사의 말을 듣고 최선의 결론을 내리는 과정을 시뮬레이션하는 것입니다.
장점:
이제 AI 는 단순히 규칙을 따르는 게 아니라, 왜 그렇게 해석해야 하는지 이유를 들이대며 유연하게 판단할 수 있게 되었습니다.
3. 세 번째 단계: "방대한 책을 읽은 천재 (하지만 때론 망상가)" (대형 언어 모델, LLM)
비유: "모든 책을 읽었지만, 진짜 경험을 해보지 않은 천재 학생"
최근 등장한 **생성형 AI (LLM)**는 거대한 도서관의 모든 책을 읽은 천재 학생과 같습니다.
무엇을 잘하나요?
- 빠른 요약: 복잡한 법조문을 쉽게 설명해 줍니다.
- 다양한 관점: "자전거는 금지될까?"라고 물으면, "일반적인 의미, 목적, 판례" 등 다양한 각도에서 답변을 만들어냅니다.
- 창의성: 인간이 생각지 못한 새로운 해석을 제안하기도 합니다.
하지만 치명적인 약점이 있습니다 (할루시네이션):
이 천재 학생은 진짜 경험을 해본 적이 없습니다. 단지 책에 쓰인 말들을 통계적으로 연결할 뿐입니다.- 망상 (Hallucination): "아니, 사실은 자전거 금지 법이 1990 년에 폐지되었어!"라고 사실과 다른 거짓말을 매우 그럴듯하게 해낼 수 있습니다.
- 이유 없는 결론: "왜 그런가?"라고 물으면, "책에 그렇게 쓰여 있었으니까"라고 말하지만, 그 '책'은 실제로 존재하지 않을 수도 있습니다.
4. 결론: 우리는 AI 를 어떻게 써야 할까?
비유: "AI 는 훌륭한 '조수'지만, '주인'이 될 수는 없다"
이 논문은 AI 를 법 해석의 **최종 결정권자 (주인)**로 삼아서는 안 된다고 강력히 경고합니다.
- 왜?
AI 는 **진실 (Truth)**을 알지 못하고, 도덕적 책임을 질 수 없기 때문입니다. 만약 AI 가 아이의 자전거를 금지한다고 잘못 판단해서 벌금을 매기면, 그 책임은 AI 가 질 수 없습니다. - 올바른 사용법:
AI 는 **유능한 조수 (비서)**가 되어야 합니다.- AI 는 "이 법조문에 대해 이렇게 해석할 수도 있고, 저렇게 볼 수도 있어. 참고 자료는 여기 있어"라고 아이디어를 제안합니다.
- 하지만 최종 결정은 반드시 인간 변호사나 판사가 내려야 합니다. 인간은 AI 가 제안한 아이디어를 검토하고, "아, 이건 우리 사회의 가치와 맞지 않네"라고 최종적으로 판단해야 합니다.
요약
- 과거: AI 는 경직된 로봇처럼 미리 정해진 규칙만 따랐습니다.
- 중간: AI 는 변호사처럼 서로 다른 주장을 비교하며 논리적으로 판단했습니다.
- 현재: AI 는 천재 조수처럼 빠르고 다양한 해석을 제안하지만, 거짓말을 할 수도 있고 책임감은 없습니다.
- 미래: AI 는 도구일 뿐입니다. 법을 해석하고 책임을 지는 것은 결국 인간이어야 합니다.
이 논문은 AI 가 법조계에 혁명을 일으키고 있지만, 우리는 그 한계를 정확히 알고 인간이 주도권을 쥐고 있어야 한다고 말하고 있습니다.
이런 논문을 받은편지함으로 받아보세요
관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.