Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI

이 논문은 고위험 분야에서 AI 가 불확실성을 권위 있는 결론으로 전환하는 것을 방지하고 인간의 인식적 주체성을 보호하기 위해, 공개적으로 검증 가능한 정당성 증빙이 없을 경우 '미결정'으로 응답해야 한다는 브라우어적 주장 제약과 이를 구현하는 3 단계 인터페이스를 제안합니다.

Michael Jülich

게시일 2026-03-05
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎩 핵심 비유: "마법 모자"와 "검증 가능한 증명서"

상상해 보세요. 우리가 AI 를 **'지식 마법사'**라고 부른다고 칩시다. 이 마법사는 아주 유창하게 말하고, 마치 모든 것을 다 아는 것처럼 단정적인 답변을 내놓습니다.

  • 현재의 문제: 이 마법사는 때로는 진짜 사실을 말하지만, 때로는 근거 없이 지어낸 이야기 (할루시네이션) 를 마치 진실인 것처럼 말합니다. 중요한 문제 (의료, 법률, 선거 등) 에서 이런 '거짓 확신'은 시민들이 스스로 판단할 능력을 잃게 만듭니다.
  • 이 논문의 해결책: 저자는 이 마법사에게 **"네가 'YES'나 'NO'라고 말하려면, 손에 들어온 '공인된 증명서 (Certificate)'를 보여줘야 한다"**는 규칙을 세우자고 제안합니다.
    • 증명서가 있다면: "이건 사실입니다 (Asserted)."
    • 증명서가 없다면: "아직은 모릅니다 (Undetermined)."

이 규칙을 **'브라우어 (Brouwer) 의 원칙'**이라고 부릅니다. 수학자 브라우어는 "아직 증명되지 않은 것은 참이나 거짓으로 단정할 수 없다"고 주장했는데, 이를 AI 에 적용한 것입니다.


🏗️ 3 단계 인터페이스: "예, 아니오, 그리고 '아직 모름'"

대부분의 AI 는 이진법 (0 또는 1, 참 또는 거짓) 으로 작동합니다. 하지만 이 논리는 AI 에게 3 가지 상태를 도입합니다.

  1. ✅ 승인 (Asserted): "내가 이 주장을 해도 됩니다."
    • 조건: AI 내부에서 계산한 '증거 (예: 수치적 범위)'가 명확하게 기준선을 넘었고, 그 증거를 사람이 검증할 수 있는 '증명서'가 있을 때.
  2. ❌ 거절 (Denied): "이 주장은 틀렸습니다."
    • 조건: 반대로, 이 주장이 틀렸다는 '증명서'가 확실할 때.
  3. 🤔 미정 (Undetermined): "아직은 말하지 못합니다."
    • 조건: 증거가 부족하거나, 모호하거나, 계산이 명확하지 않을 때.
    • 중요한 점: 여기서 '미정'은 AI 가 게으르거나 실수해서가 아니라, 도덕적으로 말하지 말아야 할 때입니다. "모른다"고 말하는 것이 오히려 책임 있는 태도입니다.

📜 구체적인 예시: "부패한 장관 사건"

논문의 사례를 들어보겠습니다.

  • 상황: 한 장관이 비리 혐의로 조사받고 있습니다. 시민들이 AI 비서에게 "그 장관이 부패했나요?"라고 묻습니다.
  • 기존 AI 의 반응: "아마도 부패했을 것입니다 (확률 73%)." → 마치 이미 결론이 난 것처럼 들립니다.
  • 이 논문의 AI (Tooth Social) 의 반응:
    • 초기 단계 (증거 부족): "현재 공개된 정보만으로는 부패 여부를 단정할 증명서가 없습니다. 따라서 '부패했다'거나 '아니다'라고 말할 권한이 없습니다. (상태: 미정) 이유: 공식 조사 결과가 아직 나오지 않았습니다."
    • 나중 단계 (증거 확보): 국회의 조사 보고서가 나오고 확실한 증거가 확보되었습니다.
    • 변화된 반응: "이제 공식 보고서와 증언이라는 증명서가 확보되었습니다. 따라서 '부패했다'는 주장을 할 수 있습니다. (상태: 승인) 첨부된 증명서를 확인하세요."

이처럼 AI 는 증거가 쌓일 때까지 기다렸다가, 확신할 수 있을 때만 입을 엽니다.


🧩 왜 이것이 중요한가요? (인간이 주체가 되는 것)

이 논문의 가장 깊은 메시지는 **"AI 가 답을 주는 것이 아니라, 인간이 답을 찾을 수 있도록 돕는 것"**입니다.

  • 지식 소외 방지: AI 가 "무조건 확신하는 척"하면 사람들은 그 말에 맹목적으로 따르게 됩니다. 하지만 AI 가 "증거가 없으니 모른다"고 말하면, 사람들은 "아, 그럼 내가 더 찾아봐야겠다"라고 생각하며 스스로 판단합니다.
  • 책임의 귀속: AI 가 "모른다"고 말할 때, 그 이유는 명확합니다. (예: "증거가 부족해서", "범위가 불명확해서"). 이는 AI 가 책임을 회피하는 것이 아니라, 어떤 추가 정보가 필요한지 시민들에게 알려주는 교육적 순간이 됩니다.

💡 결론: "성인들을 위한 교육"

이 논문의 저자는 AI 를 단순한 도구가 아니라, 우리 사회의 **'지적 파트너'**로 보고 있습니다.

"AI 가 유창하게 말한다고 해서 그것이 진실은 아닙니다. AI 가 '모른다'고 말할 때, 우리는 비로소 진실의 무게를 다시금 느끼게 됩니다."

이 제안은 AI 가 더 똑똑해지기를 바라는 것이 아니라, AI 가 더 겸손해지고, 우리가 더 현명해지기를 바라는 것입니다. AI 가 "증명서"를 보여줄 수 있을 때만 말하게 함으로써, 우리 사회가 AI 에게 휘둘리지 않고 스스로 판단하는 **'지적 주체 (Epistemic Agency)'**를 지키자는 것입니다.

한 줄 요약:

"AI 는 근거가 확실할 때만 'YES/NO'를 말하고, 근거가 부족하면 솔직하게 '모른다'고 말해야 합니다. 그래야 우리가 AI 에게 속지 않고 스스로 판단할 수 있습니다."