Can machines be uncertain?

이 논문은 기능주의와 행동적 관점에서 AI 시스템이 데이터에 내재된 인식론적 불확실성과 시스템의 태도인 주관적 불확실성을 어떻게 구현하는지, 특히 질문을 내용으로 하는 interrogative attitudes로서의 불확실성 상태를 분석합니다.

Luis Rosa

게시일 2026-03-05
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"인공지능 (AI) 이 정말로 '모르겠다'거나 '불확실하다'는 느낌을 가질 수 있을까?"**라는 아주 흥미로운 질문을 던집니다.

저자 루이스 로사는 단순히 AI 가 데이터를 잘못 가지고 있는 경우 (정보의 불확실성) 가 아니라, **AI 시스템 자체가 '아직 확신이 없다'는 태도 (주관적 불확실성)**를 가질 수 있는지, 그리고 그걸 어떻게 구현할 수 있는지 탐구합니다.

이 복잡한 철학적이고 기술적인 내용을 일상적인 비유로 쉽게 설명해 드릴게요.


1. 핵심 질문: AI 는 '모르겠다'고 말할 수 있을까?

우리는 AI 가 모든 것을 다 아는 만능 로봇이 되길 원하지 않습니다. 오히려 **"이건 잘 모르겠는데, 더 확인해 봐야겠다"**라고 말할 줄 아는 AI 를 원하죠. 하지만 AI 가 진짜로 그런 '불확실한 마음'을 가질 수 있을까요?

  • 정보의 불확실성 (Epistemic Uncertainty): 데이터 자체가 애매한 경우입니다. (예: 비가 올지 안 올지 기상청 데이터가 모호할 때)
  • 주관적 불확실성 (Subjective Uncertainty): 시스템 자체가 "나는 이 문제에 대해 확신이 없어"라는 태도를 가지는 경우입니다.

이 논문은 AI 가 정보의 애매함을 넘어, 스스로 '불확실하다'는 태도를 가질 수 있는지를 다룹니다.


2. AI 의 두 가지 유형과 불확실성의 구현

저자는 AI 를 크게 두 부류로 나누어 설명합니다.

A. 상징적 AI (Symbolic AI) - "규칙을 따르는 꼼꼼한 학생"

이 AI 는 인간이 만든 명확한 규칙과 기호 (문자, 수식) 로 작동합니다.

  • 확률적 불확실성: "환자가 감기일 확률이 90% 야"라고 숫자로 표현합니다. 마치 학생이 시험 문제를 풀 때 "이건 90% 맞을 것 같아"라고 적어두는 것과 같습니다.
  • 범주적 불확실성: 아예 답을 내지 않고 "환자가 감기일까? (질문)"라고 질문 자체를 메모장에 적어둡니다. 답을 모르는 상태를 '질문'이라는 형태로 저장하는 거죠.

B. 연결주의 AI (Connectionist AI / 신경망) - "직관적인 예술가"

이건 우리가 흔히 아는 딥러닝 (Deep Learning) 방식입니다. 규칙보다는 수많은 데이터 패턴을 학습해서 작동합니다.

  • 분산된 불확실성 (Distributive Uncertainty): 이 AI 는 "감기일 확률 90%"라고 숫자를 적지 않습니다. 대신, 뇌의 신경 연결망 (가중치) 자체가 흐릿하게 설정되어 있어서, 어떤 입력을 받으면 "감기"라고 확실히 말하지도, "아니오"라고 확실히 말하지도 않는 상태가 됩니다. 마치 색깔이 섞여 있어 회색으로 보이는 그림처럼, 전체적인 구조가 '모호함'을 담고 있는 것입니다.
  • 점 단위 불확실성 (Point-wise Uncertainty): 출력 결과로 "감기일 확률 60%"라고 숫자를 직접 내보내기도 합니다.

3. 가장 중요한 문제: "내부 vs 외부"의 괴리 (레벨 스플릿)

이 논문에서 가장 재미있고 중요한 부분은 **"AI 내부에서는 불확실해 보이는데, 밖에서는 확신에 차서 행동할 때"**에 대한 논의입니다.

비유: 망설이는 요리사와 당황스러운 식당 주인

  • 상황: AI 의 내부 (신경망) 는 "이 요리가 맛있을지 모르겠어 (불확실성)"라고 생각하며 망설이고 있습니다.
  • 하지만: 그 AI 가 속한 더 큰 시스템 (프로그램) 은 "음, 80% 이상 확신이 들면 그냥 '맛있다'고 발표해!"라는 규칙을 가지고 있습니다.
  • 결과: 내부에서는 망설이고 있지만, 밖으로 나가는 말은 **"이 요리 최고입니다!"**라고 확신에 차서 나옵니다.

이때 우리는 무엇을 말해야 할까요?

  1. 해석 1 (두 번째 해결책): "내부에서 망설였으니, 이 시스템은 불확실한 거야. 다만 그 불확실성을 무시하고 행동한 거지."
  2. 해석 2 (첫 번째 해결책 - 저자의 주장): "아니야. 시스템 전체가 '불확실한 상태'가 된 게 아니야. 내부에서 망설이는 건 그냥 계산 과정일 뿐이지, 실제 '불확실한 태도'가 아니야. 시스템은 확신에 차서 행동하니까, 불확실하지 않은 거야."

저자는 해석 2를 지지합니다. 왜냐하면 우리가 AI 에게 "너는 불확실할 줄 알아야 해"라고 요구할 때, 원하는 건 **내부 계산 과정이 아니라, 실제 행동 (확신하지 않고 말하거나, 더 확인해 보라고 하는 행동)**이기 때문입니다.


4. 결론: AI 는 어떻게 '불확실함'을 가져야 할까?

이 논문의 결론은 다음과 같습니다.

  1. AI 는 불확실할 수 있다: AI 는 확률 숫자를 쓰거나, 질문을 던지거나, 신경망 연결이 흐릿해지는 방식으로 '불확실함'을 구현할 수 있습니다.
  2. 하지만 행동이 중요하다: AI 내부에서 '모르겠다'는 신호가 떠도, 그 신호가 시스템의 최종 결정에 영향을 주지 않고 (예: 무조건 확신하는 규칙 때문에) 밖으로 나간다면, 그 AI 는 진짜로 불확실한 것이 아닙니다.
  3. 우리가 원하는 것: 우리는 AI 가 "아직 모르겠으니, 답을 내리기 전에 더 조사해 보자"거나 "이건 50:50 이니 신중하게 결정하자"라고 행동하는 것을 원합니다. 단순히 내부 계산만 불확실한 게 아니라, 그 불확실성이 행동으로 이어져야 진짜 불확실한 AI라고 할 수 있습니다.

한 줄 요약:

"AI 가 내부적으로 '모르겠다'고 생각해도, 밖으로 나가는 말과 행동이 '확신'에 차 있다면, 그 AI 는 불확실한 게 아닙니다. 진짜 불확실한 AI 는 모르겠다는 태도를 행동으로 보여주는 AI입니다."

이 논문은 AI 를 더 똑똑하고 인간처럼 안전하게 만들기 위해, AI 가 '무엇을 모르는지'를 인정하고 행동하는 능력을 어떻게 설계해야 하는지에 대한 중요한 통찰을 줍니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →