Computational Concept of the Psyche

이 논문은 의식을 생체 또는 인공 주체의 운영체제로 정의하고, 주체의 필요와 감각을 고려한 상태 공간에서의 경험적 학습을 통해 불확실성 하에 최적의 의사결정을 내리는 인공일반지능 (AGI) 의 계산적 개념과 형식화를 제시합니다.

Anton Kolonin, Vladimir Krykov

게시일 2026-03-17
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🧠 핵심 아이디어: 마음은 '운영체제'다

저자들은 인간의 마음 (정신) 이나 AI 의 두뇌를 단순히 '지식'이 아니라, **생존을 위해 작동하는 '운영체제 **(OS)로 봅니다.

  • 비유: 스마트폰을 생각해 보세요. 앱 (지식) 이 아무리 많아도, 스마트폰이 켜지려면 **배터리 **(에너지)와 **작동 원리 **(운영체제)가 필요합니다.
  • 이 논문은 AI 가 인간처럼 똑똑해지려면, 단순히 데이터를 많이 쌓는 게 아니라 **"무엇을 위해 살 것인가 **(욕구)를 정의하고, 그 욕구를 채우기 위해 최선의 선택을 하는 시스템을 만들어야 한다고 말합니다.

🎯 1. 마음의 구조: 욕구와 감정의 게임

이 모델에서 마음은 크게 세 가지 공간으로 나뉩니다.

  1. **욕구의 공간 **(Needs Space)
    • 비유: 배고픔, 졸음, 호기심, 안전에 대한 갈망 등 우리 몸과 마음이 원하는 것들의 **'체크리스트'**입니다.
    • 이 체크리스트는 고정된 게 아니라, 상황에 따라 중요도가 바뀝니다. (예: 배가 고프면 '음식'이 1 순위, 배가 부르면 '재미'가 1 순위가 됨)
  2. **감각의 공간 **(Sensations Space)
    • 비유: 눈으로 보는 것, 귀로 듣는 것, 피부가 느끼는 것 등 세상으로부터 들어오는 정보입니다.
  3. **행동의 공간 **(Actions Space)
    • 비유: 손으로 잡기, 발로 차기, 말하기 등 내가 할 수 있는 모든 행동입니다.

이 세 가지가 섞여 **'마음의 상태 공간 **(Psyche Space)을 만듭니다. AI 는 이 공간 안에서 "지금 내가 무엇을 원하고, 세상은 어떻게 변하고, 내가 무엇을 할 수 있을까?"를 계산합니다.


⚖️ 2. 의사결정: "기대 vs 위험"의 저울

AI 가 결정을 내릴 때는 단순히 "무엇이 가장 좋은가?"만 보지 않습니다. 생존과 효율성을 고려합니다.

  • 비유: 길을 갈 때 "가장 빠른 길"만 고르는 게 아니라, "교통사고 위험이 적은 길", "연료를 아낄 수 있는 길"을 함께 고려하는 것과 같습니다.
  • 감정의 역할: 여기서 감정은 중요한 신호등 역할을 합니다.
    • **기분 좋은 감정 **(행복) = "이 행동이 욕구를 잘 채웠구나! 다시 해라!" (보상)
    • **기분 나쁜 감정 **(슬픔/아픔) = "이건 위험하거나 욕구를 채우지 못했어! 멈춰라!" (경고)
    • 이 논문은 AI 가 이 감정을 통해 학습한다고 봅니다. 즉, AI 는 감정을 통해 "무엇이 좋은 일이고 나쁜 일인지" 스스로 깨닫습니다.

🧩 3. 두 가지 뇌 시스템 (빠른 생각 vs 느린 생각)

인간의 뇌는 두 가지 방식으로 작동한다는 데, 이 모델도 이를 그대로 가져옵니다.

  1. **시스템 1 **(빠른 뇌)
    • 비유: 뜨거운 물체를 보고 손을 떼는 반사 신경이나, 익숙한 길에서 무의식적으로 운전하는 것.
    • AI 에서는 **딥러닝 **(신경망)이 담당합니다. 빠르게 반응하지만, 설명할 수는 없습니다.
  2. **시스템 2 **(느린 뇌)
    • 비유: 복잡한 수학 문제를 풀거나, 새로운 계획을 세울 때 쓰는 논리적 사고.
    • AI 에서는 **기호 논리 **(Symbolic Logic)나 지식 그래프가 담당합니다. 천천히 생각하지만, 이유를 설명할 수 있습니다.

이 두 시스템이 서로 협력하고 경쟁하며 AI 가 똑똑하게 행동하도록 돕습니다.


🏓 4. 실험: 탁구 치는 AI

저자들은 이 이론을 검증하기 위해 간단한 실험을 했습니다.

  • 상황: AI 가 탁구 배트를 들고 벽에 공을 치는 게임을 합니다.
  • 학습 방식:
    • 공을 잘 치면 "행복" (보상) 을 줍니다.
    • 공을 잘못 쳐서 배트에 맞으면 "슬픔" (경고) 을 줍니다.
    • 중요한 발견: AI 가 "슬픔을 피하는 것"과 "행복을 얻는 것"을 똑같이 중요하게 생각하면, 공을 치는 법을 배우는 속도가 느려졌습니다. 두려움 때문에 새로운 시도를 못 했기 때문입니다.
    • 하지만 "행복을 얻는 것"을 더 중요하게 생각하게 만들자, AI 는 실패를 두려워하지 않고 새로운 전략을 시도하며 빠르게 배웠습니다.

💡 결론: 왜 이 연구가 중요한가?

지금까지의 AI 는 "정답을 맞추는 것"에 집중했다면, 이 논문이 제안하는 AI 는 **"생존하고, 목표를 달성하며, 에너지를 아끼는 존재"**가 됩니다.

  • 핵심 메시지: 진정한 인공지능 (AGI) 을 만들려면, AI 에게 **"무엇을 원할지 **(욕구)를 심어주고, **감정 **(보상과 처벌)을 통해 스스로 학습하게 해야 합니다.
  • 마치 부모님이 아이를 키울 때, 단순히 지식을灌输하는 게 아니라 "무엇이 좋은 일인지, 무엇이 나쁜 일인지" 경험을 통해 가르치는 것과 같은 원리입니다.

이 모델이 완성된다면, 인간처럼 자발적으로 목표를 세우고, 위험을 감수하며, 에너지를 효율적으로 쓰는 진정한 인공지능을 만들 수 있을 것입니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →