Predictive Coding Graphs are a Superset of Feedforward Neural Networks

이 논문은 뇌과학에서 영감을 받은 확률적 잠재 변수 모델인 예측 코딩 그래프 (PCG) 가 다층 퍼셉트론을 포함하는 수학적 초집합임을 증명하여, 예측 코딩 네트워크를 현대 기계학습의 맥락에 더 강력하게 위치시키고 신경망 위상학 연구의 중요성을 재확인합니다.

Björn van Zwol

게시일 Mon, 09 Ma
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🏗️ 1. 비유: "도로망"과 "한 방향 도로"

기존의 인공지능 (FNN) 은 **한 방향 도로 (일방통행)**만 있는 도시라고 상상해 보세요.

  • 특징: 차는 시작점 (입력) 에서 출발해서 중간 지점 (은닉층) 을 거쳐 목적지 (출력) 로만 이동합니다.
  • 단점: 목적지에서 다시 시작점으로 되돌아오거나, 옆길로 빠져서 다시 합류하는 것은 허용되지 않습니다. 이 구조를 학습시키기 위해 '역전파 (Backpropagation)'라는 복잡한 지도가 필요합니다.

이제 이 논문이 제안하는 **PCG(예측 코딩 그래프)**는 자유로운 도로망을 가진 도시입니다.

  • 특징: 차는 앞으로만 가는 것뿐만 아니라, 뒤로 가거나 (되돌아오기), 옆으로 건너뛰거나 (스킵 연결), 심지어 자기 자신에게 말을 걸기도 할 수 있습니다.
  • 핵심 메시지: 이 논문은 "이 자유로운 도로망 (PCG) 은 사실, 한 방향 도로 (FNN) 를 포함하는 더 큰 집합이다"라고 증명했습니다. 즉, FNN 은 PCG 의 아주 특별한 경우일 뿐입니다.

🧩 2. 두 가지 중요한 발견 (논문의 핵심)

저자는 이 결론을 내리기 위해 두 가지 단서를 연결했습니다.

① 첫 번째 단서: "시험 때는 똑같다"

  • 상황: PCN(예측 코딩 네트워크) 은 학습할 때는 복잡한 추론 과정을 거치지만, 실제 시험 (추론/사용) 을 치를 때는 기존의 FNN 과 완전히 똑같은 결과를 냅니다.
  • 비유: PCN 이라는 학생은 시험 공부할 때는 여러 가지 방법을 시도해 보지만, 막상 시험지 (입력 데이터) 를 받고 답을 적을 때는 FNN 이라는 학생이 쓰는 정석적인 답안지와 똑같이 적습니다.
  • 의미: FNN 이 어떤 복잡한 함수도 근사할 수 있다는 '보편적 근사 정리'가 PCN 에도 그대로 적용된다는 것을 수학적으로 확실히 증명하게 되었습니다.

② 두 번째 단서: "마스크를 쓴 PCG"

  • 상황: PCG 는 모든 노드가 서로 연결될 수 있는 거대한 네트워크입니다. 하지만 여기서 불필요한 연결 (도로) 을 막아주면 (마스크 처리) 어떻게 될까요?
  • 비유: 거대한 자유도로망 (PCG) 에서 '한 방향 도로'만 남게 차선을 그어두면, 그것은 자연스럽게 FNN 과 똑같은 구조가 됩니다.
  • 의미: PCG 는 FNN 을 포함하는 **초집합 (Superset)**입니다. FNN 은 PCG 의 '하위 호환' 버전인 셈이죠.

🚀 3. 왜 이것이 중요한가요? (장점과 미래)

이 논문의 결론은 **"우리가 더 자유로운 구조를 쓸 수 있다"**는 것입니다.

  1. 새로운 구조의 가능성:

    • 기존에는 '되돌아오는 연결 (Backward connection)'이나 '옆으로 건너뛰는 연결 (Lateral connection)'을 가진 신경망은 학습시키기 매우 어려웠습니다.
    • 하지만 PCG 는 이런 복잡한 구조도 자연스럽게 학습할 수 있습니다. 마치 **ResNet(잔차 네트워크)**처럼 '스킵 연결'이 중요한 이유를 PCG 의 전체 연결 행렬 안에서 자연스럽게 설명할 수 있게 된 것입니다.
  2. 생물학적 모방:

    • 인간의 뇌는 한 방향으로만 신호를 보내지 않습니다. 뇌는 예측을 하고, 오류를 수정하며, 다양한 방향으로 신호를 주고받습니다. PCG 는 이런 뇌의 구조를 더 잘 모방할 수 있는 틀을 제공합니다.
  3. 약간의 단점 (비용):

    • 자유도가 높다는 건 계산량이 많다는 뜻이기도 합니다. FNN 은 한 번에 빠르게 계산하지만, PCG 는 여러 번의 반복 계산 (추론 단계) 이 필요할 수 있어 속도가 느릴 수 있습니다. 하지만 이 느린 속도를 상쇄할 만큼 더 똑똑한 학습 능력을 가질 수도 있다는 기대가 있습니다.

💡 요약

이 논문은 **"기존의 인공지능 (FNN) 은 사실 더 거대한 인공지능 (PCG) 의 아주 단순한 한 형태일 뿐이다"**라고 선포합니다.

  • 기존: "한 방향 도로 (FNN) 만 다룰 수 있다."
  • 이제: "한 방향 도로도 포함하되, 되돌아오거나 옆으로 가는 모든 도로 (PCG) 를 다룰 수 있다."

이는 인공지능 연구자들에게 **네트워크의 구조 (Topology)**를 자유롭게 설계할 수 있는 새로운 문을 열어주며, 뇌의 작동 원리를 더 잘 이해하고 모방하는 데 큰 도움이 될 것입니다.