Teleodynamic Learning a new Paradigm For Interpretable AI

이 논문은 고정된 목적 함수의 최소화가 아닌 제약 하의 기능적 조직의 등장을 학습으로 보는 '텔레다이나믹 학습' 패러다임을 제시하고, 이를 스펜서-브라운의 형식 법칙과 정보 기하학에 기반한 '구별 엔진 (DE11)'으로 구현하여 표준 벤치마크에서 높은 정확도와 해석 가능한 논리 규칙을 동시에 달성함을 보여줍니다.

Enrique ter Horst, Juan Diego Zambrano

게시일 Fri, 13 Ma
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🧠 핵심 아이디어: "최적화"가 아닌 "항해"

기존의 인공지능 학습은 보통 **"최적화 (Optimization)"**로 설명됩니다.

비유: 마치 산 꼭대기에 있는 보물을 찾기 위해, 지도를 펼쳐 가장 짧은 길을 계산하는 것과 같습니다. "어디가 가장 낮은 곳인가?"를 찾아서 그쪽으로만 이동합니다.

하지만 이 논문은 학습을 **"항해 (Navigation)"**로 봅니다.

비유: 배를 타고 바다를 항해하는 것과 같습니다. 우리는 미리 정해진 '가장 짧은 경로'가 없습니다. 대신 **바람 (데이터), 연료 (자원), 그리고 배의 구조 (모델)**가 서로 영향을 주며 움직입니다. 배가 너무 무거우면 연료가 빨리 떨어지고, 연료가 부족하면 더 이상 항해할 수 없습니다.

이 논문은 인공지능이 단순히 정답을 찾는 것이 아니라, 자신의 구조, 파라미터 (설정값), 그리고 자원 (에너지) 이 서로 조화를 이루며 살아남는 과정이라고 말합니다.


🏗️ 세 가지 핵심 요소 (비유로 설명)

이 새로운 방식은 세 가지 요소가 서로 얽혀 작동합니다.

1. 두 가지 시간의 흐름 (Inner & Outer Dynamics)

  • 내부 동역학 (빠른 물결): 배의 노를 저거나 방향을 미세하게 조정하는 것 (파라미터 수정). 이는 매 순간 일어납니다.
  • 외부 동역학 (느린 파도): 배의 돛을 늘리거나 선체를 개조하는 것 (모델 구조 변경). 이는 드물게 일어납니다.
  • 기존 방식의 문제: 보통은 배를 먼저 고치고 (구조 변경), 그 다음에 노를 저었습니다 (파라미터 학습).
  • 이 방식의 장점: 배를 고치면서 동시에 노를 저을 수 있습니다. 상황에 따라 즉석에서 배의 모양을 바꾸며 나아갑니다.

2. 내재된 자원 (Endogenous Resource)

  • 기존 방식: "학습 시간은 100 시간, 연료는 100 리터"라고 외부에서 정해줍니다. 학습 알고리즘은 연료가 부족하다는 걸 모르고, 시간이 다 되면 강제로 멈춥니다.
  • 이 방식: 배에 **연료계 (에너지 변수)**가 달려 있습니다.
    • 좋은 예측을 하면 연료가 채워집니다 (보상).
    • 배를 개조하거나 새로운 돛을 달면 연료가 나갑니다 (비용).
    • 핵심: 연료가 바닥나면 배는 더 이상 구조를 바꿀 수 없습니다. 시스템 스스로 "이제 더 이상 고칠 필요가 없다"거나 "더 이상 고칠 여력이 없다"고 판단하여 멈춥니다.

3. 목적지 없는 성장 (Emergent Stabilization)

  • 기존 방식: "오류가 1% 이하가 되면 멈춰라"라고 외부에서 정해줍니다.
  • 이 방식: 시스템이 스스로 안정화됩니다.
    • 처음에는 배가 너무 작아서 (구조 부족) 연료를 많이 쓰며 배를 크게 만듭니다.
    • 어느 정도 배가 커지면, 연료 소모가 줄어들고 예측이 잘 됩니다.
    • 더 이상 배를 크게 할 필요가 없으면, 시스템은 자연스럽게 "아무것도 하지 않음 (No-op)"을 선택하며 멈춥니다. 마치 성장이 멈춘 나무처럼 스스로 멈추는 것입니다.

🛠️ 실제 실험: '디스틴션 엔진 (DE11)'

저자들은 이 이론을 **'디스틴션 엔진 (DE11)'**이라는 프로그램으로 구현했습니다.

  • 어떻게 작동하나요?

    • 이 프로그램은 Spenser-Brown 의 '형식 (Laws of Form)'이라는 논리 규칙을 사용합니다.
    • 데이터를 보며 "이건 A 고, 저건 B 야"라고 규칙을 만들어냅니다.
    • 규칙이 너무 복잡해지면 연료 (에너지) 가 부족해져서 더 이상 규칙을 추가하지 못합니다.
    • 결과적으로 사람이 이해할 수 있는 간단한 논리 규칙만 남게 됩니다.
  • 성적표는 어떨까요?

    • IRIS (꽃 분류): 93.3% (기존 로지스틱 회귀 91.1% 보다 좋음)
    • 와인 분류: 92.6%
    • 유방암 진단: 94.7%
    • 특이점: 정확도만 높은 게 아니라, "왜 그렇게 판단했는지"를 사람이 읽을 수 있는 규칙 (예: "꽃잎 길이가 짧고 너비가 넓으면 A 종") 으로 보여줍니다.

💡 왜 이것이 중요한가요? (일상적인 의미)

  1. 블랙박스 탈출: 기존 딥러닝은 "왜 이걸 찍었지?"라고 물어보면 아무도 모릅니다. 하지만 이 방식은 **"내가 이런 규칙을 만들었기 때문에 찍었다"**라고 명확히 설명합니다. (의사, 변호사, 금융 분야에 필수적)
  2. 자원 효율성: 스마트폰이나 작은 기기에서도 작동할 수 있습니다. "연료"가 부족하면 더 이상 복잡한 모델을 만들지 않기 때문입니다.
  3. 자연스러운 학습: 생물이 학습하는 방식 (뇌가 구조를 바꾸며 적응하는 방식) 에 더 가깝습니다. "정해진 공식을 외우는 것"이 아니라 "상황에 맞춰 스스로를 변형하는 것"입니다.

📝 한 줄 요약

"인공지능에게 정해진 답을 찾으라고 시키는 대신, 연료와 구조를 스스로 조절하며 바다를 항해하게 하라. 그랬을 때 AI 는 스스로 멈추는 법을 배우고, 그 과정에서 우리가 이해할 수 있는 지혜를 얻게 된다."

이 논문은 인공지능이 단순히 '계산'하는 도구를 넘어, 제약 조건 안에서 스스로 조직화되는 '살아있는 시스템'으로 진화할 수 있는 새로운 길을 제시합니다.