Why Code, Why Now: Learnability, Computability, and the Real Limits of Machine Learning

이 논문은 코드가 강화학습보다 학습 가능한 정보 구조를 가지고 있어 예측 가능한 확장이 가능한 반면, 대부분의 강화학습 문제는 피드백의 질적 차이로 인해 단순한 모델 크기 확장에 한계가 있음을 지적하며, 표현 가능성·계산 가능성·학습 가능성의 세 가지 속성 간 관계를 규명하는 5 단계 학습 가능성 계층 구조를 제안합니다.

Zhimin Zhao

게시일 Tue, 10 Ma
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

1. 핵심 비유: "코딩 vs. 게임"

이 논문의 가장 중요한 통찰은 **코드 (프로그래밍 언어)**와 **강화학습 (RL, 게임 등)**의 차이에서 나옵니다.

  • 코드 (성공하는 이유):

    • 비유: 코딩은 레고 블록을 쌓는 것과 같습니다.
    • 이유: 레고 블록을 잘못 끼우면 바로 '딸깍' 소리가 나고 조립이 안 됩니다. 문법 오류 (세미콜론 빠짐) 나 타입 오류는 즉시, 명확하게, 어디에서 잘못되었는지 알려줍니다.
    • 결과: AI 는 실수할 때마다 "여기서 틀렸어!"라는 구체적인 피드백을 받습니다. 그래서 AI 는 코드를 아주 잘 배웁니다.
  • 강화학습 (실패하는 이유):

    • 비유: 강화학습은 안개 낀 미로를 찾는 것과 같습니다.
    • 이유: AI 가 미로를 헤매다가 출구에 도달하면 "성공!"이라는 점수만 받습니다. 하지만 어떤 길로 갔을 때 성공했는지, 어디서 실수했는지는 알려주지 않습니다.
    • 결과: AI 는 "어디서부터 잘못했지?"라고 추측만 해야 합니다. 점수가 낮으면 "다시 해봐"라고만 할 뿐, 구체적인 교훈을 주지 않습니다. 그래서 AI 는 아무리 많이 시도해도 똑같은 실수를 반복하거나, 엉뚱한 길로만 빠져나갑니다.

2. 학습의 5 단계 사다리 (Hierarchy of Learnability)

저자는 모든 문제를 학습하기 쉬운 정도에 따라 5 단계로 나누었습니다.

  • 0 단계 (아무 정보 없음):
    • 비유: 완전한 암흑 속의 추측.
    • 설명: 정답과 오답의 차이가 전혀 보이지 않습니다. (예: "이 프로그램이 멈출까?") 아무리 많은 데이터를 줘도 소용없습니다.
  • 1 단계 (적대적/반응형 정보):
    • 비유: 달리는 표적을 쏘는 것.
    • 설명: 표적 (정답) 이 AI 가 학습하는 속도에 맞춰 움직입니다. AI 가 학습하면 게임 규칙이 바뀌거나, 경쟁자가 AI 의 전략을 알아챕니다. (예: SNS 추천 알고리즘을 속이는 스팸 계정들)
  • 2 단계 (노이즈가 있는 정보):
    • 비유: 거친 바다에서 나침반 보기.
    • 설명: 대략적인 방향은 알 수 있지만, 파도 (노이즈) 때문에 가끔은 엉뚱한 방향을 가리킵니다. 하지만 데이터를 많이 모으면 결국 정답에 가까워집니다. (예: 이미지 분류, 스팸 메일 필터링) - 대부분의 기존 AI 가 여기 있습니다.
  • 3 단계 (간접적 정보):
    • 비유: 옳은 길만 보여주는 나침반.
    • 설명: "틀렸다"는 말은 들을 수 있지만, "정답은 이것이다"는 말은 들을 수 없습니다. 실수를 하면 걸러지지만, 정답을 확신할 수는 없습니다. (예: 자연어 생성, 코드 작성)
  • 4 단계 (직접적/확실한 정보):
    • 비유: 정답이 적힌 해답지.
    • 설명: 한 줄 한 줄이 즉시 검증됩니다. 컴파일러가 "이건 문법 오류야"라고 바로 말해줍니다. 코드 생성이 이 단계의 혜택을 가장 많이 받습니다.

3. 왜 "모델 크기"만 키우는 건 위험한가?

많은 사람이 "AI 가 못 하면 더 큰 컴퓨터를 사면 되지"라고 생각합니다. 하지만 이 논문은 **"문제 자체가 배우기 힘든 구조라면, 컴퓨터를 아무리 크게 해도 소용없다"**고 말합니다.

  • 비유: 수학 문제를 푸는 것 vs. 그림 그리기.
    • 그림 그리기 (학습 가능한 구조): 실수하면 "색이 어색해"라고 바로 고칠 수 있습니다. 모델을 키우면 더 예쁜 그림을 그립니다.
    • 수학 증명 (학습하기 어려운 구조): 논리적으로 하나라도 틀리면 전체가 무너집니다. 하지만 AI 는 통계적으로 "아마도 맞을 것 같다"고 추측할 뿐, 논리적으로 증명할 수는 없습니다. 모델을 키운다고 해서 갑자기 논리 증명이 가능해지지 않습니다.

4. 결론: 앞으로의 방향은?

이 논문의 결론은 매우 명확합니다.

  1. 문제 자체를 분석하라: "모델이 부족해서인가?"가 아니라 "이 문제가 학습 가능한 구조인가?"를 먼저 물어봐야 합니다.
  2. 피드백을 설계하라: AI 가 배우기 쉽게 하려면, "틀렸다"는 말만 하는 게 아니라 "어디가, 왜 틀렸는지" 구체적으로 알려주는 시스템을 만들어야 합니다.
  3. 작은 목표부터 시작하라: 거창한 목표를 한 번에 달성하려 하지 말고, 검증 가능한 작은 단계로 쪼개서 학습시키는 것이 성공의 비결입니다.

한 줄 요약:

"AI 가 못하는 이유는 머리가 나빠서가 아니라, 배울 수 있는 '단서'가 문제 속에 없기 때문입니다. 우리는 AI 를 키우는 것보다, AI 가 배울 수 있도록 문제를 다시 설계하는 데 집중해야 합니다."