An Approximation Theory Perspective on Machine Learning

이 논문은 머신러닝과 함수 근사 이론 간의 간극을 분석하고, 매니폴드 특성을 사전에 학습하지 않고도 알려진 매니폴드에서의 함수 근사를 가능하게 하는 새로운 연구 결과를 제시합니다.

Hrushikesh N. Mhaskar, Efstratios Tsoukanis, Ameya D. Jagtap

게시일 2026-03-05
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"기계 학습 (AI) 이 왜 작동하는지, 그리고 왜 가끔 실패하는지"**를 수학적인 '근사 이론 (Approximation Theory)'이라는 렌즈를 통해 설명하는 흥미로운 이야기입니다.

쉽게 말해, **"AI 가 데이터를 보고 미래를 예측하는 능력은 사실 '복사'와 '추측'의 수학적인 문제"**라는 것을 다루고 있습니다.

이 복잡한 논문을 일상적인 비유로 풀어보겠습니다.


1. 핵심 문제: "완벽한 지도가 없는 여행"

기계 학습의 목표는 알려지지 않은 데이터 (예: 고양이 사진) 를 보고 정답 (이게 고양이다) 을 맞추는 것입니다.

  • 기존 방식: 우리는 수많은 고양이 사진 (데이터) 을 보여주고 AI 에게 "이게 고양이야"라고 가르칩니다. AI 는 이 패턴을 외워서 새로운 사진을 보고 맞춥니다.
  • 문제점: 하지만 우리가 가진 데이터는 세상의 모든 고양이 사진을 다 담은 것이 아닙니다. 마치 지도 없이 여행하는 것과 같습니다. "이 길이 고양이들이 다니는 길일까?"라고 AI 는 추측할 뿐, 정확한 지도 (수학적 이론) 를 가지고 있지 않습니다.

이 논문은 **"우리가 가진 지도 (수학) 가 너무 오래되어서, 현대의 AI 여행에는 맞지 않는다"**고 지적합니다.

2. 주요 비유: "거대한 방 vs. 숨겨진 통로" (차원의 저주)

전통적인 수학은 데이터를 3 차원 공간이나 10 차원 공간 같은 **'거대한 방'**에 있다고 가정합니다. 하지만 실제로는 데이터가 그 방 전체를 채우는 게 아니라, 방 안에 숨겨진 얇은 '통로 (매니폴드)' 위에만 존재합니다.

  • 비유: 100 층짜리 거대한 빌딩 (고차원 공간) 이 있다고 칩시다. 전통적인 수학은 빌딩 전체를 다 채우기 위해 벽돌을 쌓으려 합니다. 하지만 실제로 사람들이 사는 곳은 1 층과 2 층 사이의 좁은 복도 (저차원 매니폴드) 뿐입니다.
  • 결과: 전통적인 방법은 벽돌을 너무 많이 써서 비효율적입니다. 이 논문은 **"벽돌을 쌓는 대신, 그 좁은 복도 (데이터가 있는 실제 공간) 를 따라가는 새로운 길"**을 제안합니다.

3. 새로운 접근법 1: "지도 없이 길 찾기" (매니폴드 학습 없이 학습)

기존의 고급 수학은 "먼저 그 좁은 통로 (매니폴드) 의 모양을 완벽하게 그려낸 뒤, 그 위에 그림을 그려야 한다"고 했습니다. 하지만 통로 모양을 그리는 것 자체가 너무 어렵고 시간이 걸립니다.

  • 이 논문의 아이디어: 통로의 모양을 먼저 그릴 필요 없습니다! **데이터가 흩어져 있는 그 자리에서 바로 그림을 그릴 수 있는 '마법의 붓 (국소 커널)'**을 개발했습니다.
  • 비유: 숲속에서 길을 찾을 때, 전체 숲의 지도를 먼저 그려낼 필요 없이, 발걸음 닿는 곳마다 나뭇잎을 보고 길을 찾아나가는 것과 같습니다. 이 방법은 지도 (매니폴드) 를 학습하는 과정 없이도 정확한 예측을 가능하게 합니다.

4. 새로운 접근법 2: "소음 분리"로서의 분류 (Classification as Signal Separation)

기존의 분류 문제는 "고양이와 개를 어떻게 구분할까?"였습니다. 보통은 경계선을 그어 "이쪽은 고양이, 저쪽은 개"라고 나눕니다. 하지만 경계가 모호하면 (예: 고양이와 개의 중간 형태) AI 는 혼란을 겪습니다.

  • 이 논문의 아이디어: 분류를 '소음 분리 (Signal Separation)' 문제로 바꿉니다.
  • 비유: 혼잡한 파티에서 여러 사람의 목소리가 섞여 있다고 칩시다. 기존 방식은 "누가 누구의 목소리인지 경계를 그어라"는 것입니다. 하지만 이 논법은 **"각 목소리가 어디서 시작되는지 (지원 영역) 를 찾아내서, 그 영역만 분리해 내라"**는 것입니다.
    • "아, 이쪽 소리는 고양이 목소리가 가장 크게 들리는 영역이야. 저쪽은 개 목소리가 가장 크게 들리는 영역이야."
    • 이렇게 소리의 영역을 분리하면, 경계선이 모호한 부분에서도 훨씬 정확하게 분류할 수 있습니다.

5. 딥러닝 (Deep Learning) 이 왜 강력한가?

왜 층이 많은 (Deep) 신경망이 얇은 (Shallow) 신경망보다 좋은가요?

  • 비유: 얇은 신경망은 한 번에 모든 것을 외우려고 하는 학생입니다. 복잡한 수학 문제를 한 번에 풀려고 하면 머리가 터집니다.
  • 딥 신경망여러 단계를 거치는 전문가 팀입니다.
    • 1 단계 팀: "이건 귀 모양이야."
    • 2 단계 팀: "그 귀 모양은 고양이 귀야."
    • 3 단계 팀: "고양이 귀가 있으면 고양이지."
    • 이렇게 작은 조각 (구성 요소) 을 단계적으로 조합하면, 훨씬 적은 노력으로 복잡한 문제를 해결할 수 있습니다. 이 논문은 딥러닝이 바로 이런 **'조립식 구조'**를 잘 활용하기 때문에 강력하다고 설명합니다.

6. 결론: AI 의 미래를 위한 제안

이 논문은 기계 학습이 단순히 "데이터를 많이 먹여서 정답을 맞히는 것"을 넘어, 수학적인 원리 (근사 이론) 를 제대로 이해해야 한다고 말합니다.

  • 기존의 한계: "최적화 (Optimization)"라는 이름으로 AI 를 훈련시키는 것은 마치 눈가리개를 하고 미로를 찾는 것과 같습니다.
  • 제안: 우리는 데이터가 있는 실제 공간 (매니폴드) 을 이해하고, 그 공간에 맞는 '국소적인 (Local)' 도구를 사용해야 합니다.
    • Transformer(트랜스포머) 같은 최신 AI 도구를 보면, 사실은 우리가 수백 년 전부터 연구해 온 '국소 커널 (Local Kernel)' 이론과 매우 닮아있다는 것을 발견했습니다.
    • 즉, 최신 AI 는 오래된 수학의 새로운 얼굴일 뿐입니다.

요약

이 논문은 **"AI 를 더 똑똑하게 만들려면, 단순히 데이터를 더 많이 주는 게 아니라, 데이터가 숨어 있는 '진짜 공간'의 구조를 이해하고, 그 공간에 맞는 수학적 도구를 개발해야 한다"**고 외치고 있습니다.

  • 지도 없이 길 찾기: 매니폴드 (데이터의 실제 모양) 를 먼저 그릴 필요 없음.
  • 소음 분리: 분류를 '경계 나누기'가 아닌 '영역 분리'로 접근.
  • 조립식 학습: 딥러닝은 복잡한 문제를 작은 조각으로 나누어 해결하는 효율적인 방법.

이러한 통찰은 AI 가 더 적은 데이터로도 더 정확하게, 그리고 더 안전하게 작동할 수 있는 길을 열어줍니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →