Compositional Neuro-Symbolic Reasoning

이 논문은 지각, 신경망 기반 변환 제안, 심볼릭 일관성 필터링을 분리한 구성적 신경 - 심볼릭 추론 프레임워크를 제안하여, ARC-AGI-2 에서 LLM 의 성능을 16% 에서 24.4% 로 향상시키고 메타 분류기와 결합 시 30.8% 까지 끌어올리는 결과를 도출했습니다.

Anugyan Das, Omkar Ghugarkar, Vishvesh Bhat, Asad Aali

게시일 2026-04-06
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🎨 퍼즐을 푸는 두 가지 방식: "감" vs "논리"

인공지능이 퍼즐을 풀 때 주로 두 가지 방식이 있습니다.

  1. 순수 신경망 (Deep Learning) 방식: 마치 천재적인 예술가처럼, 수많은 그림을 보고 "아, 이거 저거랑 비슷하네, 감으로 찍어보자!"라고 합니다. 하지만 새로운 패턴이 나오면 엉뚱한 답을 내놓거나, 아주 작은 변화에도 넘어집니다. (논리보다는 직감에 의존)
  2. 순수 기호 시스템 (Symbolic) 방식: 마치 엄격한 수학자처럼, 모든 규칙을 코드로 짜서 하나하나 따집니다. 논리는 완벽하지만, 그림을 보고 "이게 무슨 모양이지?"라고 파악하는 데서 막힙니다. (직관력이 부족함)

이 논문은 **"이 두 친구를 팀으로 묶자!"**고 제안합니다.

🤖 제안된 시스템: "지혜로운 건축가 팀"

저자들은 새로운 신호 - 기호 (Neuro-Symbolic) 시스템을 만들었습니다. 이 시스템은 퍼즐을 풀 때 세 단계로 나누어 일합니다.

1 단계: 눈 (Perception) - "무엇이 있는가?"

  • 비유: 퍼즐 보드 위에 있는 레고 블록들을 하나하나 분리해서 분류하는 작업입니다.
  • 작업: 인공지능이 그림을 보고 "아, 여기 빨간색 사각형이 있고, 저기 파란색 원이 있구나"라고 객체 (Object) 단위로 파악합니다. 단순히 픽셀의 나열이 아니라, '사물'로 인식하는 것입니다.

2 단계: 상상 (Hypothesis) - "무엇이 변했을까?"

  • 비유: **레고 조립 설명서 (DSL)**를 꺼내보는 것입니다.
  • 작업: 이 시스템은 미리 정해진 22 가지의 기본 조립 규칙 (예: "사각형을 오른쪽으로 밀기", "구멍을 채우기", "다리를 놓기" 등) 을 가지고 있습니다.
  • 신호 (Neural) 역할: 인공지능이 "아, 이 경우엔 '다리를 놓기' 규칙이 적용된 것 같아!"라고 추측을 합니다. 여기서 AI 는 무작위로 모든 규칙을 다 시도하는 게 아니라, 감을 통해 유력한 후보만 골라냅니다.

3 단계: 검증 (Consistency) - "이 규칙이 모든 경우에 맞을까?"

  • 비유: 검수관이 들어옵니다.
  • 작업: "아까 추측한 '다리를 놓기' 규칙이 1 번 문제, 2 번 문제, 3 번 문제 모두에서 똑같이 적용될까?"를 확인합니다.
  • 만약 어떤 규칙이 1 번 문제엔 맞는데 2 번 문제엔 틀리면, 그 규칙은 탈락시킵니다. 모든 예시에서 일관되게 맞는 규칙만 최종 정답으로 남깁니다.

🚀 왜 이 방식이 더 잘할까요?

기존의 거대 언어 모델 (LLM) 은 "감"에 의존해서 답을 내기 때문에, 아주 복잡한 조합이 나오면 헷갈려 합니다. 반면 이 시스템은:

  1. **눈 (객체 인식)**으로 상황을 정확히 파악하고,
  2. **상상 (추측)**으로 유력한 규칙을 좁히고,
  3. **검증 (일관성)**으로 실수를 걸러냅니다.

이 덕분에 특정 과목만 공부한 게 아니라, 문제 해결의 '원리'를 배운 것처럼 새로운 상황에도 잘 적응합니다.

📊 성과: 얼마나 잘했나요?

  • 기존 AI: 퍼즐의 약 **16%**만 맞췄습니다.
  • 이 팀의 AI: **24.4%**까지 올랐습니다.
  • 최종 팀 (여러 AI 합동): **30.8%**까지 달성했습니다.

이는 인간이 100% 를 맞춘다는 기준에 비하면 아직 멀었지만, 기존 AI 들보다 훨씬 더 논리적이고 체계적으로 문제를 해결했다는 것을 의미합니다.

💡 핵심 교훈

이 논문의 결론은 **"크기만 키운다고 지능이 생기는 건 아니다"**입니다.
단순히 더 큰 뇌 (모델) 를 만드는 것보다, **시각 (인식), 추론 (규칙 제안), 검증 (일관성 확인)**을 명확히 분리하고 협력하게 하는 구조적인 설계가 더 중요합니다.

마치 건축가가 단순히 벽돌을 많이 쌓는 게 아니라, 설계도 (규칙) 를 보고 기초 (객체) 를 다진 뒤, 안전 점검 (검증) 을 거쳐 건물을 짓는 것과 같습니다. 이 방식이 앞으로 인공지능이 인간처럼 유연하게 생각할 수 있는 열쇠가 될 것입니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →