Digging Deeper: Learning Multi-Level Concept Hierarchies

이 논문은 최상위 수준의 감독 신호만으로 다단계 개념 계층 구조를 발견하는 'MLCS'와 이를 표현하여 다양한 추상화 수준에서의 개입을 가능하게 하는 'Deep-HiCEMs' 아키텍처를 제안함으로써, 기존 평면적이고 얕은 계층에 국한되었던 개념 기반 모델의 한계를 극복하고 해석 가능성과 작업 성능을 동시에 향상시킵니다.

Oscar Hill, Mateo Espinosa Zarlenga, Mateja Jamnik

게시일 2026-03-12
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🍎 핵심 비유: "과일장터의 지도"

상상해 보세요. AI 가 과일을 분류하는 일을 한다고 칩시다.
기존의 AI 는 **"사과"**와 **"바나나"**라는 큰 카테고리만 알고 있었습니다. 하지만 AI 가 "왜 이것이 사과라고 생각했지?"라고 물으면, 단순히 "사과니까요"라고 대답할 뿐, 그 안의 세부적인 이유 (예: "빨갛고, 둥글고, 줄기가 있다") 를 설명하지 못했습니다.

최근 연구들은 AI 가 **"사과"**라는 큰 개념을 **"빨간 사과"**나 **"초록 사과"**로 나누어 설명하게 만들었습니다. 하지만 여기서 멈췄습니다. **"빨간 사과"**를 다시 **"사과"**와 **"빨강"**으로 나누거나, **"사과"**를 **"과일"**이라는 더 큰 범주로 묶는 깊은 구조까지는 다루지 못했습니다.

이 논문은 바로 이 **깊은 구조 (Multi-Level)**를 자동으로 찾아내고, 우리가 그 구조를 마음대로 수정할 수 있게 해주는 기술을 제안합니다.


🚀 이 논문이 해결한 문제 (기존의 한계)

  1. 평평한 지도: 기존 AI 는 개념들이 모두 평평하게 나열되어 있다고 생각했습니다. (사과, 바나나, 포도...)
  2. 단순한 분할: "사과"를 "빨간 사과"로 쪼갤 수는 있었지만, 그 "빨간 사과"를 다시 "작은 빨간 사과"나 "상한 빨간 사과"로 더 깊이 파고들 수는 없었습니다.
  3. 많은 설명이 필요함: AI 가 이런 세부 사항을 배우게 하려면 사람이 일일이 "이건 빨간 사과야, 이건 작은 사과야"라고 수천 번 가르쳐야 했습니다. (비용과 시간이 너무 많이 듦)

💡 이 논문이 제안한 해결책 (두 가지 핵심 기술)

저자들은 **"MLCS"**와 **"Deep-HiCEM"**이라는 두 가지 도구를 개발했습니다.

1. MLCS (다단계 개념 분할): "스스로 계층 구조를 발견하는 탐험가"

  • 비유: AI 에게 "사과"라는 큰 상자만 주고, "이 안에는 어떤 것들이 숨어 있을까?"라고 묻는 것입니다.
  • 작동 원리: AI 는 스스로 "아, 이 상자 안에는 '빨간 사과'가 있고, 그 '빨간 사과' 안에는 '작은 빨간 사과'와 '큰 빨간 사과'가 있구나!"라고 스스로 발견합니다.
  • 장점: 사람이 세부 사항을 가르쳐 주지 않아도, AI 가 스스로 1 단계 (과일) → 2 단계 (사과) → 3 단계 (빨간 사과) 같은 깊은 계층 구조를 찾아냅니다. 마치 탐험가가 지도에 없는 깊은 동굴을 스스로 찾아내는 것과 같습니다.

2. Deep-HiCEM (깊은 위계적 모델): "모든 층을 연결하는 다층 빌딩"

  • 비유: 찾은 계층 구조를 바탕으로 지은 초고층 빌딩입니다.
    • 지하층: 아주 작은 세부 사항 (예: "줄기가 있는 빨간 사과")
    • 중간 층: 중간 개념 (예: "빨간 사과")
    • 옥상층: 큰 개념 (예: "과일")
  • 작동 원리: 이 빌딩은 각 층이 서로 연결되어 있습니다. 만약 우리가 "지하층의 작은 빨간 사과"를 수정하면, 그 영향이 자연스럽게 "중간 층"과 "옥상층"으로 전달됩니다.
  • 장점: AI 가 실수를 했을 때, 사람이 어떤 층에서든 개입해서 고칠 수 있습니다. "아, 이건 빨간 사과가 아니라 초록 사과야"라고 말하면, AI 는 그 정보를 받아서 최종 판단을 다시 내립니다.

🧪 실험 결과: 실제로 효과가 있을까요?

저자는 여러 가지 데이터 (숫자, 모양, 새, 동물, 요리 재료 등) 로 실험을 했습니다.

  1. 사람이 이해할 수 있는 발견: AI 가 스스로 찾아낸 개념들 (예: "빨간 사과") 은 사람이 보기에 매우 논리적이고 이해하기 쉬웠습니다.
  2. 성능 유지: 이렇게 복잡한 구조를 만들었음에도 불구하고, AI 의 원래 작업 능력 (정확도) 은 떨어지지 않았습니다. 오히려 기존 방법과 비슷하거나 더 좋았습니다.
  3. 개입의 효과: 사람이 AI 의 판단에 개입했을 때 (예: "이건 사과가 아니야"라고 수정), AI 가 그 말을 잘 듣고 더 정확한 답을 내놓는 경우가 많았습니다.

🌟 요약: 왜 이것이 중요한가요?

이 논문은 AI 를 **"검은 상자"**에서 **"투명한 유리 상자"**로 바꾸는 한 걸음 더 나아가게 합니다.

  • 기존: AI 는 "사과"라고만 알려줌. (왜? 모름)
  • 새로운 방법: AI 는 "사과" → "빨간 사과" → "작은 빨간 사과"로 깊게 설명해 줌.
  • 우리 역할: 우리는 이 설명을 보고, "아, 이건 작지 않아, 그냥 사과야"라고 수정할 수 있음.

결국, AI 가 더 투명해지고, 우리가 AI 를 더 잘 통제하고 신뢰할 수 있게 만드는 기술입니다. 마치 AI 의 두뇌 속에 숨겨진 복잡한 가족 관계 (할아버지, 아버지, 아들) 를 모두 찾아내어, 우리가 그 가족의 이야기를 더 잘 이해하고 도와줄 수 있게 해주는 것과 같습니다.