Making Implicit Premises Explicit in Logical Understanding of Enthymemes

이 논문은 대규모 언어 모델 (LLM) 을 활용해 생략된 전제를 추론하고 이를 논리식으로 변환한 뒤 신경-심볼릭 추론기를 통해 논리적 함의를 검증하는 엔티미 (생략논증) 처리 파이프라인을 제안하고, 두 가지 데이터셋을 통해 그 유효성을 입증했습니다.

Xuyao Feng, Anthony Hunter

게시일 2026-03-09
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ 핵심 문제: "말하지 않은 것"을 찾아내야 한다

우리가 일상에서 논쟁을 할 때, 모든 말을 다 하는 경우는 거의 없습니다.
예를 들어, 친구가 **"우산 챙겨!"**라고 말합니다.

  • 명시적 말 (전제): 비 예보가 나왔어.
  • 명시적 결론: 우산 챙겨.
  • 숨은 생각 (암시적 전제): 비가 오면 우산을 써야 한다.

이 '비가 오면 우산을 써야 한다'는 말은 말하지 않았지만, 우리는 자연스럽게 이해합니다. 논리학에서는 이를 **엔티메 (Enthymeme, 생략된 논증)**라고 부릅니다.

기존의 인공지능 (NLP) 은 이 '숨은 생각'을 찾아내서 텍스트로만 처리할 뿐, 그 안의 **논리적 구조 (왜 우산이 필요한지)**를 제대로 분석하지 못했습니다. 반면, 기존 논리 기반 AI 는 논리 구조는 잘 분석하지만, 어떤 숨은 생각을 찾아야 할지 모르는 문제가 있었습니다.

이 논문은 이 두 가지 문제를 모두 해결하는 새로운 3 단계 시스템을 제안합니다.


🛠️ 해결책: 3 단계로 이루어진 "논리 공장"

이 시스템은 세 명의 전문가가 팀을 이루어 작동합니다.

1 단계: 상상력이 풍부한 작가 (LLM - 대규모 언어 모델)

  • 역할: "왜 우산이 필요한지"에 대한 숨은 이유를 상상해냅니다.
  • 작동 방식: "비 예보가 나왔어"와 "우산 챙겨"라는 말을 주고받으며, AI 가 중간에 필요한 생각들을 만들어냅니다.
    • 예시: "비가 오면 옷이 젖는다" -> "옷이 젖으면 감기에 걸린다" -> "감기에 걸리면 안 된다" -> "그래서 우산이 필요하다."
    • 이 단계에서는 AI 가 1 단계, 2 단계, 3 단계까지 단계별로 숨은 이유를 더 자세히 만들어냅니다.

2 단계: 번역가 (AMR 파서 및 논리 변환기)

  • 역할: 작가의 상상 (자연어) 을 수학적인 논리 공식으로 번역합니다.
  • 작동 방식: "비가 온다", "우산이 필요하다" 같은 문장을 컴퓨터가 이해할 수 있는 기호 (A, B, C 같은 변수) 로 바꿉니다.
    • 마치 영어 문장을 "로봇용 코드"로 번역하는 것과 같습니다.

3 단계: 꼼꼼한 검사관 (신경 - 심볼릭 추론기)

  • 역할: 번역된 논리 공식들이 정말 논리적으로 맞는지 확인합니다.
  • 작동 방식:
    • 유사성 검사 (Neuro-matching): "비가 온다"와 "강우가 있다"는 같은 말인지, AI 가 문장 의미를 비교해서 판단합니다. (예: "호랑이가 걷는다"와 "호랑이가 움직인다"는 같은 뜻으로 간주)
    • 모순 검사 (Neuro-contradict): "비가 온다"와 "비가 오지 않는다"가 동시에 성립할 수 있는지 확인합니다.
    • 최종 판정: 숨은 이유를 추가했을 때, 결론이 논리적으로 필연적으로 따라오는지 (Entailment) 아니면 **아무 상관없거나 (Neutral) 반대되는지 (Contradiction)**를 판단합니다.

🧩 비유: 퍼즐 맞추기

이 시스템을 퍼즐 맞추기로 생각해보세요.

  1. 퍼즐 조각 (명시적 전제와 결론): 우리가 가진 퍼즐 조각은 몇 개 없습니다. (예: "비 예보"와 "우산")
  2. 작가 (1 단계): 이 조각들을 이어주려면 어떤 **중간 조각 (숨은 전제)**이 필요한지 상상해서 만들어냅니다. (예: "비 = 젖음 = 안 좋음")
  3. 번역가 (2 단계): 이 조각들을 숫자와 기호로 바꿉니다.
  4. 검사관 (3 단계): 만들어진 조각들이 완벽하게 맞는지 확인합니다.
    • 만약 중간 조각이 "비 = 젖음"이 아니라 "비 = 행복"이라면? (이건 논리적으로 안 맞음) -> 거부!
    • 만약 "비 = 젖음"과 "우산 = 젖음 방지"가 맞다면? -> 성공!

이 논문은 특히 중간 조각을 여러 단계 (1 단계, 2 단계, 3 단계) 로 나누어 더 정교하게 찾아내는 것이 핵심입니다. 단순히 한 번에 답을 찾는 게 아니라, 논리의 사다리를 하나하나 올라가며 결론에 도달하는지 확인하는 것입니다.


📊 결과: 얼마나 잘했을까?

이 팀은 두 가지 큰 데이터 세트 (ARCT, ANLI) 로 실험을 해보았습니다.

  • 성공 요인: AI 가 **여러 단계 (Multi-step)**로 숨은 이유를 찾아낼수록, 논리적 결론을 맞히는 정확도가 크게 향상되었습니다.
  • 의미: 단순히 "맞다/틀리다"를 판단하는 것을 넘어, 왜 그런 결론이 나왔는지 그 논리적 경로를 투명하게 보여줄 수 있게 되었습니다.

💡 결론: 왜 이 연구가 중요한가?

이 연구는 인공지능이 단순히 말만 이해하는 수준을 넘어, 인간의 숨은 논리를 찾아내고 이를 수학적으로 증명할 수 있는 단계로 나아갔음을 보여줍니다.

마치 추리 소설에서 detective 가 "범인은 A 가 틀림없다"라고 말할 때, "왜 A 가 범인인지"에 대한 숨겨진 증거들을 하나하나 찾아내어 논리적으로 증명하는 과정과 같습니다. 이제 AI 는 그 '숨겨진 증거'를 스스로 찾아내고, 그것이 논리적으로 타당한지 검증할 수 있게 된 것입니다.