Abductive Reasoning with Syllogistic Forms in Large Language Models

이 논문은 연역적 추론을 넘어 가설적 추론 (Abduction) 의 관점에서 대형 언어 모델의 정확성과 편향을 평가하기 위해 삼단논형 데이터를 변환하여 분석함으로써 인간과 기계의 추론 간 차이를 이해하고 개선 방안을 모색합니다.

Hirohiko Abe, Risako Ando, Takanobu Morishita Kentaro Ozeki, Koji Mineshima, Mitsuhiro Okada

게시일 2026-03-09
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ 1. 연구의 핵심: "추리"와 "증명"의 차이

우리가 세상을 이해하는 두 가지 방식이 있습니다.

  • 증명 (Deduction): "모든 개는 짖는다. 이 동물은 개다. 따라서 이 동물은 짖는다."
    • 비유: 수학 문제 풀이처럼 정해진 규칙대로 답을 찾는 것입니다. 틀릴 여지가 없습니다.
  • 추리 (Abduction): "이 동물은 짖는다. (왜?) 아마 이 동물은 개일 거야."
    • 비유: 형사가 단서 (짖는 소리) 를 보고 범인 (개) 을 추측하는 것입니다. 100% 확실하지는 않지만, "가장 그럴듯한 이유"를 찾아내는 과정입니다.

이 논문은 인공지능이 **수학 문제 (증명)**를 푸는 것과 **형사 추리 (추리)**를 하는 것 중 어느 쪽을 더 잘하는지, 그리고 우리가 흔히 하는 **오해 (편견)**를 인공지능도 하는지 확인했습니다.


🧠 2. 실험 내용: 인공지능은 어떤 사고를 할까?

연구진은 인공지능에게 두 가지 유형의 문제를 냈습니다.

  1. 증명 문제: "모든 A 는 B 이다. 이 C 는 A 이다. 결론은?" (정답이 명확함)
  2. 추리 문제: "모든 A 는 B 이다. 이 C 는 B 이다. (왜?) 아마 C 는 A 일 것이다." (가장 그럴듯한 이유를 고르거나, "아무것도 아니다"라고 답해야 함)

또한, 문제의 내용이 상식과 맞는지 (일치), 상식과 어긋나는지 (불일치), 중립적인지에 따라 인공지능의 반응을 살폈습니다.

  • 예시 (불일치): "모든 설탕집에서 만든 케이크는 매운맛이다. 이 케이크는 설탕집에서 만들었다. 따라서 이 케이크는 매운맛이다." (상식적으로 틀린 말이지만 논리적으로는 맞음)

📉 3. 놀라운 결과: 인공지능은 '추리'를 못 한다?

일반적으로 인공지능은 인간의 일상 대화 (추리) 를 많이 배웠을 테니, 추리 능력이 증명 능력보다 나을 거라고 생각했습니다. 하지만 결과는 정반대였습니다.

  • 증명 (수학 문제) 은 잘함: 인공지능은 규칙이 명확한 증명 문제를 꽤 잘 풀었습니다.
  • 추리 (형사 추리) 는 못함: "가장 그럴듯한 이유"를 찾거나, "아무것도 아니다 (Neither)"라고 답해야 하는 문제에서는 매우 엉뚱한 답을 내놓았습니다.

🎯 핵심 발견:
인공지능은 **"아무것도 아니다 (Neither)"**라는 답을 고르는 것을 극도로 싫어했습니다.

  • 비유: 인공지능은 마치 **"무조건 무언가를 추측해서 답을 내야 한다"**는 강박에 시달리는 형사 같습니다. "범인이 없다"는 사실을 인정하기보다, "아마 범인이 저기 있을 거야"라고 억지로 추측해버리는 것입니다.

🤖 4. 인공지능의 '인간 같은' 버릇: 편견 (Bias)

인공지능은 논리적으로 틀린 문제라도 상식과 일치하면 "맞다"고 하고, 상식과 어긋나면 "틀리다"고 했습니다.

  • 상황: 논리적으로 맞는 말이지만, "모든 새는 날 수 없다"는 식의 상식에 반하는 내용이 나오면 인공지능은 논리를 무시하고 "틀렸어!"라고 답했습니다.
  • 의미: 인공지능도 인간처럼 **논리보다는 '내 느낌 (편견)'**을 더 믿는다는 뜻입니다. 이는 인공지능이 인간의 사고방식을 너무 잘 닮았다는 반증이기도 합니다.

💡 5. 결론 및 시사점: 인공지능은 아직 '형사'가 아니다

이 연구는 다음과 같은 중요한 점을 알려줍니다.

  1. 인공지능은 '증명'은 잘하지만 '추리'는 서툴다: 논리적 규칙을 따르는 것은 잘하지만, 불완전한 정보에서 새로운 가설을 만들어내는 창의적인 추리는 아직 인간보다 훨씬 부족합니다.
  2. 인간과 똑같은 실수를 한다: 인공지능도 우리가 흔히 하는 '상식 편향'을 그대로 답습합니다.
  3. 향후 과제: 인공지능이 진짜로 인간처럼 생각하려면, 단순히 정답을 맞추는 것을 넘어 **"왜?"라는 질문에 대한 설명 (가설 생성)**을 잘할 수 있어야 합니다.

한 줄 요약:

"인공지능은 수학 시험 (증명) 은 잘 보지만, 형사 추리 (추리) 는 아직 초보 수준이며, 우리 인간처럼 '상식'에 너무 의존해서 논리를 망각하는 버릇도 가지고 있다."

이 연구는 인공지능이 단순히 지식을 암기하는 것을 넘어, 인간처럼 유연하게 추론하고 설명할 수 있는 단계로 가기 위해 무엇을 개선해야 하는지 보여주는 중요한 이정표입니다.