ReasonX: Declarative Reasoning on Explanations

이 논문은 기계 학습 모델의 설명 부족 문제를 해결하기 위해 선형 제약 조건의 대수적 연산자를 기반으로 한 선언적이고 상호작용적인 설명 도구인 ReasonX 를 제안하며, 이를 통해 다양한 추상화 수준에서 사실적 및 대비적 인스턴스에 대한 추론이 가능하도록 합니다.

Laura State, Salvatore Ruggieri, Franco Turini

게시일 2026-03-02
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🤖 AI 는 왜 "마법 상자"일까요?

우리가 은행 대출을 받거나, 병원에서 진단을 받을 때 AI 가 "거절" 이나 "진단" 을 내리면, 우리는 "왜?" 라는 질문을 하게 됩니다. 하지만 대부분의 최신 AI 는 그 답을 말해주지 않습니다. 마치 마법 상자처럼, 무엇을 넣으면 어떤 결과가 나오는지 알 수 있지만, 그 안에서 무슨 일이 일어나고 있는지는 알 수 없는 상태죠.

기존의 설명 도구들은 이 마법 상자를 "이런 조건이 맞았기 때문에 거절당했다"라고 단순히 나열해 주는 정도였습니다. 하지만 사용자는 "내가 나이를 5 살 더 먹으면 어떻게 될까?", "차량 대출이 아니라면 어떨까?"처럼 상상력을 발휘하며 질문하고 싶어 합니다.

💡 REASONX: AI 설명을 위한 "수학 놀이터"

REASONX 는 이 마법 상자를 단순히 열어보는 것이 아니라, 사용자와 AI 가 대화를 나누며 논리적으로 추론할 수 있게 해줍니다.

1. 비유: "레고 블록"과 "수학 공식"

REASONX 는 AI 의 결정 과정을 레고 블록처럼 쪼개고, 이를 **선형 제약 조건 (수학 공식)**이라는 언어로 변환합니다.

  • 기존 도구: "이 블록이 이 위에 있어서 탑이 무너졌습니다"라고 말합니다.
  • REASONX: "만약 이 블록을 파란색으로 바꾸고, 무게를 1kg 줄이면 탑이 다시 설까요?"라고 질문하면, 수학적으로 계산해서 "네, 가능합니다"라고 답해줍니다.

2. 핵심 기능: "만약에 (What-if)"를 자유롭게 묻다

이 도구의 가장 큰 특징은 사용자가 직접 조건을 설정할 수 있다는 점입니다.

  • 상황: 당신이 대출을 거절당했다고 가정해 봅시다.
  • 기존 도구: "당신의 소득이 부족해서 거절되었습니다." (이것만 알려줌)
  • REASONX:
    • "내가 소득을 10% 더 늘리면 통과될까요?" (사실적 설명)
    • "소득은 그대로 두고, 연봉이 아닌 자산을 증명하면 어떨까요?" (대조적 설명)
    • "내 출생지는 바꿀 수 없으니, 그 조건을 제외하고 다른 방법을 찾아줘." (제약 조건 추가)

이처럼 REASONX 는 "만약에 (What-if)" 시나리오를 수학적 논리로 계산하여, "소득을 10% 늘리면 통과되지만, 출생지는 변하지 않아도 됩니다"라고 구체적이고 논리적인 답을 줍니다.

3. "불완전한 정보"도 처리할 수 있다

우리는 종종 모든 정보를 다 가지고 있지 않습니다. 예를 들어, "내 나이가 30 대라면 어떨까?"라고 묻고 싶을 때, 정확한 나이가 30 세인지 39 세인지 모를 수도 있죠.

  • REASONX 는 **"30 대"**라는 불완전한 정보 (범위) 를 입력받아도, AI 가 그 범위 내에서 어떻게 결정하는지 모든 가능성을 계산해 줍니다. 마치 "30 대라면 통과될 확률이 80% 입니다"라고 알려주는 것과 같습니다.

4. "시간 여행"과 "모델 비교"

AI 모델은 시간이 지나면 업데이트되기도 합니다.

  • 비유: 어제 만든 AI 모델과 오늘 만든 AI 모델이 같은 사람을 두고 다른 결론을 내렸다면 어떨까요?
  • REASONX 는 두 모델을 동시에 비교할 수 있습니다. "어제와 오늘, 이 사람이 대출을 받을 수 있는 조건이 어떻게 변했는지"를 찾아내어, 모델이 어떻게 진화했는지 (혹은 변질되었는지) 를 알려줍니다.

🛠️ 어떻게 작동할까요? (간단한 구조)

이 도구는 두 층으로 이루어져 있습니다.

  1. 상위층 (Python): 사용자가 쉽게 질문을 입력하는 곳입니다. "내 나이를 5 살 더 먹어"라고 말하면 됩니다.
  2. 하위층 (CLP - 제약 논리 프로그래밍): 이 질문을 수학 문제로 바꾸어 정밀하게 계산하는 곳입니다. 복잡한 수학 공식을 풀어 "가능합니다" 또는 "불가능합니다"를 찾아냅니다.

🌟 왜 이것이 중요한가요?

기존의 AI 설명은 일방적인 강의였습니다. 하지만 REASONX 는 대화를 가능하게 합니다.

  • 투명성: AI 가 왜 그런 결정을 내렸는지, 그 논리를 사용자가 직접 검증할 수 있습니다.
  • 공정성: "인종"이나 "성별" 같은 민감한 정보가 결정에 영향을 미쳤는지, 사용자가 직접 조건을 바꿔가며 확인할 수 있습니다.
  • 실용성: "어떻게 하면 대출을 받을 수 있을까?"라는 실질적인 조언 (행동 방안) 을 제공합니다.

📝 요약

REASONX는 AI 가 내린 결정을 단순히 설명하는 것을 넘어, 사용자가 **"만약에..."**라고 질문하며 논리적으로 추론할 수 있게 해주는 대화형 AI 설명 도구입니다. 마치 AI 의 머릿속을 수학적 레고 블록처럼 조립하고 해체하며, "왜 그런가?"와 "어떻게 바꿀까?"에 대한 정답을 함께 찾아주는 지능형 비서와 같습니다.

이 도구는 AI 가 단순히 "검은 상자"가 아니라, 우리가 이해하고 신뢰하며 함께 대화할 수 있는 투명한 파트너가 되기를 바라는 연구자들의 노력의 결실입니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →