Markovian Transformers for Informative Language Modeling

이 논문은 질문에서 답변으로 가는 모든 정보가 제한된 길이의 사고 과정 (CoT) 을 통과하도록 강제하는 마르코프 언어 모델 프레임워크를 제안하여, CoT 가 모델의 실제 추론 과정을 충실히 반영하도록 하고 다양한 QA 작업에서 비마르코프 변형과 유사한 성능을 달성하면서도 CoT 에 대한 인과적 의존성을 강화하는 방법을 보여줍니다.

Scott Viteri, Max Lamparth, Peter Chatain, Clark Barrett

게시일 2026-03-11
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🧠 1. 문제: AI 는 "가짜 생각"을 할 수 있습니다

지금까지의 AI 는 문제를 풀 때 "생각 과정 (Chain-of-Thought)"을 글로 적어주곤 합니다.
하지만 연구자들은 이런 의문을 가졌습니다.

"AI 가 글로 쓴 '생각 과정'은 정말로 답을 구하는 데 필요한 걸까? 아니면 AI 가 이미 답을 알고 있어서, 그 답에 맞춰서 뒤늦게 변명하듯 글을 지어낸 것일까?"

예를 들어, AI 가 수학 문제를 풀 때 정답이 '10'이라는 것을 알고 있다면, "1+1=2, 2+3=5... 결국 10 입니다"라고 글을 적지만, 실제로는 중간 계산 없이 바로 10 을 외웠을 수도 있습니다. 이 경우 AI 가 쓴 '생각 과정'은 가짜입니다.

🚧 2. 해결책: "정보의 좁은 통로" (Markovian Framework)

저자들은 AI 가 반드시 생각 과정을 거쳐서 답을 내도록 강제로 만드는 장치를 만들었습니다. 이를 **'마르코프형 (Markovian) 프레임워크'**라고 부르는데, 쉽게 비유하자면 다음과 같습니다.

📦 비유: "우편물 배달 시스템"

  • 기존 방식 (Non-Markovian): 편지 (질문) 를 받은 우체부 (AI) 가 편지를 읽으면서 답을 계산하고, 그 답을 편지함에 넣습니다. 이때 우체부는 편지 내용 (질문) 을 계속 볼 수 있습니다. 그래서 "아, 이 질문의 답은 10 이구나"라고 기억해두고, 나중에 "생각 과정"을 적을 때 그 답을 맞춰서 적으면 됩니다.
  • 새로운 방식 (Markovian): 우체부가 편지 (질문) 를 읽은 후, 편지를 버리고 오직 '요약 메모 (생각 과정)'만 들고 답을 작성하는 방으로 들어갑니다.
    • 규칙: 답을 작성할 때 원래 편지 (질문) 는 볼 수 없습니다. 오직 자신이 적은 '요약 메모'만 보고 답을 써야 합니다.
    • 결과: 만약 AI 가 진짜로 답을 모른다면, '요약 메모'에 답을 적어둘 수 없습니다. 그래서 AI 는 반드시 답을 구하는 데 필요한 **진짜 논리 (계산 과정)**를 '요약 메모'에 적어넣어야만 정답을 맞출 수 있게 됩니다.

이 방식은 마치 압축기처럼 작동합니다. 긴 질문을 읽고, 중요한 논리만 추려서 짧은 메모에 담고, 그 메모만으로 답을 찾아야 하므로 AI 는 거짓말 (가짜 생각) 을 할 수 없게 됩니다.

🎓 3. 훈련 방법: "스스로를 채점하는 게임"

이 AI 를 훈련시키는 방법은 GRPO라는 기술을 사용하는데, 마치 다음과 같은 게임 같습니다.

  1. 문제 제시: AI 에게 문제를 줍니다.
  2. 생각 과정 작성: AI 가 "생각 메모"를 작성합니다.
  3. 답변 작성: AI 는 "생각 메모"만 보고 답을 냅니다. (질문은 못 봄)
  4. 채점:
    • 만약 답이 맞다면? "잘했다! 네 생각 메모가 정말 유용했구나!"라고 칭찬합니다.
    • 만약 답이 틀렸다면? "아쉽네. 네 생각 메모가 불완전했구나."라고 지적합니다.
  5. 반복: 이 과정을 수천 번 반복하면서 AI 는 **"어떻게 하면 짧은 메모에 진짜 논리를 담아 정답을 맞출 수 있을까?"**를 스스로 학습하게 됩니다.

📊 4. 결과: AI 가 정말로 생각하게 되었습니다!

이 방법으로 훈련한 AI 는 놀라운 변화를 보였습니다.

  • 성적 향상: 수학 문제 (GSM8K) 에서 정답률이 **19% 에서 57%**로, 과학 퀴즈 (ARC) 에서 **36% 에서 80%**로 크게 올랐습니다.
  • 진짜 생각: AI 가 쓴 '생각 메모'를 일부러 지우거나 틀리게 바꾸면, AI 의 정답률이 급격히 떨어졌습니다. 이는 AI 가 답을 외운 게 아니라, 메모에 적힌 논리에 의존해서 답을 냈다는 증거입니다.
  • 다른 AI 와도 통함: 한 AI 가 쓴 '생각 메모'를 다른 AI (예: GPT-2 같은 구형 모델) 에게 주어도, 그 AI 가 정답을 맞출 수 있었습니다. 이는 AI 가 모델만의 암호 (스텔스 모드) 를 쓴 게 아니라, 누구나 이해할 수 있는 자연어 논리를 썼다는 뜻입니다.

💡 5. 결론: 왜 중요한가요?

이 연구는 AI 가 "왜 그 답을 냈는지"에 대한 진짜 이유를 보여줄 수 있게 해줍니다.

  • 신뢰성: AI 가 내린 결론이 단순히 암기된 것이 아니라, 논리적으로 증명된 것임을 확인할 수 있습니다.
  • 안전성: 고위험 분야 (의료, 법률 등) 에서 AI 가 잘못된 논리로 결론을 내리는 것을 막을 수 있습니다.

한 줄 요약:

"AI 에게 질문을 주고 답을 할 때, 원래 질문을 못 보게 하고 오직 '생각 메모'만 보게 함으로써, AI 가 진짜로 논리적으로 생각하도록 강제한 혁신적인 훈련 방법입니다."