Each language version is independently generated for its own context, not a direct translation.
📜 핵심 비유: "레고 조립" vs "디지털 블록"
이 논문의 핵심은 두 가지 문서 작성 방식을 비교하는 것입니다.
LaTeX (라텍): 마치 종이로 된 레고 설명서를 보고 조립하는 것과 같습니다.
- 당신은 설명서 (코드) 를 한 줄씩 읽어야 합니다.
- "여기에 빨간 블록을 붙여라"라고 적혀 있으면, 그 블록이 실제로 어디에 붙을지, 다른 블록과 충돌할지 알기 위해 종이 전체를 처음부터 다시 읽어야 합니다.
- 실수가 하나라도 있으면, 설명서 전체가 무너져 내리고 (컴파일 오류), "어디서부터 잘못된 건지"를 찾기 위해 설명서 전체를 뒤져야 합니다.
- 문제점: 인공지능 (LLM) 이 이 설명서를 읽을 때, "이 블록이 어디에 붙을지"를 예측하기가 매우 어렵고, 설명서 자체가 너무 길고 복잡해서 (토큰 비용 증가) 비효율적입니다.
Mogan STEM (모간 스템): 마치 스마트폰에서 조립하는 디지털 레고와 같습니다.
- 블록을 놓는 순간, 그 위치와 모양이 즉시 화면에 나타납니다 (WYSIWYG).
- 한 블록을 옮기면 그 주변만 자동으로 재배치됩니다. 전체를 다시 조립할 필요가 없습니다.
- 장점: 인공지능이 이 구조를 보면, "이 블록은 저기 있고, 저 블록은 여기 있다"는 것을 즉시 파악할 수 있어 훨씬 똑똑하고 빠르게 작동합니다.
🔍 논문이 지적하는 LaTeX 의 3 가지 치명적인 결함
1. "한 번에 다 봐야 하는" 비효율 (Batch Processing)
- LaTeX: 문서를 수정하면 (예: 1 페이지에 글자 하나만 추가), 문서 전체를 처음부터 다시 계산해야 합니다. 마치 책을 한 장만 수정했는데, 책장 전체를 다시 제본해야 하는 꼴입니다.
- Mogan: 수정된 부분만 다시 그립니다. 마치 디지털 문서에서 글자를 지우면 그 자리만 비워지는 것과 같습니다.
2. "어디서 잘못됐는지 모호한" 오류 (Error Localization)
- LaTeX: 10 페이지에 있는 괄호를 하나 닫지 않았는데, 오류 메시지는 50 페이지의 "컴파일 실패"라고 뜹니다. 진짜 원인과 오류 위치가 너무 멀어서 고치기가 매우 힘듭니다.
- Mogan: 괄호를 닫지 않으면, 그 자리에서 바로 빨간색으로 표시되어 "여기서 문제가 생겼어!"라고 알려줍니다.
3. "인공지능이 읽기 힘든" 구조 (Token Cost & Entropy)
- LaTeX: 같은 모양을 만들더라도 코드를 쓰는 방식이 천차만별입니다. (예:
a^2와x^{2}는 같은 의미지만 코드는 다름). 인공지능은 이 수많은 변형을 다 외워야 하므로 공부할 게 너무 많고 (정보 엔트로피 높음), 예측도 어렵습니다. - Mogan: 모든 것이 **정해진 규칙 (트리 구조)**으로 되어 있습니다. 인공지능은 "이건 분수, 저건 적분"이라고 명확하게 구분할 수 있어 학습과 추론이 훨씬 빠르고 정확합니다.
🚀 Mogan STEM 이 왜 더 좋은가?
이 논문은 Mogan STEM이라는 새로운 도구를 소개하며 다음과 같은 장점을 강조합니다.
- 눈에 보이는 대로 (WYSIWYG): 코드를 몰라도 화면을 보고 바로 작성할 수 있습니다.
- 빠른 속도: 문서를 열거나 수정할 때 기다릴 필요가 없습니다.
- 인공지능 친화적: 문서 구조가 나무 (Tree) 형태라, 인공지능이 내용을 이해하고 다음 단어를 예측하기 매우 쉽습니다.
- 가벼운 설치: LaTeX 는 설치할 때 6GB 이상의 거대한 파일을 다운로드해야 하지만, Mogan 은 100MB 정도만 설치하면 바로 쓸 수 있습니다. (필요한 기능만 그때그때 불러옵니다.)
📊 실험 결과: 숫자로 증명된 우위
저자들은 여러 실험을 통해 Mogan 이 LaTeX 를 압도한다고 주장합니다.
- 컴파일/렌더링 속도: 대부분의 문서에서 Mogan 이 훨씬 빠릅니다. (LaTeX 는 문서가 길어질수록 속도가 급격히 느려집니다.)
- LLM 작업 성능: 인공지능이 문서 구조를 찾거나, 서로 다른 스타일의 문서를 합칠 때, Mogan 형식을 사용하면 인공지능의 실수가 줄고 속도가 빨라집니다.
- 학습 효율 (Fine-tuning): 인공지능을 학습시킬 때, Mogan 형식 (.tmu) 으로 학습시키면 오류가 훨씬 적게 발생하고 더 빠르게 학습합니다. (LaTeX 는 코드가 너무 복잡해서 인공지능이 헷갈리기 때문입니다.)
💡 결론: "과거의 표준"에서 "미래의 표준"으로
이 논문의 결론은 간단합니다.
"LaTeX 는 1970 년대 컴퓨터 환경에 맞춰 만들어진 훌륭한 도구였지만, 인공지능이 모든 것을 도와주는 오늘날에는 너무 무겁고 비효율적입니다. 우리는 이제 인공지능이 더 잘 이해하고, 사람이 더 편하게 쓸 수 있는 'Mogan STEM'과 같은 새로운 구조로 넘어가야 합니다."
마치 **편지 (LaTeX)**를 쓰느라 우편물 처리를 위해 복잡한 규정을 따르느라 고생하던 시절에서, **이메일 (Mogan)**처럼 즉시 전송되고 자동으로 정리되는 시대로 넘어가는 것과 같은 변화입니다.