Each language version is independently generated for its own context, not a direct translation.
1. 문제: "긴 문서를 읽을 때의 딜레마"
지금까지의 인공지능 (LLM) 은 긴 글을 읽을 때 두 가지 큰 고민이 있었습니다.
- 모든 것을 다 읽는 경우 (Dense Attention): 도서관에서 책 한 권을 읽을 때, 첫 페이지부터 마지막 페이지까지 모든 글자를 하나하나 꼼꼼히 읽는 것입니다.
- 장점: 내용을 완벽하게 이해합니다.
- 단점: 책이 두꺼울수록 (문장이 길어질수록) 시간이 너무 오래 걸리고, 기억해둬야 할 메모 (KV Cache) 가 폭발적으로 늘어납니다.
- 일부만 읽는 경우 (Sparse/Dilated Attention): 책의 매 10 페이지, 20 페이지마다 한 번씩만 훑어보는 것입니다.
- 장점: 속도가 매우 빠르고 메모리도 적게 씁니다.
- 단점: 중요한 내용을 놓치기 쉽습니다. 특히 기존 모델들은 이렇게 '간격 두고 읽는' 방식을 갑자기 적용하면, 이해도가 급격히 떨어지는 치명적인 오류가 있었습니다. (예: "아까 그 페이지에서 무슨 일이 있었지?"를 잊어버림)
2. 해결책: RAT+ 의 "기억력 강화 훈련"
RAT+ 는 이 문제를 해결하기 위해 두 가지 혁신적인 전략을 사용합니다.
전략 1: "완벽한 훈련, 유연한 실전" (Train Dense, Infer Sparse)
기존 방식은 "간격 두고 읽는 법"을 처음부터 따로 가르쳤다면, RAT+ 는 **처음부터 모든 페이지를 꼼꼼히 읽는 법 (완벽한 훈련)**으로 학습시킵니다.
- 비유: 마치 마라톤 선수가 처음부터 42km를 달리는 법을 배우는 것과 같습니다.
- 효과: 훈련이 끝난 후, 실제 경기 (추론) 에서는 "10km 마다 한 번만 체크하는 법"을 적용해도, 이미 42km를 달릴 줄 아는 근육 (지식) 이 있기 때문에 실력이 떨어지지 않습니다.
- 핵심: 별도의 모델을 여러 개 만들 필요 없이, 하나의 모델로 상황에 따라 속도를 조절할 수 있습니다.
전략 2: "연결고리" (Recurrence) - 가장 중요한 비법
그런데 왜 기존 모델들은 '간격 두고 읽기'를 하면 망했을까요? 바로 연결고리가 끊겼기 때문입니다.
- 비유: 책장을 넘길 때마다 이전 페이지의 내용을 잊어버리고 새로운 페이지만 보는 것입니다.
- RAT+ 의 해결책: RAT+ 는 **'재귀 (Recurrence)'**라는 기술을 도입했습니다. 이는 **"이전 페이지의 핵심 내용을 요약해서 다음 페이지로 전달하는 메모"**를 만드는 것과 같습니다.
- 비록 10 페이지 건너뛰고 읽더라도, "1 페이지에서 중요한 내용이 10 페이지로 전달되어 20 페이지로 이어진다"는 연결고리가 있기 때문에 내용을 놓치지 않습니다.
- 이 연결고리는 **능동적으로 학습 (Active Recurrence Learning)**되도록 훈련되어, 모델이 스스로 "어떤 정보를 기억해야 할지"를 배우게 합니다.
3. RAT+ 의 놀라운 성과
이 논문은 RAT+ 가 다음과 같은 성과를 냈다고 말합니다.
- 속도와 정확도의 두 마리 토끼:
- D=16 (16 페이지마다 읽기): 원래 속도보다 16 배 빠르면서도, 정확도는 거의 떨어지지 않습니다. (약 1% 만 감소)
- D=64 (64 페이지마다 읽기): 속도는 64 배 빨라지는데, 정확도도 놀랍게도 2~3% 만 떨어집니다.
- 유연한 적용:
- 짧은 글을 읽을 때는 모든 페이지를 꼼꼼히 보고, 긴 글을 읽을 때는 간격 두고 읽는 식으로 상황에 따라 자동으로 조절할 수 있습니다.
- 심지어 '가장 중요한 부분만 골라 읽는 (Top-k)' 방식에서도 기존 모델보다 훨씬 잘합니다.
- 확장성:
- 모델의 크기를 키울수록 (2.6B 파라미터), 이 '간격 두고 읽기' 방식의 정확도 손실은 더 줄어들었습니다. 즉, 모델이 클수록 더 똑똑하게 간격 읽기를 잘한다는 뜻입니다.
4. 요약: RAT+ 가 가져오는 변화
기존의 인공지능은 **"긴 글을 읽으려면 무조건 무겁고 느려야 한다"**는 고정관념이 있었습니다. 하지만 RAT+ 는 다음과 같이 바꿉니다.
"우리는 처음부터 모든 것을 완벽하게 배웠기 때문에, 필요할 때는 가볍게 스킵하며 읽어도 실수하지 않습니다. 마치 기억력이 좋은 사람이 긴 책을 읽을 때, 중요한 부분만 빠르게 훑어봐도 전체 흐름을 완벽하게 이해하는 것과 같습니다."
이 기술이 상용화되면, 긴 문서 분석, 긴 대화 기록 처리, 실시간 번역 등에서 속도는 엄청나게 빨라지고 비용은 획기적으로 줄어드는 새로운 시대가 열릴 것입니다.