Read As Human: Compressing Context via Parallelizable Close Reading and Skimming

이 논문은 인간의 독서 방식을 모방하여 중요한 내용은 정독하고 덜 중요한 내용은 요약하는 적응형 하이브리드 전략을 통해 긴 문맥의 계산 효율성을 높이고 성능을 개선한 RAM(Read As HuMan) 프레임워크를 제안합니다.

Jiwei Tang, Shilei Liu, Zhicheng Zhang, Qingsong Lv, Runsong Zhao, Tingwei Lu, Langming Liu, Haibin Chen, Yujin Yuan, Hai-Tao Zheng, Wenbo Su, Bo Zheng

게시일 2026-03-02
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

📖 "RAM: 사람이 책을 읽듯, AI 가 긴 글을 똑똑하게 요약하는 법"

이 논문은 거대 언어 모델 (LLM) 이 긴 글을 다룰 때 겪는 두 가지 큰 문제를 해결하는 새로운 방법 RAM(Read As HuMan) 을 소개합니다.

한마디로 요약하면: **"AI 가 긴 문서를 읽을 때, 중요한 부분은 꼼꼼히 읽으 **(Close Reading)


🤔 왜 이 기술이 필요한가요? (문제 상황)

지금까지 AI 는 긴 글을 읽을 때 두 가지 고충이 있었습니다.

  1. 계산이 너무 느려요: 긴 글을 한 번에 다 읽으려면 컴퓨터가 엄청난 에너지를 써서 시간이 오래 걸립니다. (전체 책을 한 번에 훑어보는 것 같아서요.)
  2. 중요한 게 묻혀요: 글이 너무 길면 AI 가 핵심 내용을 놓치거나, 불필요한 정보에 혼란을 겪습니다. (책 전체를 다 읽으려다 중요한 페이지를 놓치는 거죠.)

기존 방법들은要么 (a) 전체를 다 읽으려다 느려지거나, 要么 (b) 한 줄씩 읽어가며 요약하다 보니 역시 느려지는 문제가 있었습니다.


💡 RAM 의 해결책: "사람처럼 읽자!"

이 연구팀은 사람이 책을 읽는 방식에서 영감을 받았습니다.

  • **중요한 부분 **(핵심 내용) 눈이 멈추고 꼼꼼히 읽습니다. (Close Reading)
  • **중요하지 않은 부분 **(배경 설명) 쓱쓱 훑어보며 핵심만 파악합니다. (Skimming)

RAM 은 이 방식을 AI 에게 적용했습니다.

🚀 RAM 이 작동하는 3 단계

  1. **한눈에 훑어보기 **(병렬 처리)

    • 긴 글을 작은 조각 (세그먼트) 으로 나눕니다.
    • AI 는 질문 (Query) 과 이 모든 조각을 동시에 봅니다. (한 줄씩 읽는 게 아니라, 책장을 한 번에 넘겨보는 느낌입니다.)
  2. **중요도 판별하기 **(스마트 선택)

    • "이 조각이 질문과 관련이 있을까?"를 AI 가 빠르게 계산합니다.
    • **관련성 높음 **(Close Reading) → 원문 그대로 보존합니다. (중요한 장면을 잘라내어 붙여둡니다.)
    • **관련성 낮음 **(Skimming) → 내용을 압축하여 작은 요약 벡터 (디지털 요약본) 로 만듭니다. (여백을 줄여서 작은 박스로 만듭니다.)
  3. **다시 합치기 **(하이브리드)

    • 원문으로 남은 중요한 부분 + 요약된 작은 박스들을 이어 붙여 AI 가 최종 답을 찾게 합니다.
    • 결과: 속도는 빨라지고, 중요한 정보는 살아있습니다.

🌟 이 기술의 장점 (비유로 설명)

  • 🏎️ 12 배 빠른 속도:
    • 기존 방법은 긴 도로 (긴 텍스트) 를 차 한 대가 천천히 다 달리는 방식이라면, RAM 은 고속도로를 달립니다. 긴 입력 (16,000 자~32,000 자) 에서 기존 방법보다 최대 12 배나 빠르게 답을 찾아냅니다.
  • **🧠 "왜?"를 이해할 수 있음 **(해석 가능성)
    • 기존 AI 요약 기술은 내용을 '숫자 코드'로만 압축해서 사람이 볼 수 없게 만들었습니다. 하지만 RAM 은 중요한 부분은 원문 그대로 남겨두기 때문에, "어디서 이 답을 찾았는지"가 명확하게 보입니다.
  • 🎯 핵심만 쏙쏙:
    • 불필요한 잡담은 다 버리고, 질문과 관련된 핵심 내용만 남기므로 AI 가 헷갈리지 않고 정확한 답을 줍니다.

🧪 실험 결과: 얼마나 잘 하나요?

연구팀은 다양한 질문 답변 (QA) 과 요약 테스트에서 RAM 을 검증했습니다.

  • 성능: 기존 최고의 방법들보다 훨씬 높은 점수를 받았습니다.
  • 강인함: 글을 4 배, 8 배, 심지어 32 배로 압축해도 성능이 떨어지지 않고 안정적으로 작동했습니다.
  • 장문 처리: 훈련할 때보다 훨씬 긴 글 (최대 32,000 자) 을 입력해도 잘 처리했습니다.

🎓 결론

RAM은 AI 가 긴 글을 읽을 때, 사람처럼 지혜롭게 행동하게 만든 기술입니다.

"모든 글을 다 읽으려다 지치지 말고, 중요한 건 꼼꼼히, 나머지는 쓱 훑어보자."

이 철학을 통해 AI 는 더 빠르고, 정확하며, 우리가 이해하기 쉬운 방식으로 긴 정보를 처리할 수 있게 되었습니다. 앞으로 긴 보고서, 논문, 혹은 긴 대화 기록을 AI 가 처리할 때 이 기술이 큰 도움을 줄 것입니다.