MultiWikiQA: A Reading Comprehension Benchmark in 300+ Languages

이 논문은 306 개 언어로 구성된 122 만 건 이상의 대규모 읽기 comprehension 벤치마크인 'MultiWikiQA'를 소개하고, LLM 기반 질문 생성 및 인간 평가를 통해 데이터의 품질과 다양한 언어 모델 간의 성능 격차를 입증했습니다.

Dan Saattrup Smart

게시일 2026-03-05
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **"MultiWikiQA"**라는 아주 특별한 도서관과 그 도서관을 시험하는 방법을 소개하는 이야기입니다. 쉽게 비유해서 설명해 드릴게요.

1. 이 논문은 뭐야? (핵심 내용)

이 연구팀은 전 세계 306 개 언어로 된 위키백과 (Wikipedia) 를 바탕으로, 컴퓨터가 글을 읽고 질문에 답하는 능력을 테스트할 수 있는 거대한 데이터셋을 만들었습니다. 마치 전 세계의 모든 언어로 된 '독해 시험지'를 한 번에 120 만 개 이상 만들어낸 셈이죠.

2. 어떻게 만들었을까? (만드는 과정)

이 시험지를 만드는 과정은 마치 유능한 AI 요리사가 요리를 만드는 것과 비슷합니다.

  • 재료 준비 (위키백과): 먼저 위키백과라는 거대한 식자재 창고에서 글을 가져옵니다.
  • 요리 (질문 생성): AI 가 그 글을 읽고 "이 글에 대해 어떤 질문을 할까?"라고 생각하며 질문과 정답을 만듭니다. 이때 중요한 건, 정답이 글 속에 그대로 (verbatim) 있어야 한다는 점입니다.
  • 맛보기 (질문 다듬기): 처음 만든 질문은 너무 직설적이라서, AI 가 단순히 '단어만 찾아서' 답을 맞출 수 있게 됩니다. 그래서 AI 가 다시 그 질문을 다른 말로 표현 (재구성) 하도록 시켰습니다.
    • 비유: "사과가 빨간색이다"라는 문장에 대해 "빨간 과일은 뭐야?"라고 묻는 대신, "빨갛고 둥글며 맛있는 과일은 무엇일까?"라고 묻는 식으로 바꾸는 거죠. 이렇게 하면 AI 는 글의 맥락을 진짜로 이해해야만 답을 할 수 있게 됩니다.

3. 정말 잘 만들었을까? (품질 검증)

만든 질문들이 자연스러운지 확인하기 위해 **사람들 (156 명)**에게 평가를 요청했습니다.

  • 30 개 언어의 원어민들에게 "이 질문이 자연스러워?"라고 물었더니, 대부분 **"대부분 자연스럽다"**는 평가를 받았습니다.
  • 비유: 마치 외국인이 쓴 한국어 일기를 원어민에게 보여주고 "이거 한국어로 자연스럽게 들리니?"라고 물어본 뒤, "네, 문법도 맞고 표현도 자연스러워!"라고 들은 것과 같습니다.

4. 컴퓨터들은 잘 해냈을까? (시험 결과)

이제 이 시험지를 가지고 최신 AI 모델 6 개를 시험시켰습니다. 결과는 어땠을까요?

  • 언어별 격차: 영어나 주요 언어에서는 AI 가 아주 잘했지만, **작은 언어 (저자원 언어)**에서는 AI 가 매우 힘들어했습니다.
  • 비유: 영어는 AI 가 "수능 만점"을 받았지만, 일부 작은 언어권에서는 AI 가 "공부도 안 하고 시험장에 온 학생"처럼 엉뚱한 답을 하거나 아예 답을 못 찾았습니다.
  • 이 결과는 AI 가 아직 전 세계 모든 언어를 똑같이 잘 이해하지 못한다는 것을 보여줍니다.

5. 왜 이 연구가 중요할까? (의미)

지금까지 AI 는 영어나 중국어 같은 '큰 언어' 위주로 공부했습니다. 하지만 이 연구는 작은 언어를 가진 사람들도 AI 의 능력을 공정하게 평가할 수 있는 도구를 제공했습니다.

  • 결론: 우리는 이제 전 세계 거의 모든 언어로 "AI 가 글을 잘 읽고 이해하는가?"를 측정할 수 있게 되었습니다. 이는 앞으로 AI 가 전 세계 어디서나 공평하게 쓰일 수 있는 발판이 될 것입니다.

한 줄 요약:

"전 세계 306 개 언어로 된 위키백과를 바탕으로 AI 가 글을 읽는 능력을 시험하는 '거대한 독해 시험지'를 만들었고, AI 가 큰 언어는 잘하지만 작은 언어는 아직 많이 부족하다는 사실을 발견했습니다."