Goldfish: Monolingual Language Models for 350 Languages

이 논문은 저자원 언어를 위한 대규모 다국어 모델의 한계를 지적하고, 350 개 언어 각각에 대해 1GB 미만의 데이터로 훈련된 125M 파라미터 규모의 소규모 단국어 모델 'Goldfish'를 공개하여 다국어 모델보다 우수한 성능을 입증했습니다.

Tyler A. Chang, Catherine Arnett, Zhuowen Tu, Benjamin K. Bergen

게시일 2026-03-09
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🐠 골피쉬 (Goldfish): 350 개 언어를 위한 '작지만 강력한' AI

이 논문은 **"거대하고 비싼 AI 모델이 모든 언어를 잘할 수 있을까?"**라는 의문에서 시작합니다. 연구자들은 거대 다국어 모델 (BLOOM, XGLM 등) 이 많은 언어를 동시에 배우려다 보니, 오히려 특정 언어의 문법이나 기본적인 글쓰기에서 엉망이 된다는 사실을 발견했습니다.

이 문제를 해결하기 위해 그들은 **골피쉬 (Goldfish)**라는 새로운 AI 모델 세트를 만들었습니다. 이름의 유래는 재미있는데, 금붕어처럼 작고 (소규모), 많으며 (350 개 언어), 기억력이 짧을 수 있지만 (작은 데이터) 그 자체로 매우 효율적이라는 뜻입니다.

이 논문의 핵심 내용을 일상적인 비유로 설명해 드릴게요.


1. 문제: "모든 것을 아는 거인"은 사실 "모든 것을 잘 모르는" 상태

지금까지 저자원 언어 (데이터가 적은 언어) 를 위한 AI 는 거대 다국어 모델을 사용했습니다.

  • 비유: 마치 전 세계 모든 요리를 한 번에 배우려는 거대한 셰프를 상상해 보세요. 이 셰프는 프랑스 요리, 이탈리아 요리, 한국 요리 등 수천 가지 요리를 동시에 배웁니다.
  • 문제점: 하지만 이 셰프는 각 요리에 할애할 시간이 부족합니다. 특히 잘 알려지지 않은 시골 요리 (저자원 언어) 는 배우는 시간이 거의 없습니다. 그 결과, 이 셰프는 아주 기본적인 반찬 (문법) 을 만드는 것조차 엉망이 됩니다.
  • 현실: 논문은 거대 모델들이 어떤 언어에서는 단순한 '두 단어 연결 (Bigram)' 모델보다도 글쓰기 실력이 떨어졌다고 지적합니다. (예: BLOOM 모델의 43% 언어에서 더 나쁨)

2. 해결책: "작은 전문가"들의 팀 (골피쉬)

연구자들은 거인 셰프 대신, 각 언어 하나에 전념하는 작은 요리사 1,000 명을 고용했습니다.

  • 비유: 거대한 식당 대신, 각자 한 가지 메뉴 (언어) 만 전문으로 하는 작은 노점상 350 개를 세운 것입니다.
  • 특징:
    • 작은 크기: 각 모델은 1 억 2,500 만 개의 파라미터 (뇌세포) 만 가집니다. 거대 모델 (수천억 개) 에 비해 훨씬 작고 가볍습니다.
    • 적은 데이터: 각 언어당 최대 1GB 의 텍스트 (약 2 억 단어) 만으로 훈련됩니다. 이는 거대 모델이 쓰는 데이터의 0.001% 수준이지만, 그 언어에 집중했기에 효율적입니다.
    • 결과: 이 작은 모델들은 거대 모델보다 문법적으로 더 자연스러운 글을 쓰고, 언어의 뉘앙스를 더 잘 파악합니다.

3. 놀라운 발견: "작은 것이 더 낫다"

논문은 두 가지 놀라운 사실을 보여줍니다.

  1. 문법과 글쓰기: 작은 골피쉬 모델들은 거대 모델보다 훨씬 더 낮은 '혼란도 (Perplexity, 글이 얼마나 자연스러운지 측정 지표)'를 보입니다. 즉, 글이 더 매끄럽고 문법적으로 맞습니다.
  2. 추론 능력의 한계: 하지만 작은 모델들은 **복잡한 논리 문제 (추론)**를 풀 때는 거대 모델처럼 '무작위 추측' 수준에 머무릅니다.
    • 비유: 작은 요리사는 특정 요리를 완벽하게 요리할 수 있지만, "이 요리를 만들면 어떤 사회적 영향이 있을까?" 같은 복잡한 철학적 질문에는 답을 못 합니다.
    • 의미: 이는 **문법적 지식 (언어 자체)**과 **추론 능력 (복잡한 사고)**이 서로 다른 뇌 영역에서 작동할 수 있음을 시사합니다.

4. 왜 이것이 중요한가요?

  • 공정한 기회: 그동안 AI 연구는 영어나 중국어 같은 '대세 언어' 위주로 진행되었습니다. 골피쉬는 **전 세계 350 개 언어 (아프리카, 아시아, 남미의 소수 언어 포함)**를 위한 첫 번째 공개된 단일 언어 모델들입니다.
  • 접근성: 거대 모델을 훈련시키려면 막대한 돈과 전기가 필요하지만, 골피쉬는 일반 연구실에서도 훈련시킬 수 있을 정도로 작고 저렴합니다.
  • 미래의 길: 이 모델들은 저자원 언어를 연구하는 과학자들에게 **기준점 (Baseline)**을 제공합니다. 이제 "이 언어로 AI 를 만들면 얼마나 잘할까?"를 측정할 수 있는 기준이 생긴 것입니다.

📝 요약: 금붕어 같은 AI

이 논문은 **"거대하고 무조건 많은 것이 답은 아니다"**라고 말합니다.

  • 거대 모델: 모든 것을 조금씩 알지만, 중요한 언어에서는 기초도 부족함.
  • 골피쉬 (작은 모델): 한 가지 언어에 집중하여 그 언어의 문법과 표현을 완벽하게 다룸.

연구자들은 이 1,000 개 이상의 작은 모델들을 공개하여, 언어적 다양성을 존중하고 누구나 AI 기술을 활용할 수 있는 세상을 만들고자 합니다. 마치 금붕어가 작지만 수족관 전체를 아름답게 채우듯, 이 작은 모델들이 전 세계 언어의 AI 생태계를 풍요롭게 만들기를 기대합니다.