The Token Tax: Systematic Bias in Multilingual Tokenization

この論文は、形態的に複雑な言語におけるトークン化の非効率性が計算コストの増大と精度の低下を招く「トークン課税」をもたらすことを示し、アフリカ言語での評価を通じてトークン数と精度の負の相関を明らかにするとともに、推論モデルが言語間の格差を縮める可能性を指摘している。

Jessica M. Lundin, Ada Zhang, Nihal Karim, Hamza Louzan, Victor Wei, David Adelani, Cody Carroll

公開日 2026-03-04
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI が言葉を理解する仕組みに潜む、ある不公平な『隠れた税金』」**について語っています。

タイトルを『トークン税:多言語トークン化における体系的な偏り』と言いますが、難しい言葉を使わずに、**「辞書の作り方の違いが、AI にどんな不公平をもたらすか」**という話として解説します。

1. 核心となる話:「言葉の切り方」による不公平

AI は言葉を理解する際、単語を小さな断片(トークン)に切り分けて処理します。
例えば、英語の「cat(猫)」は 1 つの断片で済みますが、アフリカの複雑な言語では、「猫+過去形+複数形+所有格」のような長い単語を、AI は「猫」「過去」「複数」「所有」と4 つも 5 つもの断片に切り分けて処理しなければなりません。

  • 英語:1 語 = 1 個のブロック
  • 複雑な言語:1 語 = 4〜5 個のブロック

この「1 語を何個のブロックに切るか」という比率を、論文では**「肥沃度(フェルティリティ)」と呼んでいます。
このブロックの数が多い言語ほど、AI は
「余計な作業」**を強いられることになります。

2. 3 つの大きな問題点

この「余計なブロック」が増えると、以下の 3 つの大きな問題が起きます。

① 頭が悪くなる(精度の低下)

ブロックが増えると、AI の「記憶力」や「集中力」が分散してしまいます。
まるで、**「100 個の箱に 100 個のリンゴを入れる作業」「100 個の箱に 400 個のリンゴ(同じリンゴを細かく切ったもの)を入れる作業」**を比べるようなものです。
後者の方が箱(トークン)が増えるため、AI はリンゴ(意味)の全体像を把握するのが難しくなり、テストの点数(正解率)が下がってしまいます。
論文では、「ブロックが 1 つ増えるごとに、正解率が 8〜18% 下がる」という明確な関係が見つかりました。

② 計算コストが跳ね上がる(4 倍の痛み)

AI の計算は、ブロックの数が増えると**「2 乗」**で増えるという性質があります。

  • ブロックが2 倍になると、計算量は4 倍になります。
  • つまり、複雑な言語を教えるには、英語の 4 倍の電気代、4 倍の時間、4 倍の CO2 排出量が必要になります。

これは、「同じ量の荷物を運ぶのに、英語ならトラック 1 台で済むが、複雑な言語だとトラック 4 台必要になる」ようなものです。
結果として、複雑な言語を扱う AI は、開発コストが
数億ドル
単位で跳ね上がり、企業は「コストがかかるから」という理由で、その言語の AI 開発を敬遠してしまいます。

③ 遅延(待ち時間)

ブロックが多いと、AI が答えを返すまでの待ち時間も長くなります。
英語なら 2 秒で返ってくる答えも、複雑な言語だと 4 秒かかることがあります。これもまた、ユーザー体験を悪くする「隠れた税金」です。

3. 最新の「賢い AI」は救世主か?

最近登場した「推論モデル(DeepSeek や o1 など)」は、**「よく考えてから答える」タイプの AI です。
この論文によると、これらの賢い AI は、従来の AI に比べて
「ブロックの多さによる悪影響をかなり軽減」できました。
英語とアフリカ言語の成績の差が、25 点の差から 12 点程度まで縮まったのです。
これは、
「賢い頭があれば、辞書の作り方の不備をある程度カバーできる」**ことを示しています。

しかし、「完全にゼロにはなりません」
どんなに賢い AI でも、ブロックが 4 倍もあれば、4 倍の計算コストはかかります。根本的な「辞書の作り方の不公平」は残ったままです。

4. 結論:私たちがすべきこと

この論文は、「トークンの非効率さ」が単なる技術的な問題ではなく、言語的な「差別」や「経済的な排除」につながっていると警鐘を鳴らしています。

  • 技術的な解決:言語の仕組み(文法や語形変化)を理解した上で、より賢い「辞書(トークナイザー)」を作る。
  • 経済的な解決:ブロックが多い言語だからといって、高い料金を請求しない「公平な価格設定」をする。
  • 評価の解決:世界中のあらゆる言語で AI の性能を測るテスト(ベンチマーク)を広げる。

まとめ
この論文は、**「AI が世界中のすべての言葉を公平に扱えるようにするには、単に AI を賢くするだけでなく、言葉の『切り方(トークン化)』という根本的な仕組みを、すべての言語に優しくする必要がある」**と伝えています。
そうしないと、世界中の数十億人が、AI の恩恵から取り残されてしまうからです。