The minimal width of universal pp-adic ReLU neural networks

この論文は、pp 進数 ReLU 活性化関数を用いたpp 進ニューラルネットワークが、コンパクト開集合上の連続pp 進値関数をLqL_q ノルムおよびC1C_1 ノルムに関して普遍近似する際に必要な最小の幅を決定するものである。

Sándor Z. Kiss, Ambrus Pál

公開日 2026-03-03
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、「p 進数(p-adic numbers)」という少し変わった数学の世界で、ニューラルネットワークがどれくらい「狭い道(最小の幅)」を通れば、どんな複雑な問題も解けるようになるかを突き止めた研究です。

通常、私たちが使うニューラルネットワーク(AI の脳)は「実数(0.1, 1.5, -3.2 など)」で動いています。しかし、この論文の著者たちは、「なぜ実数だけ?p 進数という別の数学の世界でも、同じように AI は機能するはずだ」と考え、その限界を調べました。

以下に、専門用語を避け、身近な例え話を使って解説します。


1. 舞台は「p 進数」という不思議な国

まず、p 進数とは何か想像してみてください。
通常の数(実数)は、直線上に並んでいるイメージです。しかし、p 進数の世界は**「木」「階層構造」**のような世界です。

  • 実数の世界: 距離は「直線的」。1 と 1.0001 はとても近い。
  • p 進数の世界: 距離は「共通の祖先(桁)がどれだけ深いかに依存する」。例えば、あるルールに基づくと、1 と 1000000 は「とても近い」兄弟のように扱われることもあります。

この世界は**「完全にバラバラ(非連結)」**になっています。実数の世界が「滑らかな川」だとしたら、p 進数の世界は「無数の小さな島が浮かぶ海」のようなものです。

2. 問題:AI は「狭い道」を通れるか?

ニューラルネットワークには「入力層」「隠れ層」「出力層」があり、その隠れ層の neuron(神経細胞)の数が**「幅(Width)」**と呼ばれます。

  • 幅が広い: 多くの神経細胞がある=複雑な計算ができるが、コストがかかる。
  • 幅が狭い: 神経細胞が少ない=効率的だが、複雑なことができないかもしれない。

これまでの研究(実数の世界)では、「どんな関数も近似できる(万能である)ためには、幅が『入力数 +1』以上必要だ」ということが分かっています。
この論文は、**「p 進数の世界でも、この『最小の幅』は同じなのか?それとも、p 進数ならではの特性で、もっと狭い道でも通れるのか?」**を突き止めました。

3. 発見:p 進数では「島」を飛び越えるのが得意

著者たちが発見した結論は、「p 進数の世界でも、必要な最小の幅は『入力数 +1』と『出力数』の大きい方だ」というものでした。
実数の世界と同じ答えですが、
「なぜそうなるのか」の理由が全く違います。

  • 実数の世界(滑らかな川):
    関数を近似するには、滑らかな曲線を描く必要があります。ここで「幅」が足りないと、曲線が折れ曲がってしまい、複雑な形を表現できません。これが「幅の制限」の理由でした。
  • p 進数の世界(島々):
    ここでは、関数は**「階段状」「ブロック状」**の形をしています(数学的には「局所定数関数」と呼ばれます)。
    p 進数の世界は「完全にバラバラ」なので、滑らかさを保つ必要がありません。
    たとえ幅が狭くても、この「島々」を正しくつなぐ「鍵(エンコード)」と「解き方(デコード)」さえあれば、どんな複雑な地図(関数)も描き分けられるのです。

4. 具体的な仕組み:どうやって狭い道で解くのか?

論文では、p 進数専用の活性化関数**「pReLU」**という道具を使っています。

  • 通常の ReLU: 「正の数ならそのまま、負なら 0」。
  • pReLU: 「p 進数の整数(Zp)に入ればそのまま、そうでなければ 0」。

この道具を使って、著者たちは以下のような「魔法のトリック」を証明しました。

  1. エンコード(暗号化):
    入力された複雑なデータ(多次元の島)を、たった 1 つの数字(1 次元の島)に圧縮して変換するネットワークを作ります。幅は「入力数 +1」あれば可能です。
    • 例: 100 個の島がある地図を、1 つの番号で全て区別できるように変換する。
  2. デコード(復号化):
    その 1 つの数字から、元の複雑な形(多次元の島)を復元するネットワークを作ります。
    • 例: 番号から、元の 100 個の島の位置を正確に再現する。

この「圧縮」と「復元」の技術があれば、**「幅が狭くても、どんな複雑な関数も、小さなブロック(島)ごとに正確に再現できる」**ことが証明されました。

5. なぜこれが重要なのか?

  • 分類問題への応用:
    「猫の写真か、猫じゃない写真か?」のような 0 と 1 の分類問題は、実数だけでなく、p 進数という「離散的な世界」の方が、本質的に合っているかもしれません。
  • 効率化:
    「幅」は計算コストに直結します。この研究は、「p 進数 AI を使う場合、必要な神経細胞の数はこれ以上減らせないが、これ以上増やす必要もない」という**「最適解」**を示しました。

まとめ

この論文は、**「AI が複雑な問題を解くために必要な『脳の広さ(幅)』は、p 進数という不思議な数学の世界でも、実数の世界と同じ『最小限』で済む」**ことを証明しました。

実数の世界では「滑らかさ」が壁になっていたのが、p 進数の世界では「バラバラさ(離散性)」が逆に**「狭い道でも複雑な形を表現できるヒント」**になったという、とても面白い逆転現象を描いた研究です。

一言で言えば:

「AI がどんな複雑な地図も描くには、実数の世界でも p 進数の世界でも、必要な『神経細胞の数』は同じ。でも、p 進数なら『島々を飛び越える』という、より効率的な歩き方ができるんだ!」

という発見です。

このような論文をメールで受け取る

あなたの興味に合わせた毎日または毎週のダイジェスト。Gistまたは技術要約を、あなたの言語で。

Digest を試す →