The macaque IT cortex but not current artificial vision networks encode object position in perceptually aligned coordinates

本研究は、マカク猿の側頭葉皮質(IT 野)が視覚的錯覚によって引き起こされる知覚的な位置シフトを反映する一方、現在の人工視覚ネットワークは同様の適応効果を示さず、生物と人工の視覚システムに歴史的依存性を伴う空間符号化のギャップが存在することを明らかにしました。

Elizaveta Yakubovskaya, Hamidreza Ramezanpour, Matteo Dunnhofer, Kohitij Kar

公開日 Fri, 13 Ma
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

🧠 結論:脳は「魔法の眼鏡」をかけているが、AI はまだ持っていない

この研究の核心は、**「脳(特に IT 皮質という部分)は、目の前にあるものの『実際の位置』だけでなく、私たちが『どう感じている位置』も記録している」**という発見です。

そして、**「今の AI は、目の前の画像のピクセル(画素)の位置しか見ておらず、人間の『感じ方』のズレを再現できない」**という残念な(でも重要な)結果が出ました。


🎢 1. 実験のトリック:「動く迷路」の魔法

研究者たちは、ある有名な視覚のトリック(錯覚)を使いました。それは**「運動後効果」**と呼ばれるものです。

  • 実験のやり方:

    1. 参加者に、右に流れる「動く壁」を 30 秒間じっと見させます。
    2. その直後、**「止まっている物体」**を見せます。
    3. すると、不思議なことに、その止まっている物体は**「左にずれている」**ように見えてしまいます。
  • なぜこうなる?
    脳が「右に動くもの」に慣れすぎてしまい、その反動で「左に動く(ずれている)」と勘違いしてしまうのです。
    重要なのは、画面の「実際の画素(ピクセル)」は全く動いていないのに、人間の「感じ方」だけがズレるという点です。

🧩 2. 脳の発見:「感じ方」を記録する天才

研究者たちは、サル(マカク)の脳内にある**「IT 皮質(ものを見るための高次な部分)」**の神経細胞を直接観察しました。

  • 従来の考え:
    「IT 皮質は『これが何(クマか、車か)』を判断する場所だから、位置は関係ないはずだ。位置は『どこ』を司る別の場所がやるはずだ」と思われていました。
  • 今回の発見:
    実際には、IT 皮質の神経細胞も**「止まっている物体」の位置を記録していました。**
    さらに驚くべきことに、「右に流れる壁を見た後」には、IT 皮質の神経の活動パターンが変化し、まるで人間が錯覚しているように「物体が左にズレている」という信号を送っていたのです。

【例え話】
IT 皮質は、単なる「カメラのセンサー」ではなく、**「魔法の眼鏡」**をかけているようなものです。

  • 普通のカメラ(AI): 壁が右に動いても、止まっている物体の位置は「ここ(ピクセルの座標)」と正確に記録するだけ。
  • IT 皮質(脳): 壁が右に動いた後、その「魔法の眼鏡」のレンズが歪んでしまい、「あ、物体は左にズレている!」と脳に報告してしまう。

つまり、脳は**「物理的な位置」だけでなく、「私たちがどう感じているか(知覚)」に合わせた位置**を、ものを見る場所(IT 皮質)で処理していることがわかりました。

🤖 3. AI の失敗:「魔法の眼鏡」がない

次に、研究者たちは最新の AI(人工知能)モデルに同じ実験を行いました。

  • 結果:
    AI は、「右に流れる壁」を見た後でも、止まっている物体の位置を「ズレていない(正しい)」と判断し続けました。
    人間の錯覚や、サルの脳の反応のような「ズレ」は、AI には全く起きませんでした。

  • なぜ?
    今の AI は、「入力された画像のピクセル」をそのまま処理するように作られています。過去の「動き」の影響を受けて、現在の「感じ方」が歪むような仕組み(適応やリカレントな処理)が、標準的な AI には備わっていないのです。

🔧 4. 解決策?脳を真似すれば AI も変わる

でも、研究者たちはさらに面白い実験をしました。
「もし、AI の内部に、**『サルの脳が実際に使っている変化のルール』**を無理やり組み込んだらどうなるか?」

  • 実験:
    AI のデータに、サルの脳から得た「運動後効果による変化のルール」を適用しました。
  • 結果:
    AI も、人間やサルと同じように「物体がズレている」と判断するようになりました!

これは、**「AI の頭脳(特徴量)自体は、ズレを表現する能力を持っているが、それを引き出す『魔法のスイッチ(適応メカニズム)』が欠けている」**ことを意味しています。


🌟 まとめ:何がわかったの?

  1. 脳は「感じ方」を重視する:
    私たちが「もの」の位置を認識する時、脳は単なるカメラではなく、過去の経験(動きなど)によって「感じ方」をリアルタイムで調整しています。この調整は、ものを見る場所(IT 皮質)ですでに行われています。
  2. AI はまだ「生々しい」感覚がない:
    今の AI は、画像の「事実」は正確に捉えますが、人間の「錯覚」や「文脈による感じ方のズレ」を理解する仕組みが欠けています。
  3. 未来の AI へのヒント:
    より人間に近い AI を作るには、単に画像を認識させるだけでなく、**「過去の動きの影響を受けて、現在の認識を柔軟に変える仕組み」**を取り入れる必要があります。

一言で言えば:
「脳は、過去の動きで『レンズ』を歪ませて世界を見ている天才ですが、今の AI は『レンズ』を歪ませる魔法を持っていないので、同じ世界を見ても『ズレ』を感じることができない」というお話です。

この発見は、より人間らしく、文脈を理解できる AI を作るための重要な道しるべになりました。