The macaque IT cortex but not current artificial vision networks encode object position in perceptually aligned coordinates

Cette étude démontre que le cortex temporal inférieur des macaques encode la position des objets dans un référentiel perceptif aligné sur l'illusion visuelle, contrairement aux réseaux de vision artificielle actuels qui, bien qu'efficaces pour la localisation, ne reproduisent pas ces biais d'adaptation dépendants de l'histoire visuelle.

Elizaveta Yakubovskaya, Hamidreza Ramezanpour, Matteo Dunnhofer, Kohitij Kar

Publié Fri, 13 Ma
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🧠 Le cerveau vs l'ordinateur : Qui comprend vraiment où sont les objets ?

Imaginez que vous regardez une pomme sur une table. Votre cerveau fait deux choses instantanément : il dit "C'est une pomme" (l'identité) et "Elle est à gauche" (la position).

Pendant longtemps, les scientifiques pensaient que le cerveau séparait ces deux tâches comme deux équipes distinctes :

  • L'équipe "Quoi" (le ventral) s'occupait de reconnaître les objets.
  • L'équipe "Où" (le dorsal) s'occupait de leur position pour vous aider à les attraper.

Mais cette nouvelle étude, menée par des chercheurs au Canada, remet tout cela en question. Ils ont découvert que l'équipe "Quoi" (une zone du cerveau appelée cortex IT) ne se contente pas de dire "c'est une pomme". Elle sait aussi exactement elle est, mais d'une manière très spéciale : elle utilise notre perception, pas seulement la réalité physique de l'image.

Voici comment ils ont prouvé cela, en utilisant un tour de magie visuel.

🎩 Le Tour de Magie : L'Effet "Après-Mouvement"

Pour tester le cerveau, les chercheurs ont utilisé un phénomène connu sous le nom d'effet d'après-mouvement (Motion Aftereffect).

L'analogie du toboggan :
Imaginez que vous descendez un toboggan très rapide pendant 30 secondes. Quand vous arrivez en bas et que vous vous arrêtez, votre corps a l'impression de glisser encore vers le bas pendant quelques secondes, même si vous êtes immobile. C'est votre cerveau qui est "fatigué" par le mouvement.

Dans cette expérience, les chercheurs ont fait la même chose avec les yeux :

  1. Ils ont fait regarder aux participants (humains et singes) des lignes qui bougeaient vers la droite pendant longtemps.
  2. Ensuite, ils ont montré une image fixe d'un objet (comme un ours ou une voiture) au centre de l'écran.
  3. Le résultat magique : Les participants ont juré que l'objet se déplaçait vers la gauche ! Même si l'objet était parfaitement immobile sur l'écran.

C'est ici que ça devient fascinant. Puisque l'image sur l'écran n'a pas bougé, mais que le cerveau pense qu'elle bouge, cela permet de tester si le cerveau se base sur la réalité physique (les pixels) ou sur ce qu'il ressent.

🐒 Ce que disent les singes (et leur cerveau)

Les chercheurs ont enregistré l'activité électrique du cerveau de singes macaques pendant ce tour de magie.

  • Ce qu'ils ont trouvé : Le cerveau des singes (dans la zone IT) a changé son message. Avant l'expérience, il disait "L'objet est au centre". Après l'expérience (quand les lignes bougeaient vers la droite), le cerveau a commencé à dire : "L'objet est décalé vers la gauche".
  • La conclusion : Le cerveau du singe ne se contente pas de lire les coordonnées de l'image. Il recalcule la position en fonction de ce qu'il a vu juste avant. Il est aligné avec la perception humaine. Si l'humain voit un décalage, le cerveau du singe l'enregistre aussi.

C'est comme si le cerveau disait : "Je ne me fie pas à ce que mes yeux voient sur le papier, je me fie à ce que je ressens dans mon expérience."

🤖 Et les ordinateurs (l'Intelligence Artificielle) ?

C'est là que ça devient drôle. Les chercheurs ont pris les meilleurs réseaux de neurones artificiels (les "cerveaux" des IA modernes) et leur ont montré la même chose.

  • Le test : Ils ont montré les lignes qui bougent, puis l'objet fixe.
  • Le résultat de l'IA : L'IA a dit : "L'objet est toujours exactement au centre."
  • Pourquoi ? Parce que pour une IA classique, l'image est juste une grille de pixels. Si les pixels ne bougent pas, l'IA ne voit aucun changement. Elle est "bête" dans ce sens-là : elle ne ressent pas l'illusion d'optique. Elle ne comprend pas que le contexte (le mouvement précédent) change la réalité perçue.

Même les IA les plus avancées, qui regardent des vidéos et ont de la "mémoire" (comme des réseaux récurrents), ont échoué. Elles n'ont pas réussi à reproduire ce décalage perceptuel.

💡 La grande leçon : La "Neuralisation"

Pour voir si les IA pouvaient comprendre, les chercheurs ont fait une expérience de "chirurgie numérique". Ils ont pris les données du cerveau du singe (qui sait faire l'illusion) et les ont appliquées à l'IA.

  • Résultat : Dès qu'ils ont forcé l'IA à utiliser la "logique" du cerveau du singe, l'IA a soudainement vu le décalage !
  • Ce que ça signifie : L'IA a la capacité de stocker l'information, mais il lui manque le mécanisme interne pour transformer cette information en fonction de l'histoire récente. Il lui manque la "musique" du cerveau qui réagit au contexte.

🏁 En résumé

  1. Le cerveau humain (et celui des singes) est un artiste : il ne se contente pas de copier la réalité. Il mélange ce qu'il voit avec ce qu'il a vu juste avant pour créer une expérience cohérente. Même si l'image est fixe, il peut "voir" un mouvement.
  2. L'Intelligence Artificielle actuelle est un photocopieur très rapide : elle voit exactement ce qui est sur la page. Si l'image ne bouge pas, elle ne voit aucun mouvement, même si notre cerveau nous dit le contraire.
  3. L'avenir : Pour créer de vraies IA qui voient comme nous, il ne suffit pas de leur donner plus de données. Il faut leur apprendre à s'adapter et à changer leur perception en fonction de l'histoire, exactement comme le fait notre cortex visuel.

En gros, notre cerveau est un interprète créatif, tandis que nos ordinateurs sont encore de simples lecteurs de texte. Il reste beaucoup de travail pour que les machines apprennent à "sentir" le monde comme nous.