The macaque IT cortex but not current artificial vision networks encode object position in perceptually aligned coordinates

Dit onderzoek toont aan dat de macaques inferieure temporale cortex objectpositie codeert in perceptueel uitgelijnde coördinaten die beïnvloed worden door visuele illusies, terwijl huidige kunstmatige visuele netwerken dit vermogen missen tenzij ze specifiek worden getransformeerd.

Elizaveta Yakubovskaya, Hamidreza Ramezanpour, Matteo Dunnhofer, Kohitij Kar

Gepubliceerd Fri, 13 Ma
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Titel: Waarom onze hersenen (en niet de AI) weten waar iets is, zelfs als het niet beweegt

Stel je voor dat je door een drukke supermarkt loopt. Je ziet een blikje cola op een plank. Je hersenen doen twee dingen tegelijk: ze zeggen "Dat is een cola!" (wat) en "Dat staat rechts van mij" (waar).

Vroeger dachten wetenschappers dat deze twee taken gescheiden waren. De ene kant van je hersenen (de 'ventrale' weg) zou alleen kijken naar wat je ziet, en de andere kant (de 'dorsale' weg) zou alleen kijken naar waar het staat. Maar dit nieuwe onderzoek laat zien dat het veel ingewikkelder – en interessanter – is.

Hier is wat de onderzoekers hebben ontdekt, vertaald naar begrijpelijke taal:

1. De Magische Illusie: De "Bewegings-Na-effect"

Om dit te testen, gebruikten de onderzoekers een klassieke hersenillusie.

  • Het experiment: Stel je voor dat je 30 seconden lang naar een stroom van rode auto's kijkt die naar rechts rijden. Dan kijk je plotseling naar een stilstaand witte auto.
  • Het resultaat: Je hersenen zijn zo gewend geraakt aan de beweging naar rechts, dat de stilstaande auto er voor jou even naar links lijkt te verschuiven. Je hersenen "corrigeren" de positie op basis van wat je net hebt gezien, zelfs als de auto op dezelfde plek staat.

Dit is de sleutel: De foto op je netvlies verandert niet, maar je waarneming wel.

2. Wat gebeurt er in de hersenen van de Aap?

De onderzoekers keken in de hersenen van makaken (die visueel heel veel op mensen lijken), specifiek in een gebied dat IT-cortex heet. Dit gebied staat bekend als de "herkenningscentrale" voor objecten (wat is het?).

  • De ontdekking: Toen de apen naar de stilstaande auto keken (na de bewegingsillusie), veranderden de signalen in hun hersenen. De neuronen die normaal gesproken zeggen "het object is hier", begonnen te zeggen "het object is daar".
  • De conclusie: Het gebied dat normaal alleen kijkt naar wat een object is, past ook de positie aan op basis van wat je net hebt gezien. Het is alsof de herkenningscentrale een interne kompasnaald heeft die door de beweging wordt gekalibreerd. Ze weten precies waar iets is, niet alleen op basis van de pixels op je oog, maar op basis van hoe je het ervaart.

3. En de Kunstmatige Intelligentie (AI)?

Hier wordt het spannend. De onderzoekers keken naar de beste AI-modellen ter wereld (zoals die gebruikt worden in zelfrijdende auto's of foto-apps).

  • Het probleem: Als je dezelfde illusie toepast op deze AI-modellen (je laat ze eerst naar beweging kijken en dan naar een stilstaand object), gebeurt er niets. De AI zegt: "Het object staat precies op dezelfde pixel-coördinaten."
  • Waarom? Deze AI-modellen zijn als een super-snel fototoestel zonder brein. Ze kijken alleen naar de pixels. Als de pixels niet bewegen, denkt de AI dat er niets veranderd is. Ze missen de "magie" van de hersenen die de context en de geschiedenis van de beweging meeneemt in de berekening.

4. De Creatieve Proef: "Neuraliseren"

De onderzoekers deden een experiment om te zien of AI het wel kan, als ze het dwingen.

  • Ze namen de regels uit de hersenen van de aap (hoe de neuronen reageren op beweging) en pasten die handmatig toe op de AI.
  • Het resultaat: Zodra ze de AI "hersenachtig" maakten, begon de AI ook de illusie te zien! De AI zag de stilstaande auto ineens verschuiven.
  • Betekenis: Dit bewijst dat de AI-modellen de ruimte hebben om dit te doen, maar dat ze de mechaniek (de dynamiek) missen om het zelf te bedenken.

Samenvatting in één zin

Onze hersenen zijn slimme detectives die kijken naar wat ze zien én wat ze net hebben gezien om te weten waar iets is, terwijl huidige AI-modellen nog steeds als simpele camera's werken die alleen kijken naar wat er nu op het scherm staat.

Waarom is dit belangrijk?
Dit onderzoek laat zien dat er nog een enorme kloof is tussen hoe wij zien en hoe computers zien. Om echte slimme robots of AI te bouwen die net zo goed kunnen navigeren in een dynamische wereld als wij, moeten we ze niet alleen leren "zien", maar ook leren "voelen" hoe beweging hun waarneming beïnvloedt.