The macaque IT cortex but not current artificial vision networks encode object position in perceptually aligned coordinates

El estudio demuestra que la corteza IT de los macacos codifica la posición de los objetos en coordenadas perceptuales alineadas con la ilusión de movimiento, una capacidad de adaptación dependiente del historial que falta en las redes neuronales artificiales de visión actuales.

Elizaveta Yakubovskaya, Hamidreza Ramezanpour, Matteo Dunnhofer, Kohitij Kar

Publicado Fri, 13 Ma
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

¡Claro que sí! Imagina que este estudio es como una investigación de detectives que busca entender cómo nuestro cerebro "ve" dónde están las cosas, y por qué las computadoras aún no logran hacerlo igual que nosotros.

Aquí tienes la explicación de este artículo científico, traducida a un lenguaje sencillo y con algunas analogías divertidas:

🕵️‍♂️ El Gran Misterio: ¿Dónde está el objeto?

Imagina que estás en una habitación y ves una manzana sobre la mesa. Tu cerebro necesita hacer dos cosas al mismo tiempo:

  1. Decirte qué es: "¡Es una manzana!" (Identidad).
  2. Decirte dónde está: "¡Está a la derecha!" (Posición).

Durante décadas, los científicos pensaron que el cerebro tenía dos equipos separados para esto:

  • El Equipo "Qué" (Ventral): Se encargaba de reconocer objetos (como un experto en identificación).
  • El Equipo "Dónde" (Dorsal): Se encargaba de la ubicación y el movimiento (como un GPS).

Pero, ¿y si el Equipo "Qué" también sabe exactamente dónde están las cosas, pero de una forma que coincide con lo que percibimos nosotros, no solo con lo que ven los ojos?

🎢 El Truco del "Efecto de Movimiento" (La Ilusión)

Para probar esto, los científicos usaron un truco de magia visual llamado Efecto de Movimiento (Motion Aftereffect).

La analogía de la montaña rusa:
Imagina que estás en una montaña rusa que gira hacia la derecha durante mucho tiempo. Cuando te bajas y te quedas quieto, sientes que el suelo gira hacia la izquierda. ¡Tu cerebro sigue "adaptado" al movimiento anterior!

En el experimento:

  1. Los participantes (humanos y monos) miraron patrones que se movían hacia la derecha durante 30 segundos.
  2. Luego, se les mostró una foto estática de un objeto (como un oso o un coche) que no se movía en absoluto.
  3. El resultado: ¡Todos juraron que el objeto estático se había movido hacia la izquierda!

El ojo vio el objeto en el mismo lugar (píxel por píxel), pero el cerebro sintió que estaba en otro sitio.

🧠 Lo que descubrieron en el cerebro de los monos

Los científicos grabaron las neuronas de la parte del cerebro llamada Corteza IT (el "Equipo Qué").

  • La sorpresa: Cuando los monos vieron el objeto estático después de la adaptación, las neuronas de la Corteza IT cambiaron su mensaje. En lugar de decir "el objeto está en el centro", el grupo de neuronas dijo: "¡El objeto se movió a la izquierda!".
  • La conclusión: La Corteza IT no solo dice "qué es", sino que también dice "dónde está" de una manera que coincide con nuestra percepción, no solo con la realidad física de la imagen. Es como si el cerebro tuviera un "GPS interno" que se recalibra según lo que acabamos de ver.

🤖 ¿Y las Inteligencias Artificiales (IA)?

Aquí es donde la historia se pone interesante. Los científicos probaron si las redes neuronales artificiales (las IAs que usan en los coches autónomos y reconocimiento de imágenes) hacían lo mismo.

  • La prueba: Le mostraron a las IAs la misma secuencia: movimiento a la derecha, luego foto estática.
  • El resultado: Las IAs no se confundieron. Para ellas, el objeto seguía exactamente en el mismo lugar. No tuvieron el "efecto de montaña rusa".
  • El problema: Las IAs actuales son como cámaras de seguridad muy rápidas. Si la imagen no cambia de píxeles, para ellas el objeto no se movió. Les falta la "magia" de la adaptación biológica.

🛠️ El Experimento de "Neuralización"

¿Podemos arreglar a la IA? Los científicos probaron algo genial:

  1. Tomaron las reglas matemáticas de cómo las neuronas de los monos cambiaron su actividad.
  2. Las aplicaron "por encima" de la IA (como ponerle unas gafas especiales).
  3. Resultado: ¡La IA empezó a ver el objeto movido hacia la izquierda!

Esto demuestra que las IAs podrían tener esta capacidad, pero sus arquitecturas actuales no la incluyen naturalmente. Les falta el "ingrediente secreto" que tienen los cerebros biológicos: la capacidad de reorganizar su mapa mental basado en la historia reciente de lo que han visto.

💡 En resumen: ¿Qué nos enseña esto?

  1. Nuestro cerebro es un artista, no una cámara: No solo registra la realidad; la interpreta y la ajusta basándose en lo que acabamos de experimentar. La Corteza IT es clave en esto.
  2. La IA tiene un "cepo" en su percepción: Las computadoras actuales son excelentes reconociendo objetos, pero son muy rígidas. No entienden que el contexto (como el movimiento anterior) cambia dónde "sienten" que está un objeto.
  3. El futuro: Para crear robots o IAs que vean el mundo como nosotros (con todas sus ilusiones y adaptaciones), necesitamos enseñarles a ser más flexibles y a "recordar" lo que vieron hace un segundo, no solo lo que ven ahora.

En una frase: Nuestro cerebro tiene un GPS que se recalibra solo cuando nos mareamos, pero las computadoras aún no tienen ese sistema de navegación "humano".