jueves, 16 de mayo de 2019

Neurocientíficos identifican una región del cerebro que codifica las restricciones espaciales - INVDES

Neurocientíficos identifican una región del cerebro que codifica las restricciones espaciales - INVDES

Logo

Neurocientíficos identifican una región del cerebro que codifica las restricciones espaciales


Para moverse por el mundo, es necesario tener una idea de su entorno, especialmente de las restricciones que restringen su movimiento: las paredes, el techo y otras barreras que definen la geometría del espacio navegable que lo rodea. Y ahora, un equipo de neurocientíficos ha identificado un área del cerebro humano dedicada a percibir esta geometría. Esta región del cerebro codifica las restricciones espaciales de una escena, a velocidades increíblemente rápidas, y probablemente contribuye al sentido instantáneo de nuestro entorno; orientándonos en el espacio, para que podamos evitar chocar con las cosas, descubrir dónde estamos y navegar de manera segura a través de nuestro entorno.
Esta investigación, publicada este lunes en ‘Neuron’, sienta las bases para comprender los complejos cálculos que hacen nuestros cerebros para ayudarnos a desplazarnos. Dirigido por científicos del Instituto de Comportamiento Mental Cerebral Mortimer B. Zuckerman y la Universidad Aalto en Finlandia, el trabajo también es relevante para el desarrollo de tecnología de inteligencia artificial destinada a imitar los poderes visuales del cerebro humano.
“La visión nos da una sensación casi instantánea de dónde estamos en el espacio, y en particular de la geometría de las superficies (el suelo, las paredes) que limitan nuestro movimiento. Se siente sin esfuerzo, pero requiere la actividad coordinada de múltiples regiones cerebrales –dice el autor principal del artículo, Nikolaus Kriegeskorte, investigador principal del Instituto Zuckerman de Columbia–. La forma en que las neuronas trabajan juntas para darnos este sentido de nuestro entorno sigue siendo un misterio. Con este estudio, estamos un paso más cerca de resolver ese rompecabezas”.
Para averiguar cómo percibe el cerebro la geometría de sus alrededores, el equipo de investigación pidió a los voluntarios que miren imágenes de diferentes escenas tridimensionales. Una imagen podía representar una habitación típica, con tres paredes, un techo y un piso. Luego, los investigadores cambiaron sistemáticamente la escena: eliminando la pared, por ejemplo, o el techo. Simultáneamente, monitorearon la actividad cerebral de los participantes a través de una combinación de dos tecnologías de imagen cerebral de vanguardia en las instalaciones de neuroimagen de Aalto en Finlandia.
“Al hacer esto repetidamente para cada participante, ya que modificamos metódicamente las imágenes, podríamos reconstruir cómo codificaron sus cerebros cada escena”, apunta Linda Henriksson, primera autora del artículo y profesora de Neurociencia e Ingeniería Biomédica en la Universidad de Aalto.
Nuestro sistema visual está organizado en una jerarquía de etapas. La primera etapa realmente se encuentra fuera del cerebro, en la retina, que puede detectar características visuales simples. Las etapas posteriores en el cerebro tienen el poder de detectar formas más complejas. Al procesar señales visuales a través de múltiples etapas, y mediante la comunicación repetida entre las etapas, el cerebro forma una imagen completa del mundo, con todos sus colores, formas y texturas.
En la corteza, las señales visuales se analizan primero en un área llamada la corteza visual primaria. Luego, se pasan a varias áreas corticales de nivel superior para análisis adicionales. El área de lugar occipital (OPA, por sus siglas en inglés), una etapa de procesamiento cortical de nivel intermedio, demostró ser particularmente interesante en las exploraciones cerebrales de los participantes.
“Estudios anteriores habían demostrado que las neuronas OPA codifican escenas, en lugar de objetos aislados”, apunta el doctor Kriegeskorte, también profesor de Psicología y Neurociencia y director de Imágenes Cognitivas en Columbia. “Pero aún no comprendíamos qué aspecto de las escenas estaban codificadas en los millones de neuronas de esta región”, señala.
Un área cerebral que se centra en la geometría de la superficie
Después de analizar los escáneres cerebrales de los participantes, los doctores Kriegeskorte y Henriksson encontraron que la actividad OPA reflejaba la geometría de las escenas. Los patrones de actividad de la OPA reflejaron la presencia o ausencia de cada componente de la escena (las paredes, el piso y el techo), transmitiendo una imagen detallada de la geometría general de la escena. Sin embargo, los patrones de actividad de la OPA no dependían de la apariencia de los componentes, las texturas de las paredes, el piso y el techo, lo que sugiere que la región ignora el aspecto de la superficie para centrarse únicamente en la geometría de la superficie.
La región del cerebro parecía realizar todos los cálculos necesarios para tener una idea del diseño de una habitación extremadamente rápido: en solo 100 milisegundos. “La velocidad con la que nuestros cerebros detectan la geometría básica de nuestro entorno es una indicación de la importancia de contar con esta información rápidamente –dice Henriksson–. Es clave para saber si estás dentro o fuera, o cuáles podrían ser tus opciones para la navegación”.
Los conocimientos adquiridos en este estudio fueron posibles mediante el uso conjunto de dos tecnologías de imágenes complementarias: imágenes de resonancia magnética funcional (RMf) y magnetoencefalografía (MEG). La fMRI mide los cambios locales en los niveles de oxígeno en la sangre, que reflejan la actividad neuronal local.
Puede revelar patrones de actividad espacial detallados a una resolución de un par de milímetros, pero no es muy preciso en el tiempo, ya que cada medición de RMF refleja la actividad promedio en un periodo de cinco a ocho segundos. Por el contrario, MEG mide los campos magnéticos generados por el cerebro. Puede rastrear la actividad con una precisión temporal de milisegundos, pero no proporciona una imagen tan detallada espacialmente.
“Cuando combinamos estas dos tecnologías, podemos abordar dónde ocurre la actividad y cómo de rápido emerge”, dice el doctor Henriksson, quien recopiló los datos de imágenes en la Universidad Aalto. En el futuro, el equipo de investigación planea incorporar tecnología de realidad virtual para crear entornos 3D más realistas para que los participantes experimenten. También planean construir modelos de redes neuronales que imiten la capacidad del cerebro para percibir el entorno.
“Nos gustaría juntar estas cosas y construir sistemas de visión por ordenador que sean más como nuestros propios cerebros, sistemas que cuenten con maquinaria especializada como lo que observamos aquí en el cerebro humano para detectar rápidamente la geometría del ambiente”, concluye Kriegeskorte.
Fuente: infosalus.com

No hay comentarios:

Publicar un comentario