MADRID (EP). Aunque la vista tiene un sentido muy diferente al sonido, neurocientíficos del Centro Médico de la Universidad de Georgetown, en Estados Unidos, han descubierto que el cerebro humano aprende a dar sentido a estos estímulos de la misma manera.
Los investigadores dicen que, en un proceso de dos pasos, las neuronas en un área del cerebro aprenden la representación de los estímulos, y otra área categoriza esa entrada para atribuirle significado, como ver primero un coche sin techo y luego analizar ese estímulo para ubicarlo en la categoría de "descapotable".
Del mismo modo, cuando un niño aprende una nueva palabra, primero tiene que aprender el nuevo sonido y luego, en un segundo paso, aprender a entender las diferentes versiones (acentos, pronunciaciones, etcétera) de la palabra, pronunciadas por distintos miembros de la familia o por sus amigos, todos significan lo mismo y necesitan categorizarse juntos.
"Una ventaja computacional de este esquema es que permite al cerebro construir fácilmente sobre contenido previo para aprender información novedosa", dice el investigador principal del estudio, Maximilian Riesenhuber, profesor en el Departamento de Neurociencia de la Facultad de Medicina de la Universidad de Georgetown. Los coautores del estudio son el primer autor, Xiong Jiang; el estudiante graduado Mark A. Chevillet; y Josef P. Rauschecker, todos neurocientíficos de Georgetown.
Su estudio, publicado en 'Neuron', proporciona una fuerte evidencia de que el aprendizaje en visión y audición sigue principios similares. "Hace tiempo que intentamos dar sentido a los sentidos, estudiando cómo el cerebro representa nuestro mundo multisensorial", dice Riesenhuber.
En 2007, los investigadores describieron un modelo de dos pasos en el aprendizaje humano de las categorías visuales y el nuevo estudio ahora muestra que el cerebro parece usar el mismo tipo de mecanismos de aprendizaje a través de las modalidades sensoriales. Los hallazgos también podrían ayudar a los científicos a idear nuevos enfoques para restaurar los déficits sensoriales, dice Rauschecker, uno de los coautores.
"Saber cómo los sentidos aprenden el mundo puede ayudarnos a idear soluciones en nuestros cerebros muy plásticos -explica-. Si una persona no puede procesar una modalidad sensorial, por ejemplo, visión, debido a la ceguera, podría haber dispositivos de sustitución que permitan que la información visual se transforme en sonidos. Por lo tanto, un sentido incapacitado sería procesado por otros centros cerebrales sensoriales".
Los 16 participantes en este estudio fueron entrenados para categorizar llamadas de comunicación de monos, sonidos reales que significan algo para los monos, pero que son extraños en cuando a significado para los humanos. Los investigadores dividieron los sonidos en dos categorías etiquetadas con nombres sin sentido, basados en prototipos de dos categorías: llamados "coos" y "arcos armónicos".
Utilizando un sistema de transformación auditivo, los investigadores pudieron crear miles de combinaciones de llamadas de mono a partir de los prototipos, incluidas algunas llamadas muy similares que requerían que los participantes hicieran distinciones finas entre las llamadas. Aprender a categorizar correctamente los sonidos nuevos costó aproximadamente seis horas.
Antes y después del entrenamiento, se obtuvieron datos de fMRI de los voluntarios para investigar los cambios en la afinación neuronal en el cerebro que fueron inducidos por el entrenamiento de categorización. Se utilizaron técnicas avanzadas de fMRI, adaptación rápida de imágenes de resonancia magnética funcional (fMRI-RA) y análisis de patrones de múltiples voxeles junto con análisis de conectividad funcional y fMRI convencionales.
De esta forma, los investigadores pudieron ver dos conjuntos distintos de cambios: una representación de las llamadas de mono en la corteza auditiva izquierda y un análisis de ajuste que conduce a la selectividad de categoría para diferentes tipos de llamadas en la corteza prefrontal lateral.
"En nuestro estudio, utilizamos cuatro técnicas diferentes, en particular fMRI-RA y MVPA, para proporcionar de forma independiente y sinérgica resultados convergentes. Esto nos permitió obtener resultados sólidos incluso con una muestra pequeña", dice el coautor Jiang.
El procesamiento del sonido requiere discriminación en la acústica y cambios de ajuste a nivel de la corteza auditiva, un proceso que los investigadores dicen que es el mismo entre los humanos y los sistemas de comunicación animal. El uso de llamadas de mono en lugar de habla humana obligó a los participantes a clasificar los sonidos puramente sobre la base de la acústica en lugar de significado.
"En un nivel evolutivo, los humanos y los animales necesitan entender quién es amigo y quién es enemigo, y la vista y el sonido son parte integral de estos juicios", concluye Riesenhuber.