El idioma de la conversación influye en la ‘sincronización’ de nuestros cerebros
Expertos del centro de investigación vasco BCBL han demostrado por primera vez que la forma en la que se conecta la actividad de dos cerebros depende de si el diálogo tiene lugar en la lengua nativa o en una extranjera.
Los investigadores han comprobado que la forma en la que se asemeja la actividad de dos cerebros depende de la lengua usada en la conversación. / Pixabay
Mientras dos personas hablan, sus cerebros comienzan a trabajar de forma simultánea, sincronizándose y estableciendo un vínculo único. Es lo que en neurociencia se llama sincronización cerebral.
Una nueva investigación realizada por el Basque Center on Cognition, Brain and Language (BCBL) de San Sebastián y publicada en la revista Cortex confirma que este fenómeno depende de la lengua que usamos para comunicarnos.
El estudio, realizado con la colaboración de varias instituciones internacionales como la Universidad de Toronto (Canadá) y la Universidad Nebrija de Madrid, ha permitido a los científicos analizar cómo ocurre la sincronía de las ondas cerebrales en contextos lingüísticos distintos.
La alineación de las ondas cerebrales ocurre de forma diferente cuando la conversación se realiza en una lengua nativa o en una extranjera
Así, los expertos han comprobado por primera vez que la forma en la que se sincroniza o asemeja la actividad de dos cerebros depende de la lengua usada en la conversación.
Este trabajo, liderado por Alejandro Pérez del BCBL, se suma a otro anterior realizado en 2017, en el que se describió el fenómeno de la sincronización cerebral en la comunicación entre dos personas que hablan en su lengua nativa.
Al igual que en el primer experimento, los investigadores situaron, separadas por un biombo, a 60 personas en parejas del mismo sexo que no se conocían entre sí y con edades y características demográficas similares.
Siguiendo un guion, las parejas entablabaron una conversación de temática general alternado la lengua nativa con la extranjera. A través de la electroencefalografía (EEG) –una prueba no invasiva que analiza la actividad eléctrica del cerebro–, los científicos midieron la actividad de las ondas cerebrales simultáneamente.
“Hemos comprobado cómo la alineación de las ondas cerebrales ocurre de forma diferente cuando la conversación se realiza en una lengua nativa o en una extranjera. Este estudio nos ha permitido avanzar y demostrar que la sincronía cerebral depende del contexto lingüístico”, explica a SINC Pérez.
“Las áreas cerebrales que mejor se acoplan entre los dos cerebros son distintas cuando se usa una lengua extranjera o una nativa”, añade el experto. “Este nuevo descubrimiento plantea muchas interrogantes y nuevas líneas de investigación en neurociencia”.
Sincronizarse para entender al interlocutor
Hablar una lengua extranjera hace que nuestros cerebros se alineen de una forma diferente para entender al interlocutor. “Los cerebros de dos personas que hablan una lengua foránea establecen un vínculo neuronal diferente a cuando emplean su lengua nativa con el fin de comprender al interlocutor”, asegura Pérez.
Aunque no están todavía claras las razones concretas por las que este hecho ocurre, los responsables del estudio apuestan principalmente a que se debe a las denominadas estrategias atencionales conjuntas, un fenómeno esencial para codificar y procesar la información de forma coordinada, específico para cada lengua.
“Cuando una conversación se lleva a cabo en la lengua nativa, ambos interlocutores atienden a esta de una forma más global, centrándose en las oraciones y el contenido global del mensaje”, subraya Jon Andoni Duñabeitia, coautor del estudio.
Gracias a este trabajo se abre la posibilidad futura de cuantificar la comunicación verbal entre dos personas
Sin embargo, cuando se realiza en una lengua extranjera, los recursos atencionales se centran principalmente en otros niveles lingüísticos más complejos para las personas no nativas, como los sonidos y las palabras.
“En este último contexto comunicativo necesitamos reconfigurar nuestras estrategias atencionales para entendernos mutuamente y eso puede tener relación directa con la diferencia en las áreas que se acoplan durante la conversación”, propone Duñabeitia.
Implicaciones futuras
Para los autores, gracias a este trabajo se abre la posibilidad futura de cuantificar la comunicación verbal entre dos personas. “El procesamiento de señales en tiempo real y el abaratamiento de los aparatos que miden la actividad cerebral permitirán que existan sensores integrados en los propios audífonos de los ordenadores”, afirma Alejandro Pérez.
“Esto ofrecerá una evaluación cuantitativa sobre la calidad –implicación personal– y características –idioma o carga emocional– de la interacción verbal a través de herramientas de comunicación online como Skype”, concluye Pérez.
Referencia bibliográfica:
Alejandro Pérez, Guillaume Dumas, Melek Karadag, Jon Andoni Duñabeitia, (2019). Differential brain-to-brain entrainment while speaking and listening in native and foreign languages. Cortex, Volume 111, 303-315. https://doi.org/10.1016/j.cortex.2018.11.026.
No hay comentarios:
Publicar un comentario