por Universidad Rockefeller

Cuando un niño te sonríe es casi imposible no responder. Esta reacción automática a las expresiones faciales es parte del movimiento de ida y vuelta que nos permite comprender los sentimientos y estados mentales de los demás.

Los rostros son tan importantes para la comunicación social que hemos desarrollado células cerebrales especializadas solo para ellos ConócelosComo descubrió Winrich Freiwald de la Universidad Rockefeller.

Es sólo uno de una serie de hallazgos innovadores de la última década que han llevado a importantes avances en la neurociencia de la percepción facial.

Ahora él y su equipo del Laboratorio de Sistemas Neurales han centrado su atención en la contraparte de la percepción facial: las expresiones faciales. Hasta ahora se desconoce en gran medida cómo trabajan juntos los circuitos neuronales del cerebro y los músculos faciales para crear una sonrisa.

Como se publicó en cienciasEl equipo de Freiwald descubrió la red motora facial y los mecanismos neuronales que la mantienen en funcionamiento.

En este primer estudio sistemático de los mecanismos neuronales del control del movimiento facial, encontraron que las regiones cerebrales de nivel inferior y superior están involucradas en la codificación de diferentes tipos de gestos faciales, contrariamente a las suposiciones de larga data. Se pensaba que estas actividades estaban separadas, con expresiones emocionales (como devolver una sonrisa) que se originaban en el lóbulo frontal medial, mientras que las acciones voluntarias (como comer o hablar) se originaban en el lóbulo frontal lateral.

“Entendíamos bien cómo hacer gestos faciales. recibir“Pero ahora comprendemos mucho mejor cómo se generan”, dice Freiwald, cuya investigación cuenta con el apoyo del Centro Price Family para el Cerebro Social de Rockefeller.

“Descubrimos que todas las regiones estaban involucradas en todo tipo de gestos faciales, pero operaban en sus propias líneas de tiempo distintas, lo que sugiere que cada región se adapta de manera única a la función que realiza”, dice la coautora principal Gina Ianni, ex miembro del laboratorio Freiwald y neuróloga residente en el Hospital de la Universidad de Pensilvania.

Investigar expresiones

Nuestra necesidad de comunicarnos a través de expresiones faciales es profunda, de hecho, llega hasta el tronco del encéfalo. Existe lo que se llama núcleo facial, que incluye las neuronas motoras que controlan los músculos faciales. También se extienden a múltiples áreas corticales, incluidas varias áreas de la corteza frontal, contribuyendo tanto a la función motora como al pensamiento complejo.

El trabajo neuroanatómico ha demostrado que existen múltiples regiones en la corteza cerebral que acceden directamente a los músculos de la expresión facial, una característica única de los primates, pero se desconoce en gran medida cómo contribuye específicamente cada región. Los estudios de personas con lesiones cerebrales sugieren que diferentes regiones pueden codificar diferentes movimientos faciales. Cuando las personas desarrollan daño en la corteza frontal lateral, por ejemplo, pierden la capacidad de realizar movimientos voluntarios, como hablar o comer, mientras que las lesiones en la corteza frontal medial resultan en una incapacidad para expresar emociones espontáneamente, como devolver una sonrisa.

“No pierden la capacidad de mover los músculos, sólo la capacidad de hacerlo en un contexto determinado”, dice Freiwald.

“Nos preguntamos si estas regiones podrían hacer contribuciones únicas a las expresiones faciales. Resulta que nadie había investigado esto realmente”, dice Ianni.

Adoptando un enfoque innovador diseñado por el laboratorio Freiwald, utilizaron un escáner de resonancia magnética funcional para visualizar la actividad cerebral de los macacos mientras producían expresiones faciales. Al hacerlo, identificaron tres regiones corticales que acceden directamente a los músculos faciales: la corteza motora cingulada (ubicada medialmente), la corteza primaria y premotora (ubicada lateralmente), así como la corteza somatosensorial.

Mapeo de la red motora facial.

Utilizando estos métodos, pudieron mapear una red motora facial que consiste en actividad neuronal de diferentes regiones de los lóbulos frontales (la corteza motora primaria lateral, la corteza premotora ventral y la corteza motora cingulada medial) y la corteza somatosensorial primaria, en el lóbulo parietal.

Utilizando este mapa objetivo, los investigadores pudieron registrar la actividad neuronal en cada área cortical mientras los monos producían expresiones faciales. Los investigadores estudiaron tres tipos de movimientos faciales: amenazar, morderse los labios y masticar. La mirada amenazadora de un macaco implica mirar al frente con la mandíbula abierta y los dientes expuestos, mientras que dibujar los labios implica curvarlos rápidamente mientras aplana las orejas contra el cráneo. Ambos son gestos faciales socialmente significativos y específicos del contexto que los macacos utilizan para navegar en las interacciones sociales. Masticar no es algo social ni emocional, sino algo voluntario.

Los investigadores utilizaron una variedad de estímulos dinámicos para provocar estas expresiones en el laboratorio, incluida la interacción directa con otros macacos, videos de otros macacos y avatares digitales artificiales controlados por los propios investigadores.

Pudieron vincular la actividad neuronal de estas áreas con el movimiento coordinado de áreas específicas de la cara: los ojos y las cejas; Boca superior e inferior. La parte inferior de la cara y las orejas.

Los investigadores descubrieron que las áreas corticales superiores e inferiores estaban involucradas en la producción de expresiones faciales emocionales y voluntarias. Sin embargo, no toda esta actividad fue igual: las neuronas de cada área se dispararon a un ritmo diferente al producir gestos faciales.

“Las regiones laterales, como la corteza motora primaria, albergan una dinámica neuronal rápida que cambia en el orden de milisegundos, mientras que las regiones centrales, como la corteza cingulada, albergan una dinámica neuronal lenta y estable que persiste durante un período mucho más largo”, dice Ianni.

En un trabajo relacionado basado en los mismos datos, el equipo lo documentó recientemente. con gente Las diferentes áreas corticales que gobiernan el movimiento facial trabajan juntas como una única red sensorial interconectada, ajustando su coordinación en función del movimiento que se produce.

“Esto sugiere que el control del movimiento facial es dinámico y flexible, en lugar de estar dirigido a lo largo de vías fijas e independientes”, dice Yurreria Vásquez, coautora principal y ex investigadora postdoctoral en el laboratorio de Freiwald.

“Esto va en contra de la opinión predominante de que funcionan en paralelo y por separado”, añade Freiwald. “Esto realmente enfatiza la conectividad de la red motora facial”.

Interfaces cerebro-máquina

Ahora que el laboratorio de Freiwald ha proporcionado importantes conocimientos sobre la percepción y expresión facial en experimentos separados, en el futuro le gustaría estudiar simultáneamente estos elementos complementarios de la comunicación social.

“Creemos que nos ayudará a comprender mejor las emociones”, dice. “Existe mucha controversia en este campo sobre cómo las señales motoras están relacionadas internamente con las emociones, pero creemos que si tienes una percepción en un extremo y una respuesta motora en el otro, las emociones de alguna manera ocurren en el medio. Nos gustaría encontrar las áreas que controlan los estados emocionales (tenemos ideas sobre dónde están) y luego entender cómo funcionan con las áreas motoras para generar diferentes tipos de comportamientos”.

Vásquez ve dos posibles vías futuras de investigación que pueden aprovechar sus hallazgos. El primero implica comprender cómo las señales sociales dinámicas (rostros, mirada), los estados internos y la recompensa afectan el sistema motor facial. Estos conocimientos serán cruciales para explicar cómo se toman las decisiones sobre la producción de expresiones faciales. El segundo se refiere al uso de esta red integrada para aplicaciones clínicas.

Los hallazgos también pueden ayudar a mejorar las interfaces cerebro-máquina.

“Al igual que con nuestro enfoque, estos dispositivos también implican implantar electrodos para decodificar señales cerebrales y luego traducir esa información en acciones, como mover una extremidad o un brazo robótico”, dice Freiwald.

“Descifrar las comunicaciones ha demostrado ser mucho más difícil. Dada la importancia de las expresiones faciales en la comunicación, sería muy útil disponer de dispositivos que puedan decodificar y traducir este tipo de señales faciales”.

“Espero que nuestro trabajo impulse el campo, aunque sea pequeño, hacia diseños de comunicación artificial más naturales y ricos que mejoren la vida de los pacientes después de una lesión cerebral”, añade Ianni.

fuente: Universidad Rockefeller

estudio original doi: 10.1126/ciencia.aea0890

Publicado anteriormente En futurity.org con Licencia Creative Commons

***

El mundo está cambiando rápidamente. Le ayudamos a seguir adelante.

Te enviaremos una publicación, 3 veces por semana.


Únase a The Good Men Project como miembro premium hoy.

Todos los miembros premium pueden ver The Good Men Project sin anuncios. ¿Necesitas más información? Lista completa de beneficios aquí.

Crédito de la imagen: iStock

esta publicación Cómo el cerebro crea expresiones faciales apareció primero en El proyecto de los hombres buenos.

Fuente