top of page

¿Podrán los neurocientíficos leer la mente humana en el futuro?



Otro ladrillo en la pared, Parte 1" de Pink Floyd Mientras los acordes de la canción llenaban el quirófano, los neurocientíficos del Albany Medical Center registraron cuidadosamente la actividad de los electrodos implantados en el cerebro de pacientes sometidos a cirugía de epilepsia.

¿Propósito? Captar la actividad eléctrica de las regiones del cerebro sintonizadas con las características de la música, como el tono, el ritmo, la armonía y las palabras, y ver si pueden recrear lo que el paciente escucha.< /p>

Más de una década después, después de que neurocientíficos de la Universidad de California en Berkeley analizaran datos de 29 de estos pacientes, la respuesta es claramente sí.

"Después de todo, era sólo un ladrillo en la pared" La frase aparece visiblemente en la canción reconstruida, sus ritmos intactos y las palabras confusas pero descifrables. Por primera vez, los investigadores han reconstruido una canción reconocible a partir de grabaciones cerebrales.

La reconstrucción demuestra la viabilidad de grabar y traducir ondas cerebrales para capturar elementos musicales del habla, así como sílabas. En los humanos, estos elementos musicales (ritmo, acentuación, acentuación y entonación), llamados La prosodia conlleva significados que las palabras por sí solas no pueden transmitir.

Dado que estas grabaciones de electroencefalografía intracraneal (iEEG) solo se pueden realizar desde la superficie del cerebro (lo más cerca posible de los centros auditivos), nadie podrá escuchar las canciones en su cabeza en un futuro próximo.

Pero para las personas que tienen problemas de comunicación debido a parálisis o parálisis, este tipo de grabaciones de electrodos en la superficie del cerebro podrían ayudar a reproducir la musicalidad del habla que falta en las reconstrucciones similares a robots de hoy.

Este es un gran resultado", afirmó Robert Knight, neurocientífico del Instituto de Neurociencia Helen Wills y profesor de psicología de UC Berkeley, quien realizó la investigación con el investigador postdoctoral Ludovic Bellier. dijo. "Una de las cosas que pienso sobre la música es que tiene prosodia y contenido emocional. A medida que avanza todo este campo de las interfaces cerebro-máquina, esto brinda una manera de agregar musicalidad a futuros implantes cerebrales para personas que lo necesitan, ya sea que tengan ELA o alguien más. Otro trastorno neurológico o del desarrollo que afecta negativamente la producción del habla. Esto le da la capacidad de decodificar no sólo el contenido lingüístico, sino también parte del contenido prosódico del discurso, parte del afecto. Creo que ahí es realmente donde empezamos a resolver este problema. El código es claro.

A medida que mejoren las técnicas de registro cerebral, algún día será posible realizar dichos registros sin abrir el cerebro utilizando electrodos sensibles conectados al cuero cabelludo. Dijo que podía medir la actividad cerebral para detectarla, pero que el enfoque requería al menos 20 segundos para identificar una sola letra, lo que hace que la comunicación sea laboriosa y difícil.


"Las técnicas no invasivas no son lo suficientemente precisas hoy en día. Esperemos que en el futuro podamos leer la actividad en partes más profundas del cerebro con buena calidad de señal para los pacientes, simplemente a través de electrodos colocados fuera del cráneo. Pero estamos lejos de eso”. desde allí " dijo Bellier.

Bellier, Knight y sus colegas publicaron los resultados hoy en la revista PLOS Biology y "otro ladrillo en la pared de nuestra comprensión del procesamiento de la música en el cerebro humano". ". Dijeron que agregaron


¿Estás leyendo su mente? Aún no.

Las interfaces cerebro-máquina que se utilizan hoy en día para ayudar a las personas a comunicarse cuando no pueden hablar pueden decodificar palabras, pero las oraciones producidas tienen una calidad robótica que se asemeja al sonido que hacía el difunto Stephen Hawking cuando usaba un dispositivo generador de voz.

Bellier dijo: "En este momento, la tecnología es más como un teclado para la mente". dijo. "No puedes leer tus pensamientos desde el teclado. Tienes que presionar los botones. Y suena como robótico; Por supuesto, hay menos de lo que yo llamo libertad de expresión”.

Bellier necesita saber. Ha tocado música desde su infancia; batería, guitarra clásica, piano y bajo, en un momento actuando en una banda de heavy metal. Cuando Knight le pidió que trabajara en la musicalidad del discurso, Bellier dijo: "Estoy seguro de que estaba Me emocioné mucho cuando recibí la oferta.

En 2012, Knight, el investigador postdoctoral Brian Pasley y sus colegas fueron los primeros en reconstruir palabras que una persona escucha únicamente a partir de grabaciones de la actividad cerebral.

Otros investigadores han llevado recientemente el trabajo de Knight mucho más allá. El neurocirujano de UC San Francisco y coautor principal del artículo de 2012, Eddie Chang, utilizó palabras mostradas para reconstruir el discurso previsto de un paciente paralizado. señales del área motora del cerebro asociadas con los movimientos de la mandíbula, los labios y la lengua. en la pantalla de una computadora.

Este estudio, publicado en 2021, utilizó inteligencia artificial para interpretar grabaciones cerebrales de un paciente que intentaba vocalizar una oración basada en una secuencia de 50 palabras.


Aunque la técnica de Chang tuvo éxito, el nuevo estudio sugiere que las grabaciones de las regiones auditivas del cerebro, donde se procesan todos los aspectos del sonido, también podrían capturar otros aspectos del habla que son importantes en la comunicación humana.

Bellier dijo: "La decodificación a partir de las cortezas auditivas, que están más cerca de la acústica de los sonidos, a diferencia de la corteza motora, que está más cerca de los movimientos realizados para crear la acústica del habla, es extremadamente prometedora". añadió. "Agregará algo de color a lo que se está decodificando".

Para el nuevo estudio, Bellier volvió a analizar las grabaciones cerebrales obtenidas mientras a los pacientes se les reproducía un segmento de aproximadamente 3 minutos de una canción de Pink Floyd del álbum de 1979 The Wall 11100000 - 0000-0000-0000-000000000111_. Esperaba reconstruir frases musicales a través de modelos de decodificación basados en regresión, yendo más allá de estudios previos que probaron si los modelos de decodificación podían identificar diferentes piezas y géneros musicales.

Bellier enfatizó que el estudio, que utilizó inteligencia artificial para decodificar la actividad cerebral y luego codificar una reproducción, no se limitó a crear una caja negra para sintetizar el habla. Él y sus colegas también exploraron nuevas áreas del cerebro implicadas en la detección del ritmo (como el sonido de una guitarra) y descubrieron que se detectaban partes de la corteza auditiva (la circunvolución temporal superior, situada justo detrás y encima de la oreja). - responde al inicio de una voz o un sintetizador, mientras que otras áreas responden a voces sostenidas.

Los investigadores también confirmaron que el lado derecho del cerebro está más en sintonía con la música que el lado izquierdo.

Knight dijo: “El lenguaje se encuentra principalmente en el lado izquierdo del cerebro. La música, en cambio, se distribuye más con tendencia a la derecha”. dijo.

Bellier dijo: "No estaba claro que sucedería lo mismo con los estímulos musicales". dijo. "Así que aquí confirmamos que esto no es sólo algo específico del habla, sino que es más fundamental para el sistema auditivo y la forma en que procesa tanto el habla como la música."

Knight está iniciando una nueva investigación para comprender los circuitos cerebrales que permiten a algunas personas con afasia debido a un derrame cerebral o una lesión cerebral comunicarse cantando cuando no pueden encontrar las palabras para expresarse.

Comments


Artículos más leídos

últimas publicaciones

bottom of page