top of page

Les neuroscientifiques seront-ils capables de lire dans l’esprit humain à l’avenir ?



Another Brick in the Wall, Part 1" de Pink Floyd Alors que les accords de la chanson remplissaient la salle d'opération, les neuroscientifiques du centre médical d'Albany enregistraient soigneusement l'activité des électrodes implantées dans le cerveau des patients subissant une opération chirurgicale pour l'épilepsie.

Objectif ? Capter l'activité électrique des régions du cerveau adaptées aux caractéristiques de la musique telles que le ton, le rythme, l'harmonie et les mots, et voir si elles peuvent recréer ce que le patient entend.< /p>

Plus d'une décennie plus tard, après que des neuroscientifiques de l'Université de Californie à Berkeley ont analysé les données de 29 de ces patients, la réponse est clairement oui.

Après tout, ce n'était qu'une brique dans le mur" La phrase apparaît visiblement dans la chanson reconstituée, ses rythmes intacts et les mots boueux mais déchiffrables. Pour la première fois, des chercheurs ont reconstruit une chanson reconnaissable à partir d'enregistrements cérébraux.

La reconstruction démontre la faisabilité de l'enregistrement et de la traduction des ondes cérébrales pour capturer les éléments musicaux de la parole ainsi que les syllabes. Chez l'homme, ces éléments musicaux (rythme, accentuation, accentuation et intonation), appelés prosodie, elle porte des significations que les mots seuls ne peuvent transmettre.

Étant donné que ces enregistrements d'électroencéphalographie intracrânienne (iEEG) ne peuvent être réalisés qu'à partir de la surface du cerveau (aussi près que possible des centres auditifs), personne ne pourra écouter les chansons dans votre tête dans un avenir proche.

Mais pour les personnes qui ont des problèmes de communication dus à une paralysie ou à une paralysie, de tels enregistrements à partir d'électrodes à la surface du cerveau pourraient aider à reproduire la musicalité de la parole qui manque dans les reconstructions robotiques actuelles.

C'est un excellent résultat", a déclaré Robert Knight, neuroscientifique à l'Institut de neurosciences Helen Wills et professeur de psychologie à l'Université de Berkeley, qui a mené la recherche avec le chercheur postdoctoral Ludovic Bellier. dit-il. "L'une des choses que je pense à propos de la musique est qu'elle a un contenu prosodique et émotionnel. À mesure que tout ce domaine des interfaces cerveau-machine progresse, cela vous donne un moyen d'ajouter de la musicalité aux futurs implants cérébraux pour les personnes qui en ont besoin, qu'elles soient atteintes de SLA ou quelqu'un d'autre. Un autre trouble neurologique ou développemental qui affecte négativement la production vocale. Cela vous donne la possibilité de décoder non seulement le contenu linguistique, mais aussi une partie du contenu prosodique du discours, une partie de l'affect. Je pense que c'est vraiment là que nous commençons à résoudre ce problème. le code est clair.

À mesure que les techniques d'enregistrement cérébral s'améliorent, il sera peut-être un jour possible de réaliser de tels enregistrements sans ouvrir le cerveau en utilisant des électrodes sensibles fixées sur le cuir chevelu. Il a déclaré qu'il pouvait mesurer l'activité cérébrale pour la détecter, mais que l'approche prenait au moins 20 secondes pour identifier une seule lettre, ce qui rend la communication laborieuse et difficile.


Les techniques non invasives ne sont pas assez précises aujourd'hui. Espérons qu'à l'avenir, nous pourrons lire l'activité dans les parties les plus profondes du cerveau avec une bonne qualité de signal pour les patients, simplement grâce à des électrodes placées à l'extérieur du crâne. Mais nous en sommes loin." à partir de là" dit Bellier.

Bellier, Knight et leurs collègues ont rapporté les résultats aujourd'hui dans la revue PLOS Biology et "une autre brique dans le mur de notre compréhension du traitement de la musique dans le cerveau humain ". Ils ont déclaré avoir ajouté


Lisez-vous dans ses pensées ? Pas encore.

Les interfaces cerveau-machine utilisées aujourd'hui pour aider les gens à communiquer lorsqu'ils ne peuvent pas parler peuvent décoder des mots, mais les phrases produites ont une qualité robotique qui ressemble au son émis par le regretté Stephen Hawking lorsqu'il utilisait un appareil générateur de parole.

Bellier a déclaré : "À l'heure actuelle, la technologie ressemble davantage à un clavier pour l'esprit." dit-il. "Vous ne pouvez pas lire vos pensées sur le clavier. Il faut appuyer sur les boutons. Et cela semble un peu robotique ; Bien sûr, il y a moins de ce que j'appelle la liberté d'expression.

Bellier a besoin de savoir. Il joue de la musique depuis son enfance ; batterie, guitare classique, piano et basse, à un moment donné, il jouait dans un groupe de heavy metal. Lorsque Knight lui a demandé de travailler sur la musicalité du discours, Bellier a déclaré : « Je suis sûr que j'étais très excité quand j'ai reçu l'offre.

En 2012, Knight, le chercheur postdoctoral Brian Pasley et ses collègues sont devenus les premiers à reconstruire les mots qu'une personne entend à partir des seuls enregistrements de l'activité cérébrale.

D'autres chercheurs ont récemment poussé les travaux de Knight beaucoup plus loin. Le neurochirurgien de l'UC San Francisco et co-auteur principal de l'article de 2012, Eddie Chang, a utilisé des mots affichés pour reconstruire le discours prévu d'un patient paralysé. signaux de la zone motrice du cerveau associés aux mouvements de la mâchoire, des lèvres et de la langue. sur un écran d'ordinateur.

Cette étude, rapportée en 2021, a utilisé l'intelligence artificielle pour interpréter les enregistrements cérébraux d'un patient essayant de vocaliser une phrase basée sur une séquence de 50 mots.


Même si la technique de Chang a été couronnée de succès, la nouvelle étude suggère que les enregistrements des régions auditives du cerveau, où tous les aspects du son sont traités, pourraient également capturer d'autres aspects de la parole qui sont importants dans la communication humaine.

Bellier a déclaré : "Le décodage des cortex auditifs, qui sont plus proches de l'acoustique des sons, par opposition au cortex moteur, qui est plus proche des mouvements effectués pour créer l'acoustique de la parole, est extrêmement prometteur." il a ajouté. "Cela ajoutera de la couleur à ce qui est décodé.

Pour cette nouvelle étude, Bellier a réanalysé les enregistrements cérébraux obtenus alors que les patients écoutaient un segment d'environ trois minutes d'une chanson de Pink Floyd de l'album The Wall de 1979. 11100000 - 0000-0000-0000-000000000111_. Il espérait réellement reconstruire des phrases musicales grâce à des modèles de décodage basés sur la régression, allant au-delà des études précédentes qui testaient si les modèles de décodage pouvaient identifier différents morceaux et genres musicaux.

Bellier a souligné que l'étude, qui a utilisé l'intelligence artificielle pour décoder l'activité cérébrale puis encoder une reproduction, n'a pas seulement créé une boîte noire pour synthétiser la parole. Il et ses collègues ont également exploré de nouveaux domaines. du cerveau impliqué dans la détection du rythme (comme le son d'une guitare) et a découvert que des parties du cortex auditif – le gyrus temporal supérieur, situé juste derrière et au-dessus de l'oreille – étaient détectées. - répond à l'apparition d'une voix ou d'un synthétiseur, tandis que d'autres zones répondent à une voix soutenue.

Les chercheurs ont également confirmé que le côté droit du cerveau est plus sensible à la musique que le côté gauche.

Knight a déclaré : « Le langage se trouve principalement dans le cerveau gauche. La musique, en revanche, est distribuée davantage avec une tendance vers la droite.» dit-il.

Bellier a déclaré : "Il n'était pas clair que la même chose se produirait avec des stimuli musicaux." dit. "Nous confirmons donc ici qu'il ne s'agit pas seulement de quelque chose de spécifique à la parole, mais que c'est plus fondamental pour le système auditif et la façon dont il traite à la fois la parole et la musique.

Knight lance de nouvelles recherches pour comprendre les circuits cérébraux qui permettent à certaines personnes aphasiques suite à un accident vasculaire cérébral ou à une lésion cérébrale de communiquer en chantant lorsqu'elles ne trouvent pas les mots pour s'exprimer.

Comments


Articles les plus lus

Derniers messages

bottom of page