Pour la première fois, des neuroscientifiques du Massachusetts Institute of Technology (MIT) ont identifié des neurones réagissant spécifiquement au chant dans le cerveau humain. Nous savions déjà qu’il existait des neurones sélectifs pour la parole et la musique, mais dans cette nouvelle étude, des neurones découverts dans le cortex auditif du lobe temporal semblent répondre à la combinaison spécifique de la voix et de la musique, mais pas à la parole régulière ou à la musique instrumentale.
La musique est une capacité essentiellement humaine, présente dans presque toutes les sociétés. Elle diffère considérablement de ses analogues les plus proches chez les animaux non humains. La musique fait du bien à notre corps, selon plusieurs études. Elle serait stimulante pour la mémoire à court terme, et elle permettrait globalement un meilleur apprentissage. L’effet de la musique est tel que la musicothérapie fait partie intégrante de certaines méthodes de traitement. Par exemple, elle est utilisée auprès de patients atteints de la maladie d’Alzheimer ou de Parkinson.
Les scientifiques se sont longtemps demandé si le cerveau humain contenait des mécanismes neuronaux spécifiques à la perception musicale, c’est-à-dire un processus de traitement particulier de ces informations. Par ailleurs, les êtres humains reconnaissant de manière quasi intuitive le chant, ces mécanismes neuronaux traitent-ils alors de manière identique tous les types de musiques ? Ces questions trouvent un début de réponse dans la nouvelle étude du MIT, publiée dans la revue Current Biology. Elle s’appuie sur une recherche antérieure de la même équipe, ayant identifié une population de neurones dans le cerveau répondant à la musique en général.
Cartographier les réponses cérébrales avec une nouvelle méthode d’analyse
En effet, les neuroscientifiques du MIT ont identifié une population neuronale dans le cortex auditif humain, au niveau du lobe temporal, répondant de manière sélective aux sons classés généralement par les personnes comme de la musique, mais pas à la parole ou à d’autres sons environnementaux.
La découverte a été rendue possible par une nouvelle méthode d’analyse conçue pour identifier les populations neuronales à partir de données d’imagerie par résonance magnétique fonctionnelle (IRMf). En effet, il faut savoir que la résolution spatiale de l’IRMf est grossière, car elle mesure le flux sanguin comme un indice de l’activité neuronale. En IRMf, les « voxels » — la plus petite unité de mesure — reflètent la réponse de centaines de milliers ou de millions de neurones. C’est donc une zone qui s’illumine à l’écoute d’un stimulus. L’équipe a alors modélisé les voxels d’IRMf comme des sommes pondérées de composants de réponses multiples, c’est-à-dire comme un mélange de plusieurs réponses neuronales sous-jacentes à cette zone mise en lumière.
Dans cette étude de 2015, les chercheurs ont utilisé l’IRMf pour scanner le cerveau des participants alors qu’ils écoutaient une collection de 165 sons, comprenant différents types de paroles et de musiques, ainsi que des sons quotidiens tels que le tapotement des doigts ou l’aboiement d’un chien. Dès lors, ils ont identifié six populations neuronales, chacune avec un modèle de réponse unique : une population répondait le plus à la musique, une autre à la parole et les quatre autres à différentes propriétés acoustiques telles que la hauteur et la fréquence.
Cependant, jusqu’à présent, nous savions peu de choses sur la façon dont les réponses neuronales sont organisées dans le domaine de la musique, par exemple s’il existe des sous-populations distinctes, sélectives pour des types ou des caractéristiques particuliers de la musique. C’est à ce niveau que se situe la nouvelle étude du MIT.
Combiner deux méthodes pour établir l’image cérébrale du chant
Bien que la neuroimagerie ait révélé une certaine ségrégation spatiale entre les réponses à la musique et à d’autres sons, un des auteures, Nancy Kanwisher, professeure de neurosciences cognitives au MIT, explique dans un communiqué : « La plupart des types de données que nous pouvons collecter peuvent nous dire qu’il y a un morceau de cerveau qui fait quelque chose, mais c’est assez limité. Nous voulons savoir ce qui y est représenté ».
À cette fin, l’équipe menée par le Dr Samuel Norman-Haignere a décidé de combiner les données de différentes approches pour surmonter leurs faiblesses respectives et combiner leurs forces : les données d’IRMf plus nombreuses et les données à plus haute résolution obtenues par électrocorticographie (ECoG). Cette dernière présente néanmoins un sérieux inconvénient : elle doit être réalisée par voie intracrânienne. En effet, l’activité électrique du cerveau est enregistrée par des électrodes placées à l’intérieur du crâne.
L’ECoG n’est généralement pas effectuée sur des humains tant la procédure est invasive. Cependant, dans le cas de l’épilepsie, la technique est utilisée pour surveiller les patients pendant plusieurs jours afin que les médecins puissent déterminer l’origine des crises avant d’opérer. Durant cette surveillance, si les patients sont d’accord, ils peuvent participer à des études consistant à mesurer leur activité cérébrale lors de l’exécution de certaines tâches.
C’est ainsi que les données de 15 participants écoutant une collection de 165 sons — les mêmes sons utilisés dans l’étude IRMf précédente — ont été recueillies au cours de plusieurs années. L’emplacement des électrodes de chaque patient a été déterminé par leurs chirurgiens, de sorte que certains n’ont capté aucune réponse à l’entrée auditive. Au total, les données de 272 électrodes ont été analysées.
À l’aide d’une nouvelle analyse statistique qu’ils ont développée, les chercheurs ont pu déduire les types de populations neuronales qui ont produit les données enregistrées par chaque électrode et établir une carte spatiale plus fiable et complète de chaque composant de la réponse générale au chant. McDermott, un des auteurs, précise que « cette façon de combiner l’ECoG et l’IRMf est une avancée méthodologique significative. Beaucoup de gens ont fait de l’ECoG au cours des 10 ou 15 dernières années, mais cela a toujours été limité par ce problème de rareté des enregistrements ».
Hotspot de chanson dans le cerveau
La région spécifique à la chanson, déterminée par les auteurs, est située au sommet du lobe temporal, à proximité de régions sélectives pour le langage et la musique. Rappelons que le chant se distingue de la parole par son contour d’intonation mélodique et sa rythmicité ; de la musique instrumentale par des résonances vocales et d’autres structures spécifiques à la voix. De plus, les mélodies vocales sont généralement mieux mémorisées que les mélodies instrumentales.
C’est pourquoi cet emplacement suggère que la population neuronale spécifique à la chanson peut répondre à des caractéristiques telles que la hauteur et le timbre, ou l’interaction entre les mots et la hauteur perçue, avant d’envoyer des informations à d’autres parties du cerveau pour un traitement ultérieur, selon les chercheurs. En d’autres termes, l’information du chant doit d’abord être traitée par les aires auditives primaires puis envoyée aux aires suivantes, sensibles au chant. Les chercheurs ont d’ailleurs mis en évidence un temps de latence plus long pour le chant contrairement à la parole, comme on peut le voir sur la figure ci-dessous. Mais ce mécanisme et ses caractéristiques doivent encore être éclaircis.
Vous voulez éliminer toutes les pubs du site tout en continuant de nous soutenir ?
C'est simple, il suffit de s'abonner !
20% de rabais pour les 1000 premiers ! Code : 0pub20
En révélant une population neuronale sélective pour la chanson, cette étude commence donc à démêler le code neuronal de la musique, soulevant de nombreuses questions pour les recherches futures.
Les chercheurs espèrent explorer comment la sélectivité du chant est apparue au cours de l’évolution. D’ailleurs, une précédente recherche a établi l’existence d’aspects du traitement de la musique pouvant refléter d’anciens mécanismes cérébraux partagés par les humains et de nombreuses autres espèces. La présente étude apporte ainsi des données supplémentaires pour explorer les liens possibles entre l’apprentissage vocal et la perception des battements rythmiques par les animaux.
Pour finir, les chercheurs travaillent avec le laboratoire du professeur Rebecca Saxe du MIT pour étudier si les nourrissons possèdent des zones sélectives pour la musique, dans l’espoir d’en savoir plus sur le moment et la manière dont ces régions du cerveau se développent.