Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Cartographie FMRI de l'activité cérébrale associée à la production vocale d'intervalles consonants et dissonants

Published: May 23, 2017 doi: 10.3791/55419

Summary

Les corrélats neuronaux de l'écoute des intervalles consonants et dissonants ont été largement étudiés, mais les mécanismes neuronaux associés à la production d'intervalles consonants et dissonants sont moins connus. Dans cet article, les tests comportementaux et l'IRMF sont combinés avec des tâches d'identification et de chant d'intervalle pour décrire ces mécanismes.

Abstract

Les corrélations neuronales de la perception de la consonance et de la dissonance ont été largement étudiées, mais pas les corrélations neuronales de la production de consonance et de dissonance. La manière la plus directe de production musicale est de chanter, mais, du point de vue de l'imagerie, il présente encore plus de défis que d'écoute car elle implique une activité motrice. Le chant précis des intervalles musicaux nécessite une intégration entre le traitement de la réaction auditive et le contrôle du moteur vocal afin de produire correctement chaque note. Ce protocole présente une méthode qui permet de surveiller les activations neuronales associées à la production vocale d'intervalles consonnes et dissonants. Quatre intervalles musicaux, deux consonnes et deux dissonants, sont utilisés comme stimuli, à la fois pour un test de discrimination auditive et une tâche qui consiste à écouter et à reproduire des intervalles donnés. Les participants, toutes les élèves vocales féminines au niveau de la conservatoire, ont été étudiés à l'aide de la fonction Magnetic ResOnance Imaging (fMRI) pendant l'exécution de la tâche de chant, la tâche d'écoute servant de condition de contrôle. De cette manière, on a observé l'activité des systèmes moteurs et auditifs et une mesure de la précision vocale lors de la tâche de chant a également été obtenue. Ainsi, le protocole peut également être utilisé pour suivre les activations associées au chant de différents types d'intervalles ou en chantant les notes requises plus précisément. Les résultats indiquent que les intervalles dissonants de chant requièrent une plus grande participation des mécanismes neuronaux responsables de l'intégration des retours externes des systèmes auditif et sensori-système que les intervalles de consonnes chantantes.

Introduction

Certaines combinaisons d'emplacements musicaux sont généralement reconnues comme consonnes, et elles sont généralement associées à une sensation agréable. D'autres combinaisons sont généralement appelées dissonantes et sont associées à un sentiment désagréable ou non résolu 1 . Bien qu'il semble raisonnable de supposer que l'inculturation et la formation jouent un rôle dans la perception de la consonance 2 , il a été démontré récemment que les différences dans la perception des intervalles et des accords consonneux et dissonants dépendent probablement moins de la culture musicale que ce qui était pensé auparavant 3 et peut-être Dérivent même de bases biologiques simples 4 , 5 , 6 . Afin d'éviter une compréhension ambiguë du terme consonance, Terhardt 7 a introduit la notion de consonance sensorielle, par opposition à la consonance dans un contexte musical, Où l'harmonie, par exemple, pourrait bien influer sur la réponse à un accord ou à un intervalle donné. Dans le présent protocole, seuls les intervalles isolés à deux notes ont été utilisés précisément pour individualiser les activations uniquement liées à la consonance sensorielle, sans interférence du traitement dépend du contexte 8 .

Les tentatives pour caractériser la consonance par des moyens purement physiques ont commencé avec Helmholtz 9 , qui a attribué la rugosité perçue associée aux accords dissonants au battement entre les composantes de fréquence adjacentes. Plus récemment, cependant, il a été démontré que la consonance sensorielle n'est pas seulement associée à l'absence de rugosité, mais aussi à l'harmonie, c'est-à-dire à l'alignement des partiels d'une tonalité ou d'un cordon donné avec ceux d'une tonalité inouïe d'un Fréquence inférieure 10 , 11 . Les études comportementales confirment que la consonance subjective est en effet affectée par le puSe basent sur des paramètres physiques, tels que la distance de fréquence 12 , 13 , mais une plus large gamme d'études ont démontré de façon concluante que les phénomènes physiques ne peuvent pas seulement tenir compte des différences entre la consonance perçue et la dissonance 14 , 15 , 16 , 17 . Toutes ces études, cependant, rapportent ces différences lors de l'écoute d'une variété d'intervalles ou d'accords. Une variété d'études utilisant la tomographie par émission de positons (PET) et l'imagerie par résonance magnétique fonctionnelle (IRMf) ont révélé des différences significatives dans les régions corticales qui deviennent actives lorsqu'on écoute des intervalles consonnes ou dissonants et des accords 8 , 18 , 19 , 20 . Le but de la présente étude est d'explorer les différencesDans l'activité cérébrale lors de la production, plutôt que de l'écoute, des intervalles consonants et dissonants.

L'étude du contrôle sensoriel-moteur pendant la production musicale implique généralement l'utilisation d'instruments de musique et, très souvent, il nécessite la fabrication d'instruments modifiés spécifiquement pour leur utilisation pendant la neuroimagerie 21 . Cependant, le chant semble fournir dès le départ un mécanisme approprié pour l'analyse des processus sensori-moteurs pendant la production musicale, car l'instrument est la voix humaine elle-même, et l'appareil vocal ne nécessite aucune modification pour être adapté pendant Imagerie 22 . Bien que les mécanismes neuronaux associés aux aspects du chant, tels que le contrôle de hauteur 23 , l'imitation vocale 24 , les changements adaptatifs induits par la formation 25 et l'intégration de la rétroaction externe 25 , , 27 , 28 , 29 , ont fait l'objet d'un certain nombre d'études au cours des deux dernières décennies, les corrélations neuronales des intervalles consoants et dissonants du chant ont été récemment décrites 30 . À cette fin, l'article actuel décrit un test de comportement conçu pour établir une reconnaissance adéquate des intervalles consonants et dissonants par les participants. Ceci est suivi d'une étude de l'IRMF sur les participants qui chantent une variété d'intervalles consoants et dissonants. Le protocole fMRI est relativement simple, mais, comme pour toutes les recherches sur l'IRM, il faut faire très attention pour configurer correctement les expériences. Dans ce cas, il est particulièrement important de minimiser les mouvements de la tête, de la bouche et des lèvres pendant les tâches de chant, ce qui rend l'identification des effets non directement liés à l'acte physique de chanter plus directement. Cette méthodologie peut être utilisée pourPortent sur les mécanismes neuronaux associés à une variété d'activités impliquant la production musicale en chantant.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Ce protocole a été approuvé par le comité de recherche, d'éthique et de sécurité de l'hôpital infantile de México "Federico Gómez".

1. Pretest comportemental

  1. Effectuez un test audiométrique standard et pur pour confirmer que tous les participants potentiels possèdent une audition normale (niveau d'audition de 20 dB (HL) sur les fréquences d'octave de -8 000 Hz). Utilisez l'inventaire Edinburgh Handedness 31 pour vous assurer que tous les participants sont droitiers.
  2. Génération de séquences d'intervalle.
    1. Produisez des tons purs couvrant deux octaves, G4-G6, en utilisant un programme d'édition de son.
      REMARQUE: Ici, le logiciel d'édition de son gratuit, source libre Audacity, est décrit. D'autres paquets peuvent être utilisés à cette fin.
      1. Pour chaque tonalité, ouvrez un nouveau projet dans le logiciel d'édition de son.
      2. Dans le menu "Générer", sélectionnez "Tone". Dans la fenêtre qui apparaît, sÉlire une forme d'onde sinusoïdale, une amplitude de 0,8 et une durée de 1 s. Entrez la valeur de la fréquence qui correspond à la note souhaitée ( par exemple, 440 Hz pour A4). Cliquez sur le bouton "OK".
      3. Dans le menu "Fichier", sélectionnez "Exporter l'audio". Dans la fenêtre qui s'ouvre, entrez le nom souhaité pour le fichier audio et choisissez WAV comme type de fichier souhaité. Cliquez sur "Enregistrer".
    2. Sélectionnez deux intervalles consonants et deux dissonants, selon le tableau 1 , de telle sorte que chaque intervalle consonne soit proche d'un intervalle dissonant.
      NOTE: Par exemple, considérez les intervalles de consonnes d'un cinquième et d'une octave parfaits et des intervalles dissonants d'un quatrième augmenté (tritone) et d'un septième majeur. Ce sont les intervalles choisis pour l'étude menée par les auteurs.
    3. Générer toutes les combinaisons possibles de notes correspondant à ces quatre intervalles entre G4 et G6.
      1. Pour eacH, ouvrez un nouveau projet dans le logiciel d'édition de son et utilisez "Import Audio" dans le menu "Fichier" pour importer les deux fichiers WAV à concaténer.
      2. Placez le curseur à n'importe quel point sur la deuxième tonalité et cliquez pour sélectionner. Cliquez sur "Sélectionner tout" dans le menu "Modifier". Sous le même menu, cliquez sur "Copier".
      3. Placez le curseur à n'importe quel point sur la première tonalité et cliquez sur. Dans le menu "Modifier", cliquez sur "Déplacer le curseur vers la fin de la piste", puis cliquez sur "Coller" dans le même menu. Exportez l'audio comme décrit à l'étape 1.2.1.3.
    4. Utilisez un générateur de séquence aléatoire pour produire des séquences consistant en 100 intervalles générés pseudo-aléatoirement de telle sorte que chacun des quatre intervalles différents se situe exactement 25 fois 30 . Pour ce faire, utilisez la fonction de permutation aléatoire dans le logiciel d'analyse statistique (voir la Table des matières ). Entrez les quatre intervAinsi que des arguments et créer une boucle qui répète ce processus 25 fois.
    5. Utilisez un logiciel de recherche comportementale pour générer deux courses distinctes. Chargez une séquence de 100 intervalles au format WAV pour chaque exécution et associez l'identification de chaque intervalle à un essai unique 30 .
      REMARQUE: Ici, le logiciel de recherche comportementale E-Prime est utilisé. D'autres logiciels de recherche comportementale équivalents peuvent être utilisés.
  3. Expliquez aux participants qu'ils écouteront deux séquences de 100 intervalles chacun, chaque séquence étant associée à une tâche différente et à son propre ensemble d'instructions. Dites aux participants que, dans les deux courses, l'intervalle suivant ne sera joué que lorsqu'une touche valide est enfoncée.
    REMARQUE: Une fois la séquence de reconnaissance d'intervalle commencée, elle ne doit pas être interrompue de sorte que le plan d'action soit aussi clair que possible pour tous les participants.
    1. Demander aux participants de s'asseoir devant un ordinateur portableEt porter le casque fourni. Utilisez des écouteurs intra-auriculaires de bonne qualité. Ajustez le niveau sonore à un niveau confortable pour chaque sujet.
    2. Si vous utilisez le logiciel de recherche comportementale décrit ici, ouvrez les tâches créées à l'étape 1.2.5 avec E-Run. Dans la fenêtre qui apparaît, entrez le numéro de session et de sujet et cliquez sur "OK". Utilisez le numéro de session pour distinguer entre les exécutions pour chaque participant.
      REMARQUE: les instructions pour la tâche en cours apparaîtront à l'écran, suivies du début de la tâche elle-même.
      1. Tout d'abord, dans une tâche de choix alternatif de 2 alternatives, il suffit que les participants identifient si les intervalles qu'ils entendent sont consonants ou dissonants. Demandez au participant de presser "C" sur le clavier de l'ordinateur pour la consonne et "D" pour le dissonant.
        REMARQUE: Étant donné que tous les participants devraient avoir une formation musicale au niveau conservatoire, ils devraient tous être en mesure de distinguer entre nettement consonne et manifestement disIntervalles sonants. La première tâche sert, en un sens, à confirmer que c'est bien le cas.
      2. Deuxièmement, dans une tâche de choix forcé de 4 alternatives, les participants identifient les intervalles eux-mêmes. Demandez aux participants d'appuyer sur les chiffres "4", "5", "7" et "8" sur le clavier de l'ordinateur pour identifier les intervalles d'un quatrième, d'un cinquième, d'un septième et d'une octave supérieurs augmentés, respectivement.
    3. À la fin de chaque tâche, appuyez sur "OK" pour enregistrer automatiquement les résultats pour chaque participant dans un fichier individuel E-DataAid 2.0 marqué avec le sujet et les numéros de session et avec l'extension .edat2.
    4. Utilisez un logiciel d'analyse statistique ( par exemple, Matlab, SPSS Statistics ou une alternative open-source) pour calculer les taux de réussite de chaque tâche ( c.-à-d. Le pourcentage de réponses réussies pour identifier si les intervalles étaient consonants ou dissonants, et également lors de l'identification de l'intSe forment eux-mêmes), individuellement et en groupe 32 .

2. Expérience fMRI

  1. Préparation à la session fMRI.
    1. Générer des séquences des mêmes intervalles qu'à l'étape 1.2.3, encore composée de deux tons purs consécutifs d'une durée de 1 s chacun.
      REMARQUE: la gamme vocale des participants doit maintenant être prise en compte, et toutes les notes doivent être confortablement comprises dans la gamme de chant de chaque participant.
      1. Utilisez un générateur de séquence aléatoire pour créer une séquence aléatoire de 30 intervalles pour les essais à l'écoute 30 . Pour les essais de chant, créez une séquence pseudorandomisée de 120 intervalles pour que les participants écoutent un intervalle spécifique et correspondent à cet intervalle cible avec leurs voix de chant. Pour la séquence pseudorandomisée, utilisez la même méthode que celle décrite à l'étape 1.2.4, avec les 4 intervalles comme arguments encore une fois, mais nOw répéter ce processus 30 fois.
      2. En suivant la même procédure qu'à l'étape 1.2.5, utilisez un logiciel de recherche comportementale pour générer trois courses distinctes, chacune consistant initialement à 10 essais de base de base silencieux, suivis de 10 essais consécutifs à l'écoute et enfin de 40 essais de chant consécutifs.
        REMARQUE: Au cours des essais de base, les quatre intervalles apparaissent dans un ordre aléatoire, tandis que pendant les essais de chant, les quatre intervalles apparaissent dans l'ordre pseudorandomisé, de telle sorte que chaque intervalle soit finalement présenté exactement 10 fois. La durée de chaque essai est de 10 s, donc une durée entière dure 10 min. Comme chaque sujet passe par 3 essais expérimentaux, la durée totale de l'expérience est de 30 min. Toutefois, pour permettre aux participants d'entrer et de quitter le scanner, pour le temps de mettre en place et de tester le microphone, pour le temps d'obtenir le balayage anatomique et pour le temps entre les fonctions, environ 1 heure de temps de scanner doit être attribuée à chaque participant .
    2. Expliquer aux participants les séquences d'essais à présenter, comme décrit à l'étape 2.1.1.2, et répondre aux doutes qu'ils pourraient avoir. Demandez aux participants de bourdonner les notes sans ouvrir la bouche pendant les essais de chant, en gardant les lèvres tout en produisant un son "m".
    3. Connectez un casque non-magnétique compatible avec un ordinateur portable à un ordinateur portable. Ajustez le niveau sonore à un niveau confortable pour chaque sujet.
    4. Connectez un petit microphone à condensateur à une interface audio qui est à son tour connectée à l'ordinateur portable à l'aide d'un câble blindé tordu-triplet.
      REMARQUE: L'alimentation du microphone, l'interface audio et l'ordinateur portable devraient tous être situés à l'extérieur de la pièce qui héberge le scanner.
    5. Vérifiez la réponse en fréquence du microphone.
      REMARQUE: Le but de ce test est de confirmer que le microphone se comporte comme prévu dans le scanner.
      1. Démarrez un nouveau projet dans le logiciel de modification de son et sélectionnez le condensateurMicrophone comme périphérique d'entrée.
      2. Générer une tonalité de test de 440 Hz avec une durée de 10 s, comme décrit dans la section 1.2.1, avec les valeurs appropriées pour la fréquence et la durée.
      3. À l'aide du logiciel de reproduction sonore par défaut sur l'ordinateur portable, appuyez sur "Play" pour envoyer la tonalité de test à travers les écouteurs à l'intérieur (au-dessus de l'appui-tête) et à l'extérieur (dans la salle de contrôle) du scanner avec le microphone placé entre les côtés Du casque dans chaque cas.
      4. Appuyez sur "Enregistrer" dans le logiciel d'édition de son pour enregistrer environ 1 s de la tonalité de test à chaque emplacement.
      5. Sélectionnez "Plot Spectrum" dans le menu "Analyser" pour chaque cas et comparez la réponse du microphone à la tonalité de test, à l'intérieur comme à l'extérieur du scanner, en vérifiant que la fréquence fondamentale du signal reçu à chaque emplacement est de 440 Hz.
    6. Tapez le microphone du condenseur sur le cou du participant, juste en dessous dularynx.
    7. Demandez au participant de porter le casque. Placez le participant dans un scanner à résonance magnétique (MR).
  2. Session de l'IRMF.
    1. Au début de la session, ouvrez le logiciel de l'interface utilisateur de résonance magnétique (MRUI). Utilisez le MRUI pour programmer le paradigme d'acquisition.
      REMARQUE: Certaines variations dans l'interface sont attendues entre les différents modèles.
      1. Sélectionnez l'option "Patient" dans le menu à l'écran. Entrez le nom, l'âge et le poids du participant.
      2. Cliquez sur le bouton "Exam". Tout d'abord, choisissez "Tête", puis "Cerveau" à partir des options disponibles.
      3. Sélectionnez "3D" puis "T1 isométrique", avec les valeurs suivantes pour les paramètres pertinents: Temps de répétition (TR) = 10,2 ms, Temps d'écho (TE) = 4,2 ms, Angle de virage = 90 ° et Voxel Taille = 1 x 1 x 1 mm 3 .
        REMARQUE: pour chaque participant, un volume anatomique pondéré T1 sera bE acquis à l'aide d'une séquence d'impulsion d'écho gradient pour référence anatomique.
      4. Cliquez sur "Programme" et sélectionnez EchoPlanaImage_diff_perf_bold (T2 *), avec les valeurs des paramètres pertinents comme suit: TE = 40 ms, TR = 10 s, Temps d'acquisition (TA) = 3 s, Retard dans TR = 7 s, Flip Angle = 90 °, champ de vision (FOV) = 256 mm 2 et Matrix Dimensions = 64 x 64. Utilisez l'option "Dummy" pour acquérir 5 volumes en entrant une valeur de "55" pour le nombre total de volumes.
        REMARQUE: ces valeurs permettent l'acquisition de scans fonctionnels de la tête entière T2 * selon le paradigme d'échantillonnage fragmenté illustré à la figure 1 , où une analyse "simulée" d'image écho-planaire (EPI) est acquise et rejetée pour permettre la saturation en T1 effets. Notez que dans certains MRUI, la valeur de TR devrait être de 3 s, car il s'agit du temps total pendant lequel l'acquisition a lieu.
      5. Cliquez sur "Copier" pour en faire une copieEnce. Placez le curseur au bas de la liste des séquences, puis cliquez sur "Coller" deux fois pour configurer trois séquences d'échantillonnage sparse consécutives.
      6. Cliquez sur "Démarrer" pour commencer l'acquisition du volume anatomique pondéré T1.
      7. Présentez trois courses au participant, avec les exécutions décrites à l'étape 2.1.1.2. Synchroniser le début des courses avec l'acquisition par le scanner à l'aide de la cassette du scanner.
        1. Suivez la même procédure que celle décrite dans la section 1.3.2 pour commencer chacune des trois séries, en différenciant les exécutions en utilisant le numéro de session. Enregistrez les résultats de trois opérations complètes en utilisant la même procédure décrite à l'étape 1.3.3.
          REMARQUE: Le calendrier des présentations d'essai est systématiquement agité de ± 500 ms.

Figure 1
Figure 1: SConception d'échantillonnage d'analyse. ( A ) Chronologie des événements dans un essai impliquant seulement l'écoute d'un intervalle de deux tons (2 s), sans reproduction subséquente. ( B ) Calendrier des événements dans un procès impliquant des tâches d'écoute et de chant. Cliquez ici pour voir une version plus grande de ce chiffre.

3. Analyse des données

  1. Préprocesser les données fonctionnelles à l'aide d'un logiciel conçu pour l'analyse des séquences de données d'imagerie cérébrale suivant des procédures standard 33 .
    REMARQUE: Tout le traitement des données se fait à l'aide du même logiciel.
    1. Utilisez l'option de menu fournie pour réorienter les images vers le premier volume, resamplé et spatialement normalisé (taille finale du voxel: 2 x 2 x 2 mm 3 ) vers l'espace stéréotaxique standard de l'Institut météorologique de Montréal (MNI) 34 . Utilisez l'option de menu fournie pour lisser l'image en utilisant un noyau Gaussien isotrope, 8 mm, largeur totale à moitié maximum (FWHM).
    2. Pour modéliser la réponse BOLD, sélectionnez une réponse à l'impulsion finie (FIR) à un seul bac comme fonction de base (ordre 1) ou boîte carrée, en fonction de l'acquisition de volume (3 s) 28 .
      REMARQUE: Les protocoles d'échantillonnage dissimulé, comme celui-ci, ne nécessitent généralement pas de convolution de la FIR avec la fonction de réponse hémodynamique, comme c'est souvent le cas pour l'IRMF liée à l'événement.
    3. Appliquer un filtre passe-haut à la réponse BOLD pour chaque événement (1 000 s pour le «réseau de chant» et 360 s ailleurs).
      REMARQUE: la modélisation de toutes les tâches de chant ensemble équivaut à un bloc de 400 s 35 .

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Tous les 11 participants à notre expérience étaient des élèves de sexe féminin au niveau de la conservatoire et ils se sont bien comportés dans les tâches de reconnaissance d'intervalle à sélectionner pour la numérisation. Le taux de réussite de la tâche d'identification de l'intervalle était de 65,72 ± 21,67%, ce qui, comme prévu, était inférieur au taux de réussite lors de l'identification des intervalles dissonants et consonnes, soit 74,82 ± 14,15%.

Afin de valider la conception de base de l'étude, nous avons espéré identifier l'activité neurale pendant le chant dans les régions connues pour constituer le «réseau de chant», tel que défini dans un certain nombre d'études antérieures 25 , 26 , 27 , 28 , 29 , 30 , 31 ans ,Ass = "xref"> 32 , 33 , 34 , 35 , 36 , 37 . L'effet du chant est observé au moyen du contraste d'intérêt linéaire de premier niveau, qui correspond au chant par opposition à l'écoute. Des tests t d'un échantillon ont été utilisés avec des grappes déterminées par Z> 3 et un seuil de signification de grappe de p = 0,05, erreur familiale (FWE) corrigée 38 . Pour l'étiquetage anatomique, SPM Anatomy Toolbox 33 et l'atlas structurel corticale et sous-corticale de Harvard-Oxford ont été utilisés 39 . Les régions cérébrales où l'activation significative a été observée étaient le cortex somatosensoriel primaire (S1), le cortex somatosensoriel secondaire (S2), le cortex moteur primaire (M1), la zone motrice supplémentaire (SMA), le cortex prémoteur (PM), la zone de Brodmann 44 (BA 44), le cortex auditif primaire(PAC), le gyrus temporel supérieur (STG), le pôle temporel, l'insula antérieure, le putamen, le thalamus et le cervelet. Ces activations correspondent à celles rapportées dans les études citées ci-dessus concernant le «réseau de chant», et elles sont illustrées à la figure 2 . Notez que dans les figures 2 et 3 les deux, la coordonnée x est perpendiculaire au plan sagittal, la coordonnée y est perpendiculaire au plan coronaire et la coordonnée z est perpendiculaire au plan transversal ou horizontal.

Une fois que la conception de base a été validée, deux autres contrastes linéaires de premier niveau ont été calculés pour chaque participant, ce qui correspond à des dissonants de chant par opposition à des intervalles de consonnes et à une consotation de chant par opposition à des intervalles dissonants. Ces contrastes linéaires ont ensuite été portés à un modèle d'effets aléatoires de second niveau impliquant un ensemble d'analyses à 2 voies de mesures répétées de variaNce (ANOVA), avec les facteurs de consonance et de dissonance. De cette façon, les zones activées ou désactivées ont été examinées pour des interactions possibles, avec des activations d'intérêt déterminées en fonction du seuil de voxel significatif, p <0,001, non corrigées pour des comparaisons multiples 28 , 29 . Pour le contraste résultant du chant dissonant par opposition aux intervalles de consonnes, des activations accrues ont été observées dans le S1 droit, le PAC droit, le milieu du cerveau gauche, l'insula postérieure droite, l'amygdale gauche et le putamen gauche. Ces activations sont présentées à la figure 3 . En ce qui concerne le contraste complémentaire, aucun changement significatif dans l'activation n'a été détecté pendant le chant des intervalles de consonnes.

Figure 2
Figure 2: Activation dans les régions qui constituent le «réseau de chant». ActiverLes cartes ioniques sont présentées avec un seuil de signification de grappe de p = 0,05, corrigé en erreur de la famille (FWE). Les réponses BOLD sont signalées dans des unités arbitraires. Cliquez ici pour voir une version plus grande de ce chiffre.

figure 3
Figure 3: contraste entre le chant des intervalles de dissonants et de consonnes. Les cartes d'activation sont présentées, non corrigées pour des comparaisons multiples, avec un seuil de signification de grappe de p = 0,001. Les réponses BOLD sont signalées dans des unités arbitraires. Cliquez ici pour voir une version plus grande de ce chiffre.

Intervalle Nombre de demi-tons Ratio des fondamentaux
Unisson 0 1: 1
Second seconde 1 16h15
Deuxième majeur 2 9: 8
Troisième mineur 3 6: 5
Troisième majeur 4 5: 4
Parfait quatrième 5 4,3
Tritone 6 45:32
Cinquième parfait 7 3: 2
Sixième mineur 8 8: 5
Premier sixième 9 5: 3
Septième mineur dix 16: 9
Septième majeur 11 15: 8
Octave 12 2: 1

Tableau 1: Intervalles de musique consonante et distributrice. Les intervalles de consonnes apparaissent en caractères gras, tandis que les intervalles dissonants apparaissent en italique. Observez que plus l'intervalle est consonant, plus les nombres entiers apparaissent dans le rapport de fréquence utilisé pour le représenter. Pour une discussion approfondie de la consonance et de la dissonance en fonction des rapports de fréquence, voir Bidelman & Krishnan 40 .

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Ce travail décrit un protocole dans lequel le chant est utilisé comme moyen d'étudier l'activité cérébrale lors de la production d'intervalles consoants et dissonants. Même si le chant fournit ce qui est probablement la méthode la plus simple pour la production d'intervalles musicaux 22 , il ne permet pas la production d'accords. Cependant, bien que la plupart des caractérisations physiques de la notion de consonance s'appuient, dans une certaine mesure, sur la superposition de notes simultanées, un certain nombre d'études ont montré que les intervalles construits avec des notes correspondant à des accords consonnes ou dissonants sont encore perçus comme consonnes ou dissonants, Respectivement 4 , 6 , 15 , 41 , 42 .

La tâche de perception de l'intervalle comportemental est utilisée pour établir, avant que les participants puissent passer à la numérisation sSi elles sont en mesure de distinguer adéquatement les intervalles. Ainsi, ils fonctionnent bien une fois à l'intérieur du résonateur magnétique. Tous les participants incapables de respecter un seuil prédéterminé lors de l'exécution de ces tâches d'identification ne doivent pas passer à l'expérience fMRI. Le but principal de ce processus de sélection est de s'assurer que les différences de performance entre les participants ne sont pas dues à des capacités perceptuelles déficientes. Les participants choisis devraient avoir des diplômes similaires de formation vocale et musicale, et aussi, si possible, des tessituras similaires. Si elles ont des gammes vocales qui varient considérablement, la gamme des intervalles présentés pendant les tâches de chant qu'ils devront effectuer doit être personnalisée.

La configuration du microphone est essentielle pour que l'acquisition soit fiable et sans effet sur les artefacts. Le type de microphone lui-même est très important, et bien qu'il soit possible d'utiliser un optique 28 ou spécialement conçu, compatible avec le MR 29 Sup> microphones, il a été démontré que la sensibilité des microphones à condensateur n'est pas affectée par la présence de champs magnétiques intenses dans l'environnement d'imagerie 43 . En effet, un petit microphone à condensateur Lavalier peut être utilisé dans ce contexte, à condition qu'un câble blindé tordu-triplet soit utilisé pour connecter le microphone au préamplificateur, qui doit être placé à l'extérieur de la pièce où le scanner MR est logé. Cet arrangement empêchera l'apparition d'artefacts d'imagerie 44 , mais les chercheurs devraient également s'assurer que le scanner n'interfère pas avec les performances du microphone. À cette fin, une sonnerie de test peut être envoyée via le casque compatible MR vers le microphone placé à l'intérieur du scanner MR, et le signal obtenu de cette manière peut ensuite être comparé à celui obtenu en envoyant la même tonalité au microphone maintenant placé à l'extérieur Le scanner. Les niveaux de pression sonore à l'intérieur du scanner MR peuvent être extrêmement élevésXref "> 45, de sorte que le microphone doit être placé le plus près possible de la source. En demandant aux participants de ressentir plutôt que de chanter des notes ouvertement, le mouvement dans et autour de la zone de la bouche peut être minimisé. En plaçant le microphone juste en dessous du larynx , Recouvert de bande, il est possible d'obtenir un enregistrement fidèle de la voix du chanteur. L'enregistrement sera naturellement très bruyant - cela ne peut être évité - mais si les chercheurs s'intéressent principalement au ton et non à l'articulation ou à l'énonciation des mots, Une variété de logiciels peut être utilisé pour nettoyer le signal suffisamment pour détecter la fréquence fondamentale de chaque note chantée. Une méthode standard serait d'utiliser un logiciel de montage audio pour filtrer les signaux temporels à travers une fenêtre Hamming puis utiliser l'autocorrélation Des algorithmes intégrés à certains logiciels de la parole et de la phonétique pour identifier les fondamentaux chantés. La précision vocale peut ensuite être calculée pour chaque participant. Les applications potentielles deLes données obtenues à partir des enregistrements incluent une corrélation entre le pitch ou la précision rythmique avec un degré de formation ou des distances d'intervalle.

Les images fonctionnelles sont acquises en utilisant un schéma d'échantillonnage discret de manière à minimiser le masquage BOLD ou auditif en raison du bruit de balayage 25 , 28 , 29 , 46 , 47 . Chaque sujet subit 3 épreuves expérimentales, chacune d'une durée de 10 min. Au cours de chaque course, les sujets doivent d'abord se calmer pendant 10 essais silencieux de base, puis écouter passivement un bloc de 10 intervalles et enfin écouter et chanter un autre bloc de 40 intervalles. Un but de garder les courses individuelles aussi court que possible est d'éviter la fatigue des participants. Néanmoins, on a conclu qu'il pourrait être préférable, à l'avenir, d'inclure le même nombre d'épreuves d'écoute et de chant, ce quiPeuvent ensuite être présentés en blocs alternés. Cela aurait pour effet d'accroître le pouvoir statistique. À titre d'exemple, une course pourrait consister en 2 blocs de 5 essais silencieux de base, 4 blocs de 5 essais écoutés et 4 blocs d'essais de chant. Les blocs seraient ensuite présentés aux participants en alternance, avec une durée totale de 500 s par course.

La principale raison pour laquelle les participants écoutent passivement à l'intérieur du résonateur est d'avoir un moyen de soustraire l'activité auditive de l'activité motrice. Ainsi, une comparaison favorable des activations de chant contre le "réseau de chant" 25 , 27 , 28 , 29 , 36 , 37 est indispensable pour la validation correcte de l'étude. Notez que les activations du "réseau de chant" sont très robustes et bien établies et sont habituellement lesProtégé au moyen de tests t d'un échantillon et d'un seuil de signification de grappe corrigé de p = 0,05. Les activations correspondant au contraste entre le chant dissonant / consonne et les intervalles consonants / dissonants sont typiquement identifiées au moyen d'analyses de variance (ANOVA) des facteurs répétés à 2 voies en fonction de la signification voxel seuil p <0,001, non corrigé pour les comparaisons multiples 28 , 29 . On s'attend à ce que les participants trouvent que les intervalles dissonants de chant sont plus difficiles que le chant des intervalles de consonnes 48 , 49 ; Ainsi, différentes activations pour chacun des deux contrastes décrits ci-dessus sont prévues. Les résultats indiquent que les intervalles dissonants de chant impliquent une reprogrammation des mécanismes neuronaux recrutés pour la production d'intervalles de consonnes. Pendant le chant, le son produit est comparé au son prévu, et tout ajustement nécessaire est alors atteintGrâce à l'intégration des retours externes et internes des voies auditives et somatosensorielles. Une discussion détaillée de ces résultats et des conclusions tirées d'eux est incluse dans l'article de González-García, González et Rendón 30 .

Ce protocole fournit une méthode raisonnablement directe pour l'étude des corrélats neuronaux de la production musicale et pour le suivi de l'activité du système moteur et auditif. Il peut être utilisé pour suivre les différences dans l'activation du cerveau entre les conditions binaires, telles que les intervalles de consonnes ou de dissonants, et le chant à intervalles étroits ou à intervalles longs 30 . Il est également bien adapté pour étudier l'effet de la formation sur une variété de tâches associées aux fréquences spécifiques au chant. D'autre part, en raison de la très grande quantité de bruit contenue dans les enregistrements de la voix chantée obtenue lors de la numérisation, il serait difficile d'utiliser ce protOcol pour analyser les tâches liées à la qualité de la tonalité ou du timbre, surtout parce que ce sont des qualités qui ne peuvent pas être évaluées correctement en bourdonnant.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Les auteurs ne déclarent aucun conflit d'intérêts.

Acknowledgments

Les auteurs reconnaissent le soutien financier de cette recherche au Secrétariat de Salud de México (HIM / 2011/058 SSA. 1009), CONACYT (SALUD-2012-01-182160) et DGAPA UNAM (PAPIIT IN109214).

Materials

Name Company Catalog Number Comments
Achieva 1.5-T magnetic resonance scanner Philips Release 6.4
Audacity Open source 2.0.5
Audio interface Tascam US-144MKII
Audiometer Brüel & Kjaer Type 1800
E-Prime Professional Psychology Software Tools, Inc. 2.0.0.74
Matlab Mathworks R2014A
MRI-Compatible Insert Earphones Sensimetrics S14
Praat Open source 5.4.12
Pro-audio condenser microphone Shure SM93
SPSS Statistics IBM 20
Statistical Parametric Mapping Wellcome Trust Centre for Neuroimaging 8

DOWNLOAD MATERIALS LIST

References

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061 (1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237 (2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Tags

Comportement numéro 123 Consonance et dissonance corrélations neuronales de la musique identification de l'intervalle musical chant imagerie par résonance magnétique fonctionnelle (IRMF) intégration audio-vocale
Cartographie FMRI de l&#39;activité cérébrale associée à la production vocale d&#39;intervalles consonants et dissonants
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

González-García, N.,More

González-García, N., Rendón, P. L. fMRI Mapping of Brain Activity Associated with the Vocal Production of Consonant and Dissonant Intervals. J. Vis. Exp. (123), e55419, doi:10.3791/55419 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter