Waiting
Procesando inicio de sesión ...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

FMRI Mapping of Brain Activity Associated met de Vocal Production of Consonant en Dissonant Intervals

Published: May 23, 2017 doi: 10.3791/55419

Summary

De neurale correlaten van het luisteren naar consonante en dissonante intervallen zijn in grote mate bestudeerd, maar de neurale mechanismen die verband houden met de productie van consonante en dissonante intervallen zijn minder bekend. In dit artikel worden gedragstesten en fMRI gecombineerd met intervalidentificatie en zangtaken om deze mechanismen te beschrijven.

Abstract

De neurale correlaten van consonantie en dissonantie perceptie zijn veelal bestudeerd, maar niet de neurale correlaten van consonantie en dissonantie productie. De meest eenvoudige manier van muzikale productie zingt, maar vanuit een beeldvormend perspectief is het nog steeds meer uitdagingen dan luisteren omdat het motoractiviteit betreft. De nauwkeurige zang van muzikale intervallen vereist integratie tussen auditieve feedbackverwerking en vocale motorbesturing om elke notitie correct te produceren. Dit protocol presenteert een methode die het mogelijk maakt om neurale activaties die verband houden met de vocale productie van consonante en dissonante intervallen toe te staan. Vier muzikale intervallen, twee consonant en twee dissonante, worden gebruikt als stimuli, zowel voor een auditieve discriminatie test en een taak die de eerste luistert en vervolgens de gegeven intervallen reproduceert. Deelnemers, alle vrouwelijke vocale studenten op het conservatorium niveau, werden onderzocht met behulp van functionele Magnetic ResOnance Imaging (fMRI) tijdens de uitvoering van de zangtaak, met de luistertaak die als controle conditie dient. Op deze manier werd de activiteit van zowel de motor- als auditieve systemen waargenomen en werd ook een mate van vocale nauwkeurigheid tijdens de zangtaak verkregen. Zo kan het protocol ook gebruikt worden om activaties bij te houden die samenhangen met het zingen van verschillende soorten intervallen of met de vereiste notities nauwkeuriger te zingen. De resultaten wijzen erop dat zangende dissonante intervallen een grotere deelname nodig hebben van de neurale mechanismen die verantwoordelijk zijn voor de integratie van externe feedback van de auditieve en sensorimotorische systemen dan het zingen van consonantintervallen.

Introduction

Bepaalde combinaties van muzikale toonhoogtes worden in het algemeen erkend als consonant, en ze zijn typisch geassocieerd met een aangename sensatie. Andere combinaties worden doorgaans aangeduid als dissonant en zijn geassocieerd met een onaangenaam of onopgelost gevoel 1 . Hoewel het verstandig is om aan te nemen dat enculturatie en training een rol spelen in de perceptie van consonantie 2 , is onlangs aangetoond dat de verschillen in perceptie van consonante en dissonante intervallen en akkoorden waarschijnlijk minder afhankelijk zijn van de muzikale cultuur dan eerder werd gedacht 3 en mei Zelfs afkomstig van eenvoudige biologische bases 4 , 5 , 6 . Ter voorkoming van een dubbelzinnig begrip van de term consonantie, introduceerde Terhardt 7 het begrip zintuiglijke consonantie, in tegenstelling tot consonantie in een muzikale context, Waar harmonie bijvoorbeeld de reactie op een bepaald akkoord of interval kan beïnvloeden. In het onderhavige protocol werden alleen geïsoleerde tweetentintervallen precies gebruikt om activaties uit te sluiten die uitsluitend verband houden met sensorische consonantie, zonder inmenging van contextafhankelijke verwerking 8 .

Pogingen om consonantie door middel van zuiver fysieke middelen te karakteriseren begon met Helmholtz 9 , die de waargenomen ruwheid geassocieerd met dissonante akkoorden toonde aan de kloof tussen aangrenzende frequentiecomponenten. Meer recent is echter aangetoond dat zintuiglijke consonantie niet alleen verband houdt met de afwezigheid van ruwheid, maar ook met harmoniciteit, dat wil zeggen de uitlijning van de gedeelten van een gegeven toon of akkoord met die van een ongehoorde toon van een Lagere frequentie 10 , 11 . Gedragsstudies bevestigen dat subjectieve consonantie inderdaad door pu beïnvloed wordtVertrouwen op fysieke parameters, zoals frequentieafstanden 12 , 13 , maar een breder scala aan studies heeft ongetwijfeld aangetoond dat fysieke verschijnselen niet alleen rekening kunnen houden met de verschillen tussen waargenomen consonantie en dissonantie 14 , 15 , 16 , 17 . Al deze studies rapporteren echter deze verschillen bij het luisteren naar een verscheidenheid aan intervallen of akkoorden. Een verscheidenheid aan studies met behulp van Positron Emission Tomography (PET) en functionele Magnetische Resonantie Imaging (fMRI) hebben significante verschillen in de corticale gebieden zichtbaar die actief worden bij het luisteren naar ofwel consonante of dissonante intervallen en akkoorden 8 , 18 , 19 , 20 . Het doel van de onderhavige studie is om de verschillen te onderzoekenIn de hersenactiviteit bij het produceren, in plaats van te luisteren, consonante en dissonante intervallen.

De studie van sensorische motorische controle tijdens muzikale productie houdt gewoonlijk het gebruik van muziekinstrumenten in, en vaak vereist het dan ook de fabricage van instrumenten die specifiek zijn aangepast voor hun gebruik tijdens neuroimaging 21 . Zingen lijken echter vanaf het begin een passend mechanisme te bieden voor de analyse van sensorische motorische processen tijdens de productie van muziek, aangezien het instrument de menselijke stem zelf is en het vocale apparaat geen aanpassing nodig heeft om geschikt te zijn gedurende Beeldvorming 22 . Hoewel de neurale mechanismen geassocieerd met zangaspecten, zoals pitchcontrole 23 , vocale imitatie 24 , trainingsgeïnduceerde adaptieve veranderingen 25 en de integratie van externe feedback 25 , , 27 , 28 , 29 , hebben de laatste twee decennia een aantal studies ondergaan, de neurale correlaten van zangcononant en dissonante intervallen werden pas kort beschreven 30 . Voor dit doel beschrijft het huidige document een gedragstest die is ontworpen om de adequate herkenning van consonante en dissonante intervallen door de deelnemers vast te stellen. Dit wordt gevolgd door een fMRI studie van deelnemers die een verscheidenheid aan consonant en dissonante intervallen zingen. Het fMRI-protocol is relatief eenvoudig, maar zoals bij alle MRI-onderzoeken moet er goed voor worden gezorgd dat de experimenten correct worden opgesteld. In dit geval is het bijzonder belangrijk om de hoofd-, mond- en lipbeweging tijdens zangtaken te minimaliseren, waardoor de identificatie van effecten die niet direct verband houden met de lichamelijke daad van zingen, eenvoudiger zijn. Deze methode kan gebruikt worden inVestig de neurale mechanismen in verband met een verscheidenheid aan activiteiten die muzikale productie door zingen betreffen.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Dit protocol is goedgekeurd door het Onderzoek, Ethiek en Veiligheidscomité van het Hospital Infantil de México "Federico Gómez".

1. Gedragsgedrag

  1. Voer een standaard, pure-toon audiometrische test uit om te bevestigen dat alle potentiële deelnemers normaal gehoor hebben (20 dB gehoorniveau (HL) boven octaaf frequenties van -8000 Hz). Gebruik de Edinburgh Handedness Inventory 31 om ervoor te zorgen dat alle deelnemers rechtshandig zijn.
  2. Generatie van interval sequenties.
    1. Maak pure tonen die twee octaven, G4-G6, uitstrekken met een geluidsbewerkingsprogramma.
      OPMERKING: hier wordt de gratis, open source audio-editing software Audacity beschreven. Voor dit doel kunnen andere pakketten worden gebruikt.
      1. Voor elke toon, open een nieuw project in de geluidsbewerkingssoftware.
      2. Selecteer in het menu 'Genereren' 'Tone'. In het venster dat verschijnt, sKies een sinusgolfvorm, een amplitude van 0,8 en een duur van 1 s. Voer de waarde in van de frequentie die overeenkomt met de gewenste noot ( bijv. 440 Hz voor A4). Klik op de knop "OK".
      3. Selecteer in het menu 'Bestand' de optie 'Audio exporteren'. In het venster dat wordt geopend, voer de gewenste naam voor het geluidsbestand in en kies WAV als het gewenste bestandstype. Klik op 'Opslaan'.
    2. Selecteer twee consonant- en twee dissonante intervallen, volgens tabel 1 , op zodanige wijze dat elk consonantinterval dicht bij een dissonantinterval ligt.
      OPMERKING: Beschouw bijvoorbeeld de consonantintervallen van een perfecte vijfde en een octaaf en de dissonante intervallen van een versterkte vierde (tritone) en een grote zevende. Dit zijn de intervallen die gekozen zijn voor de door de auteurs uitgevoerde studie.
    3. Genereer alle mogelijke combinaties van aantekeningen die overeenkomen met deze vier intervallen in het bereik tussen G4 en G6.
      1. Voor eacH interval, open een nieuw project in de geluidsbewerkingssoftware en gebruik "Import Audio" in het menu "File" om de twee WAV-bestanden te importeren die geconcludeerd moeten worden.
      2. Plaats de cursor op elk moment boven de tweede toon en klik op om te selecteren. Klik op "Alles selecteren" onder het menu "Bewerken". Onder hetzelfde menu klikt u op 'Kopiëren'.
      3. Plaats de cursor op elk moment boven de eerste toon en klik op. Klik onder "Edit" menu op "Move Cursor to Track End" en klik vervolgens op "Plakken" onder hetzelfde menu. Voer het geluid uit zoals beschreven in stap 1.2.1.3.
    4. Gebruik een willekeurige sequentie generator om sequenties te produceren die bestaan ​​uit 100 intervallen die pseudorandomly gegenereerd worden op een zodanige wijze dat elk van de vier verschillende intervallen precies 25 keer 30 optreedt. Om dit te doen, gebruik de willekeurige permutatie functie in de statistische analyse software (zie de Tabel van Materialen ). Voer de vier intervallen inAls argumenten en maak een lus die dit proces 25 keer herhaalt.
    5. Gebruik gedragsonderzoeksoftware om twee verschillende runs te genereren. Load een reeks van 100 intervallen in WAV-formaat voor elke run en associeer de identificatie van elk interval met een enkele trial 30 .
      OPMERKING: hier wordt E-Prime gedragsonderzoeksoftware gebruikt. Andere gelijkwaardige gedragsonderzoeksoftware kan worden gebruikt.
  3. Verduidelik aan de deelnemers dat ze elk van elkaar in twee reeksen van 100 intervallen zullen luisteren, waarbij elke sequentie bij een andere taak en met zijn eigen set instructies wordt geassocieerd. Vertel deelnemers dat in beide runs het volgende interval alleen zal worden afgespeeld wanneer er een geldige toets wordt ingedrukt.
    OPMERKING: zodra de interval herkenningsvolgorde begint, moet het niet worden onderbroken, zodat de actie moet zo duidelijk mogelijk zijn voor alle deelnemers.
    1. Laat de deelnemers voor een laptop zittenEn draag de meegeleverde koptelefoon. Gebruik koptelefoon van goede kwaliteit. Stel het geluidsniveau in op een comfortabel niveau voor elk onderwerp.
    2. Als u de hier beschreven gedragsonderzoeksoftware gebruikt, open de taken die in stap 1.2.5 zijn gemaakt met E-Run. Voer in het venster dat verschijnt de sessie en het vaknummer in en klik op 'OK'. Gebruik het sessienummer om onderscheid te maken tussen runs voor elke deelnemer.
      OPMERKING: De instructies voor de taak bij de hand verschijnen op het scherm, gevolgd door het begin van de taak zelf.
      1. Ten eerste, in een 2-alternatieve gedwongen keuzeproject, hebben de deelnemers gewoon de vraag of de intervallen die ze horen consonant of dissonant zijn. Laat de deelnemer op "C" op het toetsenbord van de computer drukken voor consonant en "D" voor dissonant.
        OPMERKING: Aangezien alle deelnemers naar verwachting muzikale training op een conservatoriumniveau hebben, zullen ze allemaal kunnen onderscheiden tussen patenteren en klachtenSonant intervallen. De eerste taak dient in zekere zin als bevestiging dat dit inderdaad het geval is.
      2. Ten tweede, in een 4-alternatieve gedwongen keuze-taak, hebben de deelnemers de intervallen zelf geïdentificeerd. Laat de deelnemers de cijfers "4," "5," "7," en "8" op het toetsenbord van de computer drukken om de intervallen van respectievelijk een vergrote vierde, perfecte vijfde, hoofdzevende en octaaf te identificeren.
    3. Aan het einde van elke taak, druk op "OK" om automatisch de resultaten op te slaan voor elke deelnemer in een individueel E-DataAid 2.0-bestand, gemarkeerd met het onderwerp en de sessiesnummers en met de extensie .edat2.
    4. Gebruik statistische analysesoftware (bijvoorbeeld Matlab, SPSS Statistics of een open-source alternatief) om de succesfrequenties voor elke taak te berekenen ( dat wil zeggen het percentage succesvolle antwoorden bij het identificeren of de intervallen consonant of dissonant waren en ook bij het identificeren van de intErvals zelf), zowel individueel als als groep 32 .

2. fMRI Experiment

  1. Voorbereiding voor de fMRI sessie.
    1. Genereer sequenties met dezelfde intervallen als in stap 1.2.3, opnieuw samengesteld uit twee opeenvolgende pure tonen met een duur van 1 s elk.
      OPMERKING: Het stembereik van de deelnemers moet nu in aanmerking worden genomen, en alle noten moeten comfortabel vallen binnen het zangbereik van elke deelnemer.
      1. Gebruik een willekeurige sequentie generator om een ​​gerandomiseerde volgorde van 30 intervallen te maken voor de luister-alleen proeven 30 . Voor de zangproeven creëert u een pseudorandomized reeks van 120 intervallen voor de deelnemers om naar een specifiek interval te luisteren en dan overeenkomen met dit doelinterval met hun zangstemmen. Voor de pseudorandomized sequentie gebruik dezelfde methode als beschreven in stap 1.2.4, met de 4 intervallen opnieuw als argumenten, maar nOw dit proces 30 keer herhalen.
      2. Volg dezelfde procedure als in stap 1.2.5, gebruik van gedragsonderzoeksoftware om drie afzonderlijke runs te genereren, die elk oorspronkelijk uit 10 stille baseline-tests bestaan, gevolgd door 10 opeenvolgende luisterproeven en uiteindelijk met 40 opeenvolgende zangproeven.
        OPMERKING: Tijdens de basisproeven worden de vier intervallen in willekeurige volgorde weergegeven, terwijl tijdens de zangproeven de vier intervallen verschijnen in pseudorandomized volgorde, zodanig dat elk interval uiteindelijk precies 10 keer wordt gepresenteerd. De duur van elke proef is 10 s, dus een volledige run duurt 10 minuten. Aangezien elk onderwerp 3 experimentele runs loopt, bedraagt ​​de totale duur van het experiment 30 minuten. Toch kunnen de deelnemers de scanner binnenkomen en verlaten, voor het tijdstip om de microfoon op te zetten en te testen, voor de tijd om de anatomische scan te verkrijgen en voor de tijd tussen functionele lopers, moet ongeveer 1 uur scanner tijd toegewezen worden aan elke deelnemer .
    2. Verduidelik aan de deelnemers de sequenties van proeven die moeten worden gepresenteerd, zoals beschreven in stap 2.1.1.2, en reageer op eventuele twijfels die ze zouden kunnen hebben. Geef de deelnemers opdracht om de notities te hummen zonder hun mond tijdens de zangproeven te openen, terwijl de lippen nog steeds bij het maken van een "m" geluid blijven.
    3. Sluit een niet-magnetische, MR-compatibele headset aan op een laptop. Stel het geluidsniveau in op een comfortabel niveau voor elk onderwerp.
    4. Sluit een kleine condensormicrofoon aan op een audio-interface die op zijn beurt verbonden is met de laptop met een afgeschermde gedraaide tripletkabel.
      OPMERKING: De microfoon voeding, de audio-interface en de laptop moeten allemaal buiten de kamer van de scanner bevinden.
    5. Controleer de frequentie respons van de microfoon.
      OPMERKING: Het doel van deze test is om te bevestigen dat de microfoon zich als verwacht binnen de scanner gedraagt.
      1. Start een nieuw project in de geluidsbewerkingssoftware en selecteer de condensorMicrofoon als invoerapparaat.
      2. Genereer een testtoon van 440 Hz met een duur van 10 s, zoals beschreven in punt 1.2.1, met de juiste waarden voor frequentie en duur.
      3. Met behulp van de standaard geluidsweergave software op de laptop, druk op "Play" om de testtoon via de koptelefoon op plaatsen binnen (bovenop de hoofdsteun) en buiten (in de controlekamer) de scanner te sturen, met de microfoon tussen de zijkanten Van de headset in ieder geval.
      4. Druk op "Record" in de geluidsbewerkingssoftware om ongeveer 1 seconde van de testtoon op elke locatie op te nemen.
      5. Selecteer voor elk geval "Plot Spectrum" in het menu "Analyse" en vergelijk het antwoord van de microfoon op de testtoon, zowel binnen als buiten de scanner. Controleer of de basisfrequentie van het ontvangen signaal op elke locatie 440 Hz is.
    6. Trek de condensormicrofoon aan de nek van de deelnemer, net onder destrottenhoofd.
    7. Laat de deelnemer de headset dragen. Plaats de deelnemer in een magnetische resonantie (MR) scanner.
  2. FMRI sessie.
    1. Open aan het begin van de sessie het softwarepakket voor magnetische resonantie gebruikersinterface (MRUI). Gebruik de MRUI om het acquisitieparadigma te programmeren.
      OPMERKING: Sommige variaties in de interface kunnen worden verwacht tussen verschillende modellen.
      1. Selecteer de optie "Patiënt" in het schermmenu. Voer de naam, leeftijd en gewicht van de deelnemer in.
      2. Klik op de toets "Examen". Kies eerst 'Hoofd' en dan 'Brain' uit de beschikbare opties.
      3. Selecteer "3D" en dan "T1 isometrisch", met de volgende waarden voor de relevante parameters: Herhalingstijd (TR) = 10,2 ms, Echo Time (TE) = 4,2 ms, Flip Angle = 90 ° en Voxel Size = 1 x 1 x 1 mm 3
        OPMERKING: Voor elke deelnemer zal een T1-gewogen anatomisch volume bE verkregen met behulp van een gradiënt echo pulse sequentie voor anatomische referentie.
      4. Klik op "Programma" en selecteer EchoPlanaImage_diff_perf_bold (T2 *), met de waarden van de relevante parameters als volgt: TE = 40 ms, TR = 10 s, Acquisitie Tijd (TA) = 3 s, Vertraging in TR = 7 s, Flip Angle = 90 °, Field of View (FOV) = 256 mm 2 en Matrix Afmetingen = 64 x 64. Gebruik de optie "Dummy" om 5 volumes te verwerven terwijl u een waarde van "55" voor het totale aantal volumes invoert.
        OPMERKING: Deze waarden maken het mogelijk om functionele T2 * -gewogen full-head scans aan te schaffen volgens het scherpe steekproefparadigma dat is geïllustreerd in Figuur 1 , waarbij een echo-planaire beeldvorming (EPI) 'dummy'-scan wordt verkregen en weggegooid om T1-verzadiging mogelijk te maken bijwerkingen. Merk op dat in sommige MRUI's de waarde van TR 3 s moet zijn, aangezien het de totale tijd is waarop de overname plaatsvindt.
      5. Klik op "Kopiëren" om een ​​kopie van deze sequentie te makeneer en geweten. Plaats de cursor onderaan de lijst met sequenties en klik tweemaal op "Plakken" om drie opeenvolgende geringe samplingsequenties op te stellen.
      6. Klik op 'Start' om de T1-gewogen anatomische volume-acquisitie te starten.
      7. Presenteer drie runs naar de deelnemer, met de runs zoals beschreven in stap 2.1.1.2. Synchroniseer het begin van de runs met de aanschaf door de scanner met behulp van de scanner-triggerbox.
        1. Volg dezelfde procedure als beschreven in paragraaf 1.3.2 om elk van de drie lopies te beginnen en te differentiëren tussen lopende sessies. Sla de resultaten van drie volledige runs op volgens dezelfde procedure als beschreven in stap 1.3.3.
          OPMERKING: De timing van de proefpresentaties wordt systematisch doorgegeven met ± 500 ms.

Figuur 1
Figuur 1: SParse-sampling ontwerp. ( A ) Tijdlijn van gebeurtenissen in een proef waarbij alleen een tweetooninterval (2 s) wordt gevolgd, zonder daaropvolgende openlijke weergave. ( B ) Tijdlijn van gebeurtenissen in een proef waarbij luister- en zangtaken betrokken zijn. Klik hier om een ​​grotere versie van deze figuur te bekijken.

3. Gegevensanalyse

  1. Preprocesseer de functionele data met behulp van software die is ontworpen voor de analyse van breinbeelden gegevenssequenties volgens standaard procedures 33 .
    OPMERKING: Alle gegevensverwerking is uitgevoerd met dezelfde software.
    1. Gebruik de meegeleverde menuoptie om de beelden opnieuw in te stellen naar het eerste volume, gerampliceerd en ruimtelijk genormaliseerd (eindvoxelgrootte: 2 x 2 x 2 mm 3 ) naar de standaardmonitor van Martin Neurological Institute (MNI) 34 . Gebruik de meegeleverde menuoptie om de afbeelding glad te maken met behulp van een isotrope, 8 mm, Full Width at Half Maximum (FWHM) Gaussische kernel.
    2. Als u de BOLD-respons wilt modelleren, selecteert u een single-bin Finite Impulse Response (FIR) als basisfunctie (bestelling 1) of boxcar-functie, die de tijd van volume-acquisitie (3 s) 28 overspant.
      OPMERKING: Sparse-steekproefprotocollen, zoals deze, vereisen in het algemeen niet dat de FIR verloopt met de hemodynamische responsfunctie, zoals gebruikelijk voor gebeurtenisgerelateerde fMRI's.
    3. Breng een high-pass filter aan op de BOLD respons voor elk evenement (1.000 s voor het zangnetwerk en 360 s elders).
      OPMERKING: Modellen van alle zangtaken samen vormen een blok van 400 s 35 .

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Alle 11 deelnemers in ons experiment waren vrouwelijke vocale studenten op het conservatoriumniveau, en ze voerden goed genoeg in de intervalherkenningstaken die geselecteerd zouden worden voor het scannen. De succesfrequentie voor de interval identificatie taak was 65,72 ± 21,67%, wat, zoals verwacht, lager is dan de succesfrequentie bij het identificeren van dissonante en consonant intervallen, die 74,82 ± 14,15% was.

Om het basisontwerp van de studie te valideren, hebben we gehoopt om neurale activiteit te identificeren tijdens zingen in de regio's die bekend staan ​​als het zangnetwerk, zoals gedefinieerd in een aantal eerdere studies 25 , 26 , 27 , 28 , 29 , 30 , 31 ,Ass = "xref"> 32 , 33 , 34 , 35 , 36 , 37 . Het effect van het zingen wordt waargenomen door middel van het eerste niveau lineaire contrast van belang, wat overeenkomt met zingen in tegenstelling tot het luisteren. Eén-monster t-tests werden gebruikt met clusters bepaald door Z> 3 en een cluster significance drempel van p = 0,05, Family-Wise Error (FWE) gecorrigeerd 38 . Voor anatomische etikettering werden de SPM Anatomy Toolbox 33 en de Harvard-Oxford corticale en subcortische structurele atlas 39 gebruikt. De hersenregio's waar significante activatie werd waargenomen, waren de primaire somatosensaire cortex (S1), de secundaire somatosensaire cortex (S2), de primaire motorcortex (M1), het aanvullende motorgebied (SMA), de premotorische cortex (PM), Brodmann-gebied 44 (BA 44), de primaire auditieve cortex(PAC), de superieure temporale gyrus (STG), de temporale pool, de voorste insula, de putamen, de thalamus en de cerebellum. Deze activaties komen overeen met die welke zijn gerapporteerd in de bovengenoemde studies met betrekking tot het "zangnetwerk" en zij worden geïllustreerd in figuur 2 . Merk op dat in beide figuren 2 en 3 de x-coördinaat loodrecht op het sagittale vlak is, de y-coördinaat loodrecht op het koronale vlak is en de z-coördinaat loodrecht op het dwars- of horizontale vlak is.

Zodra het basisontwerp is gevalideerd, werden voor elke deelnemer twee verdere eerste niveau lineaire contrasten berekend, die overeenkomen met zangdissonant in tegenstelling tot consonantintervallen en zangcononant in tegenstelling tot dissonante intervallen. Deze lineaire contrasten werden vervolgens naar een tweede-niveau willekeurige effectenmodel gebracht waarbij een reeks 2-weg herhaalde analyses van variaNce (ANOVA), met de factoren consonantie en dissonantie. Op deze wijze werden de geactiveerde of gedeactiveerde gebieden onderzocht voor mogelijke interacties, met activeringen van belang bepaald volgens de significante voxeldrempel, p <0,001, niet gecorrigeerd voor meerdere vergelijkingen 28 , 29 . Voor het contrast dat resulteerde in het zingen van dissonant in tegenstelling tot consonantintervallen, werden verhoogde activaties waargenomen in de rechter S1, rechter PAC, linker middenbrein, rechter posterior insula, left amygdala en left putamen. Deze activaties worden getoond in figuur 3 . Wat het complementaire contrast betreft, werden geen significante veranderingen in activatie gedetecteerd tijdens het zingen van consonantintervallen.

Figuur 2
Figuur 2: Activatie in regio's die het "zangnetwerk" vormen. ActivatIonenkaarten worden gepresenteerd met een cluster significantie drempel van p = 0,05, familiale fout (FWE) gecorrigeerd. BOLD-reacties worden gemeld in willekeurige eenheden. Klik hier om een ​​grotere versie van deze figuur te bekijken.

Figuur 3
Figuur 3: Contrast tussen de zang van Dissonant en Consonant Intervals. Activeringskaarten worden gepresenteerd, niet gecorrigeerd voor meerdere vergelijkingen, met een cluster significante drempel van p = 0.001. BOLD-reacties worden gemeld in willekeurige eenheden. Klik hier om een ​​grotere versie van deze figuur te bekijken.

Interval Aantal halve tonen Ratio van fundamentals
harmonie 0 1: 1
Kleine tweede 1 16:15
Belangrijkste tweede 2 9: 8
Minder derde 3 6: 5
Grote terts 4 5: 4
Perfect vierde 5 4: 3
tritonus 6 45:32
Perfect vijfde 7 3: 2
Minder zesde 8 8: 5
Belangrijkste zesde 9 5: 3
Minder zevende 10 16: 9
Belangrijkste zevende 11 15: 8
Octaaf 12 2: 1

Tabel 1: Consonant en Dissonant Muzikale Intervallen. Consonant intervallen verschijnen in vetdruk, terwijl dissonante intervallen in cursief verschijnen. Houd er rekening mee dat des te meer een interval interfereert, hoe kleiner de integers die in de frequentieverhouding voorkomen, zijn gebruikt om het te vertegenwoordigen. Voor een diepgaande bespreking van consonantie en dissonantie als functie van frequentieverhoudingen, zie Bidelman & Krishnan 40 .

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Dit werk beschrijft een protocol waarin zang wordt gebruikt als middel om de hersenactiviteit te bestuderen tijdens de productie van consonante en dissonante intervallen. Hoewel het zingen biedt wat mogelijk is de eenvoudigste methode voor de productie van muzikale intervallen 22 , staat het niet toe voor de productie van akkoorden. Hoewel de meeste fysieke karakteriseringen van het begrip consonantie in zekere mate afhankelijk zijn van de superpositie van gelijktijdige noten, hebben een aantal studies aangetoond dat intervallen die zijn geconstrueerd met noten die overeenkomen met consonant of dissonante akkoorden, nog steeds als consonant of dissonant worden gezien, Respectievelijk 4 , 6 , 15 , 41 , 42 .

De gedragsinterval perceptie taak wordt gebruikt om te bepalen, voordat deelnemers kunnen doorgaan naar de scan sEssion, als ze de intervallen voldoende kunnen onderscheiden. Zo presteren ze eenmaal in de magnetische resonator. Elke deelnemer die niet kan voldoen aan een vooraf bepaalde drempel bij het uitvoeren van deze identificatie taken, mag niet verdergaan met het fMRI-experiment. Het hoofddoel van dit selectieproces is om ervoor te zorgen dat prestatieverschillen tussen de deelnemers niet te wijten zijn aan gebrekkige perceptuele vaardigheden. Gekozen deelnemers zouden vergelijkbare graden van vocale en muzikale training moeten hebben, en ook, indien mogelijk, vergelijkbare tessituras. Als er spraakgroepen zijn die sterk verschillen, moeten de intervallen die worden aangeboden tijdens de zangtaken die ze moeten uitvoeren, gepersonaliseerd worden.

De instelling van de microfoon is van essentieel belang dat de acquisitie betrouwbaar en artefactvrij is. Het type microfoon zelf is erg belangrijk, en hoewel het mogelijk is om optische 28 of speciaal ontworpen, MR-compatibele 29 te gebruiken Sup> microfoons is aangetoond dat de gevoeligheid van condensormicrofoons niet wordt beïnvloed door de aanwezigheid van de intense magnetische velden in de beeldomgeving 43 . Inderdaad, in deze context kan een kleine Lavalier condensormicrofoon worden gebruikt, mits een afgeschermde gedraaide tripletkabel wordt gebruikt om de microfoon aan te sluiten op de voorversterker, die buiten de kamer moet worden geplaatst waar de MR-scanner is gehuisvest. Deze regeling voorkomt het verschijnen van beeldvormende artefacten 44 , maar onderzoekers moeten ook ervoor zorgen dat de scanner de prestaties van de microfoon niet verstoort. Daartoe kan een testtoon via de MR-compatibele koptelefoon naar de microfoon worden geplaatst die in de MR-scanner wordt geplaatst en het op deze manier verkregen signaal kan dan worden vergeleken met die verkregen door dezelfde toon te sturen naar de microfoon die nu buiten geplaatst is De scanner. De geluidsdrukniveau in de MR-scanner kan zeer hoog zijnXref "> 45, zodat de microfoon zo dicht mogelijk bij de bron moet worden geplaatst. Door de deelnemers aan te vragen in plaats van openlijk te zingen, kunt u de beweging in en rond het mondgebied minimaliseren. Door de microfoon net onder de larinks te plaatsen Het is natuurlijk erg luidruchtig - dit kan niet vermeden worden - maar als onderzoekers voornamelijk geïnteresseerd zijn in toonhoogte en niet in de artikulatie of uitspraak van woorden, dan is het mogelijk om een ​​geluidsopname van de zangeres te krijgen. Verschillende softwarepakketten kunnen gebruikt worden om het signaal voldoende schoon te maken voor de detectie van de fundamentele frequentie van elke gezongen notitie. Een standaard methode zou zijn om audio-editing software te gebruiken om de tijdsignalen te filteren via een Hamming-venster en vervolgens de autocorrelatie te gebruiken Algoritmen die zijn ingebouwd in bepaalde spraak- en fonetica-softwarepakketten om de gesongen fundamenten te identificeren. Vocal nauwkeurigheid kan dan worden berekend voor elke deelnemer. Potentiële toepassingen vanDe gegevens die zijn verkregen uit de opnames omvatten correlerende toonhoogte of ritmische nauwkeurigheid met een of andere mate van trainings- of intervalafstanden.

Functionele afbeeldingen worden verkregen met behulp van een scherp steekproefontwerp om BOLD of auditieve maskering te minimaliseren door scanninggeluiden 25 , 28 , 29 , 46 , 47 . Elk vak ondergaat 3 experimentele runs, elk 10 min. Tijdens elke ronde worden de onderwerpen eerst gevraagd om in stilte te leggen tijdens 10 stille baseline proeven, dan passief naar een blok van 10 intervallen te luisteren en tenslotte te luisteren naar een ander blok van 40 intervallen terug te zingen. Een doel om individuele lopies zo kort mogelijk te houden is om vermoeidheid van de deelnemers te vermijden. Niettemin is er sindsdien geconcludeerd dat het in de toekomst beter zou kunnen zijn om hetzelfde aantal luister-en zangproeven te omvatten, welkeKan dan in wisselende blokken worden gepresenteerd. Dit zou leiden tot een toenemende statistische kracht. Als voorbeeld kan een lopie bestaan ​​uit 2 blokken van 5 stille baseline-proeven, 4 blokken van 5 luisterproeven en 4 blokken zangproeven. De blokken worden dan teruggestuurd aan alternatieven, met een totale duur van 500 s per run.

De belangrijkste reden om deelnemers passief in de resonator te luisteren is een middel om auditieve activiteiten af ​​te trekken uit de motoractiviteit. Zo is een gunstige vergelijking van zangactivaties tegen het zangnetwerk 25 , 27 , 28 , 29 , 36 , 37 onontbeerlijk voor de juiste validatie van de studie. Houd er rekening mee dat de activaties van het zangnetwerk zeer robuust zijn en goed gevestigd zijn en meestal deGetekend door middel van een-monster t-tests en een gecorrigeerde cluster significance drempel van p = 0,05. Activaties die overeenkomen met het contrast tussen zangdissonante / consonant- en consonant- / dissonante intervallen worden typisch geïdentificeerd door middel van tweevoudige herhalingsfactoranalyses van variantie (ANOVA) volgens de significante voxeldrempel p <0.001, niet gecorrigeerd voor meerdere vergelijkingen 28 , 29 . Er wordt verwacht dat deelnemers zangende dissonante intervallen meer uitdagend zullen vinden dan zangconsortantintervallen 48 , 49 ; Dus worden verschillende activaties voor elk van de twee hierboven beschreven contrasten verwacht. Resultaten geven aan dat zingende dissonante intervallen een herprogrammering van de neurale mechanismen die worden aangeworven voor de productie van consonantintervallen, behelzen. Tijdens het zingen wordt geproduceerd geluid vergeleken met het gewenste geluid, en dan wordt elke gewenste aanpassing bereiktDoor de integratie van externe en interne feedback van auditieve en somatosensorische pathways. Een gedetailleerde bespreking van deze resultaten en de daaruit voortvloeiende conclusies is opgenomen in het artikel van González-García, González en Rendón 30 .

Dit protocol geeft een redelijk eenvoudige methode voor de studie van de neurale correlaten van muzikale productie en voor het monitoren van de activiteit van zowel de motor als de auditieve systemen. Het kan gebruikt worden om verschillen in de hersenactivering tussen binaire condities op te sporen, zoals zangcononant of dissonante intervallen en zingt smalle of brede intervallen 30 . Het is ook goed geschikt om het effect van trainingen te bestuderen op een verscheidenheid aan taken in verband met het zingen van specifieke frequenties. Aan de andere kant zou het moeilijk zijn om dit prototype te gebruiken door de zeer grote hoeveelheid geluid in opnames van de gezongen stem die tijdens de scan werd verkregenOcol analyseren taken die betrekking hebben op de kwaliteit van de toon of de timbre, vooral omdat deze kwaliteiten zijn die niet correct kunnen worden gemeten tijdens het humming.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

De auteurs verklaren geen belangenconflicten.

Acknowledgments

De auteurs erkennen financiële steun voor dit onderzoek van Secretaría de Salud de México (HIM / 2011/058 SSA. 1009), CONACYT (SALUD-2012-01-182160) en DGAPA UNAM (PAPIIT IN109214).

Materials

Name Company Catalog Number Comments
Achieva 1.5-T magnetic resonance scanner Philips Release 6.4
Audacity Open source 2.0.5
Audio interface Tascam US-144MKII
Audiometer Brüel & Kjaer Type 1800
E-Prime Professional Psychology Software Tools, Inc. 2.0.0.74
Matlab Mathworks R2014A
MRI-Compatible Insert Earphones Sensimetrics S14
Praat Open source 5.4.12
Pro-audio condenser microphone Shure SM93
SPSS Statistics IBM 20
Statistical Parametric Mapping Wellcome Trust Centre for Neuroimaging 8

DOWNLOAD MATERIALS LIST

References

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061 (1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237 (2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Tags

Gedrag probleem 123 consonantie en dissonantie neurale correlaten van muziek muzikale intervalidentificatie zang functionele magnetische resonantiebeeldvorming (fMRI) audio-vocale integratie
FMRI Mapping of Brain Activity Associated met de Vocal Production of Consonant en Dissonant Intervals
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

González-García, N.,More

González-García, N., Rendón, P. L. fMRI Mapping of Brain Activity Associated with the Vocal Production of Consonant and Dissonant Intervals. J. Vis. Exp. (123), e55419, doi:10.3791/55419 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter