Waiting
Login-Verarbeitung ...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

FMRI-kartläggning av hjärnaktivitet associerad med vokalproduktion av konsonant och dissonantintervaller

Published: May 23, 2017 doi: 10.3791/55419

Summary

De neurala korrelaten att lyssna på konsonanta och dissonanta intervall har studerats allmänt, men de neurala mekanismerna associerade med produktion av konsonanta och dissonanta intervall är mindre kända. I denna artikel kombineras beteendestest och fMRI med intervallidentifiering och sånguppgifter för att beskriva dessa mekanismer.

Abstract

De neurala korrelaterna av konsonans och dissonansuppfattning har studerats mycket, men inte de neurala korrelaterna av konsonans och dissonansproduktion. Det mest enkla sättet att musikalisk produktion sjunger, men från ett bildningsperspektiv, presenterar det fortfarande fler utmaningar än att lyssna, eftersom det innefattar motoraktivitet. Den exakta sången av musikaliska intervaller kräver integration mellan auditiv återkopplingsbehandling och vokalmotorstyrning för att korrekt producera varje anteckning. Detta protokoll presenterar en metod som tillåter övervakning av neurala aktiveringar associerade med vokalproduktionen av konsonanta och dissonanta intervall. Fyra musikaliska intervaller, två konsonant och två dissonanta används som stimuli, både för ett auditivt diskrimineringstest och en uppgift som innebär att man först lyssnar på och sedan reproducerar givna intervaller. Deltagare, alla kvinnliga vokalstudenter på vinterträdgårdsnivå, studerades med hjälp av funktionell magnetisk resOnance Imaging (fMRI) under utförandet av sånguppgiften, med lyssningsuppgiften som ett kontrollvillkor. På detta sätt observerades aktiviteten hos både motor- och hörningssystemen, och en mätning av vokalnoggrannhet under sånguppgiften erhölls också. Således kan protokollet också användas för att spåra aktiveringar som är förknippade med att sjunga olika typer av intervaller eller med att sanga de nödvändiga anteckningarna mer exakt. Resultaten indikerar att syngande dissonanta intervall kräver större deltagande av de neurala mekanismerna som är ansvariga för integrationen av extern återkoppling från de auditiva och sensorimotoriska systemen än att sjunga konsonantintervaller.

Introduction

Vissa kombinationer av musikaliska ställen är allmänt erkända för att vara konsonanta, och de är vanligtvis förknippade med en trevlig känsla. Andra kombinationer benämns i allmänhet dissonant och är förknippade med en obehaglig eller oupplöst känsla 1 . Även om det verkar förnuftigt att anta att enculturation och träning spelar en del i uppfattningen av konsonans 2 , har det nyligen visats att skillnaderna i uppfattningen av konsonanta och dissonanta intervall och ackord beror troligen mindre på musikalisk kultur än vad som tidigare ansågs 3 och maj Ens härrör från enkla biologiska baser 4 , 5 , 6 . För att förhindra en tvetydig förståelse av begreppet konsonans introducerade Terhardt 7 begreppet sensorisk konsonans, i motsats till konsonans i ett musikaliskt sammanhang, Där harmoni till exempel kan ha stor inverkan på svaret på ett givet ackord eller intervall. I föreliggande protokoll användes endast isolerade tvåtonintervaller exakt för att utesluta aktiveringar som endast hänför sig till sensorisk konsonans utan interferens från kontextberoende behandling 8 .

Försök att karakterisera konsonans genom rent fysiska medel började med Helmholtz 9 , som tillskrivit den upplevda grovheten som är associerad med dissonanta ackord för att slå mellan intilliggande frekvenskomponenter. Mer nyligen har det dock visat sig att sensorisk konsonans inte bara är förknippad med avsaknaden av grovhet men också med harmonicitet, det vill säga inriktningen av partiklarna hos en given ton eller ackord med de av en ohejd ton i en Lägre frekvens 10 , 11 . Beteende studier bekräftar att subjektiv konsonans verkligen påverkas av puLita på fysiska parametrar, såsom frekvensavstånd 12 , 13 , men ett bredare utbud av studier har visat att fysiska fenomen inte bara kan redovisa skillnaderna mellan uppfattad konsonans och dissonans 14 , 15 , 16 , 17 . Alla dessa studier rapporterar emellertid dessa skillnader när man lyssnar på olika intervaller eller ackord. En rad olika studier med användning av Positron Emission Tomography (PET) och funktionell magnetisk resonans Imaging (fMRI) har visat signifikanta skillnader i de kortikala regionerna som blir aktiva när de lyssnar på antingen konsonanta eller dissonanta intervall och ackord 8 , 18 , 19 , 20 . Syftet med föreliggande studie är att utforska skillnadernaI hjärnaktivitet när man producerar, snarare än att lyssna på, konsonanta och dissonanta intervall.

Studien av sensorisk-motorisk kontroll under musikalisk produktion innefattar typiskt användningen av musikinstrument, och ofta kräver det tillverkning av instrument modifierade specifikt för deras användning under neuroimaging 21 . Sjungning tycks emellertid ge från början en lämplig mekanism för analys av sensoriska-motoriska processer under musikproduktionen, eftersom instrumentet är den mänskliga rösten själv och vokalapparaten behöver inte ändras för att vara lämplig under Avbildning 22 . Även om de neurala mekanismerna associerade med sångaspekter, såsom pitchkontroll 23 , vokalimitation 24 , träningsinducerade adaptiva förändringar 25 och integrationen av extern återkoppling 25 , , 27 , 28 , 29 , har varit föremål för ett antal studier under de senaste två decennierna, beskrivs de neurala korrelaten av sångkonsonant och dissonanta intervall bara för en tid sedan 30 . För detta ändamål beskriver det aktuella papperet ett beteendestest som utformats för att fastställa ett adekvat erkännande av konsonanta och dissonanta intervall av deltagarna. Detta följs av en fMRI-studie av deltagare som sjunger en rad konsonanta och dissonanta intervall. FMRI-protokollet är relativt enkelt, men som med all MR-undersökning måste stor omsorg tas för att korrekt inrätta experimenten. I det här fallet är det särskilt viktigt att minimera huvud-, mun- och läpprörelser under sångverksamheten, vilket gör att identifieringen av effekter som inte är direkt relaterade till den fysiska uppgiften att sjunga lättare är enklare. Denna metod kan användas till iFastställa de neurala mekanismerna som hör samman med en mängd olika aktiviteter som involverar musikalisk produktion genom att sjunga.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Detta protokoll har godkänts av forsknings-, etik- och säkerhetsutskottet i Hospital Infantil de México "Federico Gómez".

1. Behavioral Pretest

  1. Utför ett standardtone-audiometrisk test för att bekräfta att alla potentiella deltagare har normal hörsel (20 dB Hearing Level (HL) över oktavfrekvenser på -8 000 Hz). Använd Edinburgh Handedness Inventory 31 för att se till att alla deltagare är högerhänt.
  2. Generering av intervall sekvenser.
    1. Producera rena toner som spänner över två oktaver, G4-G6, med hjälp av ett ljudredigeringsprogram.
      OBS! Här beskrivs det fria, öppna källhanteringsprogrammet Audacity. Andra paket kan användas för detta ändamål.
      1. För varje ton öppnar du ett nytt projekt i ljudredigeringsprogrammet.
      2. Under "Generera" -menyn, välj "Tone". I fönstret som visas, sVälja en sinusvågform, en amplitud på 0,8 och en varaktighet av 1 s. Ange värdet på frekvensen som motsvarar önskad anteckning ( t.ex. 440 Hz för A4). Klicka på "OK" -knappen.
      3. Under "Arkiv" -menyn väljer du "Exportera ljud". I fönstret som öppnas anger du önskat namn för ljudfilen och väljer WAV som önskad filtyp. Klicka på "Spara".
    2. Välj två konsonant och två dissonanta intervaller, enligt tabell 1 , på ett sådant sätt att varje konsonantintervall ligger nära ett dissonantintervall.
      OBS: Tänk på exempel på konsonantintervallet för en perfekt femte och en oktav och dissonantintervallet för en förstärkt fjärde (triton) och en stor sjunde. Dessa är de intervaller som valts för den undersökning som författarna utförde.
    3. Generera alla möjliga kombinationer av anteckningar som motsvarar dessa fyra intervaller i intervallet mellan G4 och G6.
      1. För eacH-intervall, öppna ett nytt projekt i ljudredigeringsprogrammet och använd "Importera ljud" under "Fil" -menyn för att importera de två WAV-filerna som ska sammanfogas.
      2. Placera markören när som helst över den andra tonen och klicka på för att välja. Klicka på "Välj allt" under "Redigera" -menyn. Under samma meny, klicka på "Kopiera".
      3. Placera markören när som helst över den första tonen och klicka. Under menyn "Redigera" klickar du på "Flytta markören till spåränden" och klicka sedan på "Klistra in" under samma meny. Exportera ljudet enligt beskrivningen i steg 1.2.1.3.
    4. Använd en slumpmässig sekvensgenerator för att producera sekvenser som består av 100 intervall genererade pseudorandomly på ett sådant sätt att var och en av de fyra olika intervallen existerar exakt 25 gånger 30 . För att göra detta använder du slumpmässig permutationsfunktionen i statistisk analysprogramvara (se Materialetabellen ). Ange de fyra intervallenAls som argument och skapa en slinga som upprepar denna process 25 gånger.
    5. Använd beteendeforskningsprogramvara för att skapa två olika körningar. Ladda en sekvens med 100 intervall i WAV-format för varje körning och associera identifieringen av varje intervall med en enda provning 30 .
      OBS! Här används E-Prime beteendeforskningsprogram. Annan likvärdig beteendeforskningsprogramvara kan användas.
  3. Förklara för deltagarna att de kommer att lyssna på två sekvenser med 100 intervaller vardera, där varje sekvens är associerad med en annan uppgift och med sin egen uppsättning instruktioner. Berätta deltagare att i båda körningarna kommer nästa intervall att spelas endast när en giltig nyckel trycks in.
    OBS: När intervallidentifieringssekvensen påbörjas bör den inte avbrytas så att åtgärden ska vara så tydlig som möjligt för alla deltagare.
    1. Låt deltagarna sitta framför en bärbar datorOch bära de medföljande hörlurarna. Använd högkvalitativa öronhörlurar. Justera ljudnivån till en bekväm nivå för varje ämne.
    2. Om du använder den metod för beteendeforskning som beskrivs här, öppna de uppgifter som skapades i steg 1.2.5 med E-Run. Ange fönstret och ämnesnumret i fönstret som visas och klicka på "OK". Använd sessionsnummer för att skilja mellan körningar för varje deltagare.
      ANMÄRKNING: Anvisningarna för uppgiften till hands kommer att visas på skärmen, följt av början av själva uppgiften.
      1. Först, i en 2-alternativ tvångsval uppgift, enkelt deltagarna identifiera huruvida de intervaller de hör är konsonant eller dissonant. Låt deltagaren trycka "C" på datorns tangentbord för konsonant och "D" för dissonant.
        ANMÄRKNING: Eftersom alla deltagare förväntas ha musikalisk träning på vinterträdgårdsplan, förväntas de alla kunna skilja mellan patenterat och tydligt disSonantintervall. Den första uppgiften tjänar på ett sätt som bekräftelse på att detta verkligen är fallet.
      2. För det andra, i en 4-alternativ tvångsval uppgift, har deltagarna identifierat intervallen själva. Låt deltagarna trycka på siffrorna "4", "5", "7" och "8" på datorns tangentbord för att identifiera intervallen för en förstärkt fjärde, perfekt femte, stor sjunde respektive oktav.
    3. I slutet av varje uppgift trycker du på "OK" för att automatiskt spara resultatet för varje deltagare i en enskild E-DataAid 2.0-fil märkt med ämnet och sessionsnummer och med förlängningen .edat2.
    4. Använd statistisk analysprogramvara ( t.ex. Matlab, SPSS-statistik eller ett open source-alternativ) för att beräkna framgångsgraderna för varje uppgift ( dvs. andelen framgångsrika svar när man identifierar huruvida intervallen var konsonant eller dissonant, och även när man identifierar intErvals själva), både individuellt och som en grupp 32 .

2. fMRI-experiment

  1. Förberedelse för fMRI-sessionen.
    1. Generera sekvenser med samma intervall som i steg 1.2.3, återigen sammansatt av två konsekutiva rena toner med en varaktighet av 1 s vardera.
      OBS! Deltagarnas räckvidd måste nu beaktas, och alla anteckningar måste falla bekvämt inom varje deltagares sångområde.
      1. Använd en slumpmässig sekvensgenerator för att skapa en randomiserad sekvens med 30 intervaller för de test som endast hörs 30 . För sångproverna skapar du en pseudorandomiserad sekvens på 120 intervaller för deltagarna att lyssna på ett visst intervall och matcha sedan detta målintervall med sina sångröstar. För den pseudorandomiserade sekvensen, använd samma metod som beskrivs i steg 1.2.4, med de fyra intervallen som argument en gång till, men nOw upprepa denna process 30 gånger.
      2. Följ samma procedur som i steg 1.2.5, använd beteendeforskningsprogramvara för att generera tre distinkta körningar, var och en bestående ursprungligen av 10 tysta baslinjeprover, följt av 10 på varandra följande lyssningsförsök och slutligen av 40 på varandra följande sångprov.
        OBS: Under baslinjeprovena visas de fyra intervallen i slumpmässig ordning, medan de fyra intervallen under sangprovningarna visas i pseudorandomiserad ordning, så att varje intervall slutligen presenteras exakt 10 gånger. Varaktigheten för varje försök är 10 s, så en hel körning varar 10 min. Eftersom varje ämne går igenom 3 experimentella körningar är den totala varaktigheten av experimentet 30 min. Däremot tillåter deltagarna att komma in och ut ur skannern, för tiden att ställa in och testa mikrofonen, för tiden för att få den anatomiska skanningen och för tiden mellan funktionella körningar, ska cirka 1 h skannertid tilldelas varje deltagare .
    2. Förklara för deltagarna vilka prover som ska presenteras, som beskrivs i steg 2.1.1.2, och svara på eventuella tvivel. Låt deltagarna uppmuntra noterna utan att öppna sina munnar under sångproverna, samtidigt som läpparna fortfarande håller på att producera ett "m" ljud.
    3. Anslut ett icke-magnetiskt, MR-kompatibelt headset till en bärbar dator. Justera ljudnivån till en bekväm nivå för varje ämne.
    4. Anslut en liten kondensatormikrofon till ett ljudgränssnitt som i sin tur är anslutet till den bärbara datorn med en skärmad, snodd triplettkabel.
      OBS: Mikrofonens strömförsörjning, ljudgränssnittet och den bärbara datorn ska alla vara placerade utanför rummet som hyser skannern.
    5. Kontrollera mikrofonens frekvenssvar.
      OBS! Syftet med detta test är att bekräfta att mikrofonen beter sig som förväntat inuti scannern.
      1. Starta ett nytt projekt i ljudredigeringsprogrammet och välj kondensornMikrofon som ingångsenhet.
      2. Generera en 440 Hz testton med en varaktighet av 10 s, såsom beskrivs i avsnitt 1.2.1, med lämpliga värden för frekvens och varaktighet.
      3. Använd standardprogrammet för ljudåtergivning på den bärbara datorn genom att trycka på "Spela" för att skicka testtonen via hörlurarna på platsen (ovanpå nackstödet) och utanför (i kontrollrummet) skannern, med mikrofonen placerad mellan sidorna Av headsetet i varje fall.
      4. Tryck på "Spela in" i ljudredigeringsprogrammet för att spela in ca 1 s av testtonen på varje plats.
      5. Välj "Plot Spectrum" från "Analys" -menyn för varje fall och jämföra mikrofons svar till testtonen, både inuti och utanför scannern, genom att kontrollera att den grundläggande frekvensen av signalen som mottas vid varje plats är 440 Hz.
    6. Tape kondensatormikrofonen till deltagarens nacke, strax understruphuvud.
    7. Låt deltagaren ha på sig headsetet. Placera deltagaren i en magnetisk resonans (MR) -skanner.
  2. FMRI-session.
    1. I början av sessionen öppnar du mjukvarupaketet för magnetresonans användargränssnitt (MRUI). Använd MRUI för att programmera förvärvsparadigmet.
      OBS: Vissa variationer i gränssnittet kan förväntas mellan olika modeller.
      1. Välj alternativet "Patient" från skärmmenyn. Ange deltagarens namn, ålder och vikt.
      2. Klicka på "Exam" -knappen. Välj först "Head" och sedan "Brain" från de tillgängliga alternativen.
      3. Välj "3D" och sedan "T1 isometrisk" med följande värden för relevanta parametrar: Repetitionstid (TR) = 10,2 ms, ekotid (TE) = 4,2 ms, vridvinkel = 90 ° och Voxelstorlek = 1 x 1 x 1 mm 3
        OBS: För varje deltagare kommer en T1-vägd anatomisk volym bE som förvärvats med användning av en gradient-ekopulsekvens för anatomisk referens.
      4. Klicka på "Program" och välj EchoPlanaImage_diff_perf_bold (T2 *), med värdena för relevanta parametrar enligt följande: TE = 40 ms, TR = 10 s, Förvärvstid (TA) = 3 s, Fördröjning i TR = 7 s, Flip Vinkel = 90 °, Fältfält = 256 mm 2 och Matrixmått = 64 x 64. Använd alternativet "Dummy" för att förvärva 5 volymer medan du anger ett värde på "55" för det totala antalet volymer.
        OBSERVERA: Dessa värden möjliggör förvärv av funktionella T2 * -viktade helhuvudskanningar enligt det glesa provtagningsparadigmet som illustreras i Figur 1 , där en ekkosplattformig (EPI) "dummy" -sökning förvärvas och kasseras för att tillåta T1-mättnad effekter. Observera att i vissa MRUIs bör värdet av TR vara 3 s, eftersom det anses vara den totala tiden under vilken förvärvet äger rum.
      5. Klicka på "Kopiera" för att göra en kopia av den här sekvensenENCE. Placera markören längst ner i listan med sekvenser och klicka sedan på "Klistra in" två gånger för att ställa in tre i följd glesa samplingssekvenser.
      6. Klicka på "Start" för att starta det T1-viktade anatomiska volymförvärvet.
      7. Nuvarande tre körningar till deltagaren, med körningarna som beskrivs i steg 2.1.1.2. Synkronisera starten på körningarna med skannerns inköp med hjälp av skannerutlösningsboxen.
        1. Följ samma procedur som beskrivs i avsnitt 1.3.2 för att börja var och en av de tre körningarna, differentiera mellan körningar med hjälp av sessionsnumret. Spara resultaten av tre fullständiga körningar med samma procedur som beskrivs i steg 1.3.3.
          OBS: Tidspresentationen av provpresentationerna är systematiskt jitterad av ± 500 ms.

Figur 1
Figur 1: SParse-sampling Design. ( A ) Tidslinje av händelser inom en försök som endast innebär att lyssna på ett tvåtonintervall (2 s), utan efterföljande öppen reproduktion. ( B ) Tidslinje för händelser i en försöksverksamhet som omfattar lyssnande och sånguppgifter. Vänligen klicka här för att se en större version av denna figur.

3. Dataanalys

  1. Förbereda funktionella data med hjälp av programvara avsedd för analys av hjärnbildningsdatasekvenser enligt standardprocedurer 33 .
    OBS! All databehandling är klar med samma programvara.
    1. Använd det medföljande menyalternativet för att omforma bilderna till den första volymen, resampleras och normaliseras (slutlig voxelstorlek: 2 x 2 x 2 mm 3 ) till det vanliga stereotaktiska rummet i Montreal Neurological Institute (MNI) 34 . Använd det medföljande menyalternativet för att släta bilden med en isotropisk, 8 mm, full bredd vid halv maximal (FWHM) Gaussisk kärna.
    2. För att modifiera BOLD-svaret, välj ett FIR-fält med en enda fack som basfunktion (order 1) eller boxcar-funktion, som spänner över tiden för volymförvärv (3 s) 28 .
      OBS! Sparsamma provtagningsprotokoll, som det här, kräver inte generellt att FIR-enheten är förknippad med den hemodynamiska responsfunktionen, vilket vanligtvis är fallet för händelsesrelaterat fMRI.
    3. Applicera ett högpassfilter till BOLD-svaret för varje händelse (1.000 s för "sångnätet" och 360 s på annat håll).
      OBS: Modellering av alla sånguppgifter tillsammans kommer att uppgå till ett block på 400 s 35 .

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Alla 11 deltagarna i vårt experiment var kvinnliga vokalstudenter på vinterträdgårdsplanen och de fungerade tillräckligt bra i intervalligenkänningsuppgifterna som ska väljas för scanning. Succesfrekvensen för intervallidentifieringsuppgiften var 65,72 ± 21,67%, vilket är som förväntat lägre än framgångsnivån vid identifiering av dissonanta och konsonantintervall, vilket var 74,82 ± 14,15%.

För att validera den grundläggande utformningen av studien hoppades vi kunna identifiera neurala aktiviteter under sång i de regioner som är kända för att utgöra "sångnätverket", som definierats i ett antal tidigare studier 25 , 26 , 27 , 28 , 29 , 30 31 ,Röv = "xref"> 32 , 33 , 34 , 35 , 36 , 37 . Effekten av sången observeras med hjälp av den första nivåens linjära kontrast av intresse, vilket motsvarar sången i motsats till att lyssna. En-prov-t-tester användes med kluster bestämda av Z> 3 och en kluster signifikans tröskel av p = 0,05, familjevisa fel (FWE) korrigerad 38 . För anatomisk märkning användes SPM Anatomy Toolbox 33 och Harvard-Oxford cortical och subcortical structural atlas 39 . Hjärnregionerna där signifikant aktivering observerades var den primära somatosensoriska cortexen (S1), den sekundära somatosensoriska cortexen (S2), den primära motorcortexen (M1), det kompletterande motorområdet (SMA), den premotoriska cortexen (PM), Brodmann-området 44 (BA 44), den primära auditiva cortexen(PAC), överlägsen temporal gyrus (STG), den temporala polen, den främre insulaen, putamen, thalamus och cerebellum. Dessa aktiveringar matchar de som rapporterats i de ovan nämnda studierna angående "sångnätverket" och de illustreras i figur 2 . Observera att i båda figurerna 2 och 3 är x-koordinaten vinkelrätt mot sagittalplanet, y-koordinaten är vinkelrätt mot koronplanet och z-koordinaten är vinkelrätt mot det tvärgående eller horisontella planet.

När den grundläggande konstruktionen har validerats, beräknades ytterligare två linjära kontrastnivåer på första nivå för varje deltagare, vilket motsvarade sång dissonant i motsats till konsonantintervall och att sjunga konsonant i motsats till dissonanta intervall. Dessa linjära kontraster togs sedan till en andra nivåns slumpmässiga effektmodell med en uppsättning 2-vägs upprepade måttanalyser av olikaNce (ANOVA), med faktorerna konsonans och dissonans. På detta sätt undersöktes de aktiverade eller deaktiverade områdena för möjliga interaktioner, med aktiveringar av intresse bestämda enligt signifikans voxeltröskeln, p <0,001, okorrigerade för multipla jämförelser 28 , 29 . För kontrast som härrörde från att sjunka dissonant i motsats till konsonantintervall observerades ökade aktiveringar i rätt S1, höger PAC, vänster midbrain, höger bakre insula, vänster amygdala och vänster putamen. Dessa aktiveringar visas i figur 3 . Beträffande komplementär kontrast detekterades inga signifikanta förändringar i aktivering under samlingsintervallets sång.

Figur 2
Figur 2: Aktivering i regioner som utgör "Singing Network". ActivatJonkartor presenteras med en tröskelvärdesgräns för p = 0,05, familjevist fel (FWE) korrigerat. BOLD-svar rapporteras i godtyckliga enheter. Vänligen klicka här för att se en större version av denna figur.

Figur 3
Figur 3: Kontrast mellan Singing of Dissonant och Consonant Intervals. Aktiveringskartor presenteras, ej korrigerade för flera jämförelser, med en tröskelvärdesgräns på p = 0,001. BOLD-svar rapporteras i godtyckliga enheter. Vänligen klicka här för att se en större version av denna figur.

Intervall Antal halvtoner Förhållandet mellan grundämnena
Unison 0 1: 1
Mindre sekund 1 16:15
Major andra 2 9: 8
Mindre tredje 3 6: 5
Major tredjedel 4 5: 4
Perfekt fjärde 5 4: 3
tritone 6 45:32
Perfekt femte 7 3: 2
Mindre sjätte 8 8: 5
Major sjätte 9 5: 3
Mindre sjunde 10 16: 9
Major sjunde 11 15: 8
Oktav 12 2: 1

Tabell 1: Consonant och Dissonant Musical Intervals. Konsonansintervall uppträder i fet stil, medan dissonanta intervall uppträder i kursiv. Observera att ju mer konsonant ett intervall desto mindre heltal som visas i frekvensförhållandet används för att representera det. För en djupgående diskussion om konsonans och dissonans som en funktion av frekvensförhållanden, se Bidelman & Krishnan 40 .

Subscription Required. Please recommend JoVE to your librarian.

Discussion

I det här arbetet beskrivs ett protokoll där sang används som ett sätt att studera hjärnaktivitet under produktion av konsonanta och dissonanta intervall. Även om sången ger vad som är möjligen den enklaste metoden för produktion av musikintervaller 22 , tillåter det inte ackordframställning. Även om de flesta fysiska karaktäriseringen av begreppet konsonans till viss del bygger på överlagring av samtidiga anteckningar har ett antal studier visat att intervall konstruerade med anteckningar som motsvarar konsonanta eller dissonanta ackord uppfattas fortfarande som konsonant eller dissonant, Respektive 4 , 6 , 15 , 41 , 42 .

Uppgiftens beteendeintervalluppgift används för att etablera, innan deltagarna kan gå igenom skanningen sEssion, om de har tillräcklig möjlighet att skilja mellan intervallerna. Således fungerar de väl en gång inuti magnetresonatorn. Alla deltagare som inte kan uppfylla en förutbestämd tröskel när de utför dessa identifieringsuppgifter bör inte fortsätta till fMRI-experimentet. Huvudsyftet med denna urvalsprocess är att säkerställa att skillnader i prestanda mellan deltagarna inte beror på bristfälliga perceptuella förmågor. Utvalda deltagare bör ha liknande grader av vokal och musikalisk träning, och även om möjligt liknande tessituras. Om de har olika vokalintervall, varierar intervallet av intervaller som presenteras under de sånguppgifter de behöver utföra.

Mikrofoninstallationen är avgörande för att förvärvet ska vara pålitligt och artefaktfritt. Själva typen av mikrofon är väldigt viktig, och även om det är möjligt att använda optisk 28 eller specialdesignad, MR-kompatibel 29 Sup> mikrofoner har det visat sig att känsligheten hos kondensormikrofoner inte påverkas av närvaron av de intensiva magnetfälten i bildmiljön 43 . En liten Lavalier-kondensatormikrofon kan faktiskt användas i detta sammanhang, förutsatt att en skärmad twisted-triplet-kabel används för att ansluta mikrofonen till förförstärkaren, vilken måste placeras utanför rummet där MR-skannern är inrymd. Detta arrangemang kommer att förhindra utseendet av avbildningsartefakter 44 , men forskare bör också se till att skannern inte stör mikrofonens prestanda. För detta ändamål kan en testton skickas via MR-kompatibla hörlurar till mikrofonen placerad inuti MR-scannern och den signal som erhålls på detta sätt kan då jämföras med den som erhållits genom att skicka samma ton till mikrofonen som nu placeras utanför Skannern. Ljudtrycksnivåerna i MR-scannern kan vara extremt högaXref "> 45, så mikrofonen måste placeras så nära källan som möjligt. Genom att fråga deltagarna att det är humör snarare än öppet sjunger kan rörelsen i och runt munområdet minskas. Genom att placera mikrofonen strax under struphuvudet , Som är täckt av tejp, är det möjligt att få en trogen inspelning av sångarens röst. Inspelningen kommer naturligtvis att vara väldigt högljudd - detta kan inte undvikas - men om forskare huvudsakligen är intresserade av tonhöjd och inte i artikulering eller uttalande av ord, Olika mjukvarupaket kan användas för att rengöra signalen tillräckligt för detektering av grundfrekvensen för varje sungnot. En standardmetod skulle vara att använda ljudredigeringsprogram för att filtrera tidssignalerna genom ett Hamming-fönster och sedan använda autokorrelationen Algoritmer inbyggda i vissa programvarupaket för tal och fonetik för att identifiera de sungna grundämnena. Vocalnoggrannheten kan sedan beräknas för varje deltagare. Potentiella tillämpningar avData som erhållits från inspelningarna inkluderar korrelerande tonhöjd eller rytmisk noggrannhet med någon grad av träning eller intervallavstånd.

Funktionella bilder förvärvas med en gles provtagningsdesign för att minimera BOLD- eller audiomaskning på grund av skanningsljud 25 , 28 , 29 , 46 , 47 . Varje ämne genomgår 3 experimentella körningar, var och en håller 10 min. Under varje körning är man först uppmanad att lägga sig i tystnad under 10 tysta grundprov, sedan lyssna passivt till ett block med 10 intervaller, och slutligen att lyssna på och sjunga tillbaka ett annat block med 40 intervaller. Ett syfte med att hålla enskilda löpningar så kort som möjligt är att undvika deltagarnas trötthet. Det har emellertid sedan konstaterats att det i framtiden kanske är bättre att inkludera samma antal lyssna och sångprov, vilketKan sedan presenteras i alternerande block. Detta skulle medföra en ökad statistisk kraft. Som ett exempel kan en körning bestå av 2 block med 5 tysta baslinjeprover, 4 block med 5 lyssningsförsök och fyra block av sångprov. Blocken skulle sedan presenteras för deltagare i växling, med en total varaktighet på 500 s per körning.

Den främsta orsaken till att deltagarna lyssnar passivt inuti resonatorn är att ha möjlighet att subtrahera hörselaktivitet från motoraktivitet. Således är en fördelaktig jämförelse av sångaktiveringar mot "sångnätet" 25 , 27 , 28 , 29 , 36 , 37 oumbärligt för korrekt validering av studien. Observera att "singing network" -aktiveringar är mycket robusta och väletablerade och är vanligtvis deTected med hjälp av en-prov-t-tester och en korrigerad cluster-signifikansgräns på p = 0,05. Aktiveringar som motsvarar kontrasten mellan synande dissonant / konsonant och konsonant / dissonantintervall identifieras typiskt med hjälp av 2-vägs upprepade faktoranalyser av varians (ANOVA) i enlighet med signifikans voxeltröskeln p <0,001, okorrigerad för multipla jämförelser 28 , 29 . Det förväntas att deltagarna kommer att hitta syngande dissonanta intervaller mer utmanande än att sjunga konsonantintervall 48 , 49 ; Varför olika aktiveringar för var och en av de två kontrasterna som beskrivs ovan förväntas. Resultaten indikerar att sjungande dissonanta intervaller innefattar en omprogrammering av de neurala mekanismerna som rekryteras för produktion av konsonantintervall. Under sången jämförs producerat ljud med det avsedda ljudet, och all nödvändig justering uppnås dåGenom integration av extern och intern feedback från auditiva och somatosensoriska vägar. En detaljerad diskussion om dessa resultat och slutsatserna dras av dem ingår i artikeln av González-García, González och Rendón 30 .

Detta protokoll tillhandahåller en rimligt enkel metod för studier av neurala korrelater av musikalisk produktion och för övervakning av aktiviteten hos både motor- och audiosystem. Det kan användas för att spåra skillnader i hjärnaktivering mellan binära förhållanden, som att sjunga konsonant eller dissonanta intervaller och sjunga smala eller breda intervall 30 . Det är också väl lämpat att studera effekten av träning på en rad olika uppgifter i samband med att sjunga specifika frekvenser. Å andra sidan skulle det vara svårt att använda detta prototycke på grund av den mycket stora mängden brus som finns i inspelningar av den sungröst som erhållits under skanningen.Ocol att analysera uppgifter som berör kvalitet av ton eller timbre, särskilt för att dessa är kvaliteter som inte kan mätas korrekt samtidigt som det är humming.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Författarna förklarar inga intressekonflikter.

Acknowledgments

Författarna bekräftar ekonomiskt stöd till denna forskning från Secretaría de Salud de México (HIM / 2011/058 SSA. 1009), CONACYT (SALUD-2012-01-182160) och DGAPA UNAM (PAPIIT IN109214).

Materials

Name Company Catalog Number Comments
Achieva 1.5-T magnetic resonance scanner Philips Release 6.4
Audacity Open source 2.0.5
Audio interface Tascam US-144MKII
Audiometer Brüel & Kjaer Type 1800
E-Prime Professional Psychology Software Tools, Inc. 2.0.0.74
Matlab Mathworks R2014A
MRI-Compatible Insert Earphones Sensimetrics S14
Praat Open source 5.4.12
Pro-audio condenser microphone Shure SM93
SPSS Statistics IBM 20
Statistical Parametric Mapping Wellcome Trust Centre for Neuroimaging 8

DOWNLOAD MATERIALS LIST

References

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061 (1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237 (2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Tags

Beteende utgåva 123 konsonans och dissonans neurala korrelater av musik musikaliskt intervallidentifiering sång funktionell magnetisk resonansbildning (fMRI) ljud-vokalintegration
FMRI-kartläggning av hjärnaktivitet associerad med vokalproduktion av konsonant och dissonantintervaller
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

González-García, N.,More

González-García, N., Rendón, P. L. fMRI Mapping of Brain Activity Associated with the Vocal Production of Consonant and Dissonant Intervals. J. Vis. Exp. (123), e55419, doi:10.3791/55419 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter