Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

FMRI-kortlægning af hjerneaktivitet associeret med vokalproduktion af konsonant- og dissonantintervaller

Published: May 23, 2017 doi: 10.3791/55419

Summary

De neurale korrelater for at lytte til konsonante og dissonante intervaller er blevet studeret bredt, men de neurale mekanismer, der er forbundet med produktion af konsonante og dissonante intervaller, er mindre velkendte. I denne artikel kombineres adfærdstest og fMRI med intervalidentifikation og sangopgaver for at beskrive disse mekanismer.

Abstract

De neurale korrelater af konsonans og dissonansperspektiv er blevet undersøgt bredt, men ikke de neurale korrelater af konsonans og dissonansproduktion. Den mest enkle måde at musikalske produktion synger på, men fra et billeddannelsesperspektiv frembyder det stadig flere udfordringer end at lytte, fordi det involverer motoraktivitet. Den nøjagtige sang af musikalske intervaller kræver integration mellem auditiv feedbackbehandling og vokal motorstyring for korrekt fremstilling af hver note. Denne protokol præsenterer en metode, som tillader overvågning af neurale aktiveringer forbundet med vokalproduktion af konsonante og dissonante intervaller. Fire musikalske intervaller, to konsonant og to dissonante, bruges som stimuli, både til en auditiv diskriminationstest og en opgave, der involverer først at lytte til og derefter gengive givne intervaller. Deltagere, alle kvindelige vokalstuderende på vinterhalvåret, blev undersøgt ved hjælp af funktionel magnetisk resOnance Imaging (fMRI) under udførelsen af ​​sangopgaven, med lytteopgaven, der tjener som kontrolbetingelse. På denne måde blev aktiviteten af ​​både motor- og lydsystemerne observeret, og der blev også opnået en måling af vokalnøjagtighed under sangopgaven. Protokollen kan således også bruges til at spore aktiveringer, der er forbundet med at synge forskellige typer intervaller eller med at syngre de nødvendige noter mere præcist. Resultaterne viser, at syngende dissonante intervaller kræver større deltagelse af de neurale mekanismer, som er ansvarlige for integrationen af ​​ekstern feedback fra de auditive og sensorimotoriske systemer, end der synger konsonantintervaller.

Introduction

Visse kombinationer af musikalske pitcher er generelt anerkendt for at være konsonante, og de er typisk forbundet med en behagelig fornemmelse. Andre kombinationer benævnes generelt dissonant og er forbundet med en ubehagelig eller uløst følelse 1 . Selvom det forekommer fornuftigt at antage, at enculturation og træning spiller en rolle i opfattelsen af ​​konsonans 2 , er det for nylig blevet vist, at forskellene i opfattelsen af ​​konsonante og dissonante intervaller og akkorder sandsynligvis er mindre afhængige af musikalsk kultur end tidligere blevet antaget 3 og maj Selv stammer fra simple biologiske baser 4 , 5 , 6 . For at forhindre en tvetydig forståelse af begrebet konsonans, introducerede Terhardt 7 begrebet sensorisk konsonans, i modsætning til konsonans i en musikalsk sammenhæng, Hvor harmoni for eksempel kan påvirke svaret på et givet akkord eller interval. I den foreliggende protokol blev kun isolerede topunktsintervaller brugt præcist til at udelukke aktiveringer udelukkende relateret til sensorisk konsonans uden indblanding fra kontekstafhængig behandling 8 .

Forsøg på at karakterisere konsonans gennem rent fysiske midler begyndte med Helmholtz 9 , som tilskrev den opfattede ruhed forbundet med dissonante akkorder til at slå mellem tilstødende frekvenskomponenter. For nylig er det imidlertid blevet påvist, at sensorisk konsonans ikke kun er forbundet med fraværet af ruhed, men også med harmonicitet, det vil sige tilpasningen af ​​partiklerne af en given tone eller akkord med de af en uhørt tone i en Lavere frekvens 10 , 11 . Behavioral studier bekræfter, at subjektiv konsonans faktisk påvirkes af puAfhænger af fysiske parametre, såsom frekvensafstand 12 , 13 , men et bredere udvalg af studier har påvist, at fysiske fænomener ikke alene kan regne med forskellene mellem opfattet konsonans og dissonans 14 , 15 , 16 , 17 . Alle disse undersøgelser rapporterer imidlertid disse forskelle, når de lytter til en række intervaller eller akkorder. En række undersøgelser ved anvendelse af Positron Emission Tomography (PET) og funktionel magnetisk resonansbilleddannelse (fMRI) har afsløret signifikante forskelle i de kortikale regioner, der bliver aktive, når man lytter til enten konsonante eller dissonante intervaller og akkorder 8 , 18 , 19 , 20 . Formålet med den foreliggende undersøgelse er at undersøge forskelleneI hjerneaktivitet, når man producerer, snarere end at lytte til, konsonante og dissonante intervaller.

Undersøgelsen af ​​sensorisk-motorisk kontrol under musikalsk produktion involverer typisk brug af musikinstrumenter, og meget ofte kræver det fremstilling af instrumenter, der er modificeret specifikt til deres brug under neuroimaging 21 . Sang synes imidlertid at give fra starten en passende mekanisme til analyse af sensoriske motoriske processer under musikproduktionen, da instrumentet er selve menneskets stemme, og vokalapparatet ikke kræver nogen ændring for at være egnet under Billeddannelse 22 . Selvom de neurale mekanismer forbundet med sangaspekter, såsom tonehøjdekontrol 23 , vokalimitation 24 , træningsinducerede adaptive forandringer 25 og integrationen af ​​ekstern tilbagekobling 25 , , 27 , 28 , 29 , har været genstand for en række studier i løbet af de sidste to årtier, blev de neurale korrelater af sangkonsonant og dissonante intervaller først for nylig beskrevet 30 . Til dette formål beskriver det aktuelle papir en adfærdstest, der er designet til at etablere en passende anerkendelse af konsonante og dissonante intervaller af deltagerne. Dette følges af et fMRI-studie af deltagere, som synger en række konsonante og dissonante intervaller. FMRI-protokollen er forholdsvis ligetil, men som med al MR-forskning skal der lægges stor vægt på korrekt opstilling af forsøgene. I dette tilfælde er det særligt vigtigt at minimere hoved-, mund- og læbebevægelse under sangopgaver, hvilket gør identifikationen af ​​effekter, der ikke er direkte relateret til den fysiske handling, at synge mere ligetil. Denne metode kan bruges til iFastlægge neurale mekanismer forbundet med en række aktiviteter, der involverer musikalsk produktion ved at synge.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Denne protokol er blevet godkendt af Hospitalet Infantil de México "Federico Gómez", Udvalget for Forskning, Etik og Sikkerhed.

1. Behavioral Pretest

  1. Udfør en standard, ren-tone audiometrisk test for at bekræfte, at alle potentielle deltagere har normal hørelse (20 dB Hearing Level (HL) over oktavfrekvenser på -8000 Hz). Brug Edinburgh Handedness Inventory 31 for at sikre, at alle deltagere er højrehåndede.
  2. Generering af intervall sekvenser.
    1. Fremstil rene toner, der spænder over to oktaver, G4-G6, ved hjælp af et lydredigeringsprogram.
      BEMÆRK: Her beskrives den gratis lydbaserede lydredigeringssoftware Audacity. Andre pakker kan anvendes til dette formål.
      1. For hver tone skal du åbne et nyt projekt i lydredigeringssoftwaren.
      2. Vælg "Tone" under menuen "Generer". I vinduet der vises, sVælge en sinusbølgeform, en amplitude på 0,8 og en varighed på 1 s. Indtast værdien af ​​den frekvens, der svarer til den ønskede note ( f.eks. 440 Hz for A4). Klik på "OK" knappen.
      3. Vælg "Eksporter lyd" under menuen "Fil". Indtast det ønskede navn for lydfilen i vinduet, der åbnes, og vælg WAV som den ønskede filtype. Klik på "Gem".
    2. Vælg to konsonant og to dissonante intervaller, ifølge tabel 1 , på en sådan måde, at hvert konsonantinterval ligger tæt på et dissonantinterval.
      BEMÆRK: Som eksempel kan du overveje konsonantintervallerne for en perfekt femte og en oktav og dissonante intervaller for en forstørret fjerde (tritone) og en stor syvende. Dette er de intervaller, der er valgt til forfatterens undersøgelse.
    3. Generer alle mulige kombinationer af noter svarende til disse fire intervaller i området mellem G4 og G6.
      1. Til eacH-interval, åbner du et nyt projekt i lydredigeringssoftwaren og bruger "Import Audio" under menuen "Fil" for at importere de to WAV-filer, der skal sammenkædes.
      2. Placer markøren til enhver tid over den anden tone og klik for at vælge. Klik på "Vælg alle" under menuen "Rediger". Under den samme menu skal du klikke på "Kopier".
      3. Placer markøren til enhver tid over den første tone og klik. Under menuen "Rediger" skal du klikke på "Flyt markøren til sporets ende" og derefter klikke på "Indsæt" under samme menu. Udfør lyden som beskrevet i trin 1.2.1.3.
    4. Brug en tilfældig sekvensgenerator til at producere sekvenser bestående af 100 intervaller genereret pseudorandomly på en sådan måde, at hver af de fire forskellige intervaller forekommer nøjagtigt 25 gange 30 . For at gøre dette skal du bruge tilfældig permutationsfunktionen i den statistiske analysesoftware (se Materialetabellen ). Indtast de fire intervallerAls som argumenter og lav en loop, der gentager denne proces 25 gange.
    5. Brug behavioral research software til at generere to forskellige kørsler. Indlæs en sekvens på 100 intervaller i WAV-format for hver runde og associerer identifikationen af ​​hvert interval med et enkelt forsøg 30 .
      BEMÆRK: Her anvendes E-Prime adfærdsmæssig forskningssoftware. Andet tilsvarende adfærdsmæssigt forskningsprogram kan anvendes.
  3. Forklar deltagerne, at de vil lytte til to sekvenser på 100 intervaller hver, hvor hver sekvens er forbundet med en anden opgave og med sit eget sæt instruktioner. Fortæl deltagerne, at i begge kørsler vil det næste interval kun afspilles, når der trykkes på en gyldig nøgle.
    BEMÆRK: Når intervallgenkendelsessekvensen begynder, skal den ikke afbrydes, så handlingsforløbet skal være så klart som muligt for alle deltagere.
    1. Lad deltagerne sidde foran en bærbar computerOg brug de medfølgende hovedtelefoner. Brug højkvalitets øretelefoner. Juster lydniveauet til et behageligt niveau for hvert emne.
    2. Hvis du bruger den adfærdsmæssige forskningsprogram, der beskrives her, skal du åbne de opgaver, der blev oprettet i trin 1.2.5 med E-Run. Indtast sessionen og fagnummeret i vinduet, der vises, og klik på "OK". Brug sessionsnummeret til at skelne mellem kørsler for hver deltager.
      BEMÆRK: Instruktionerne for den aktuelle opgave vises på skærmen, efterfulgt af starten af ​​selve opgaven.
      1. For det første skal deltagerne i en 2-alternativet tvunget valgopgave blot identificere, om de intervaller, de hører, er konsonante eller dissonante. Lad deltagerne trykke "C" på computerens tastatur for konsonant og "D" for dissonant.
        BEMÆRK: Da alle deltagere forventes at have musikalsk træning på vinterhaveplan, forventes de alle at kunne skelne mellem patenteret konsonant og patenteret disSonant intervaller. Den første opgave tjener på en vis måde som bekræftelse på, at dette faktisk er tilfældet.
      2. For det andet har deltagerne i en 4-alternativ tvunget valg opgave at identificere intervallerne selv. Lad deltagerne trykke på tallene "4", "5", "7" og "8" på computerens tastatur for at identificere intervallerne for henholdsvis en forstørret fjerde, perfekt femte, stor syvende og oktav.
    3. I slutningen af ​​hver opgave trykker du på "OK" for automatisk at gemme resultaterne for hver deltager i en individuel E-DataAid 2.0-fil, der er mærket med emne- og sessionsnumre og med udvidelsen .edat2.
    4. Brug statistisk analyse software ( f.eks. Matlab, SPSS Statistics eller et open source-alternativ) til at beregne succesrate for hver opgave ( dvs. procentdelen af ​​succesfulde svar ved identifikation af om intervallerne var konsonante eller dissonante, og også ved identifikation af intErvals selv), både individuelt og som en gruppe 32 .

2. fMRI-eksperiment

  1. Forberedelse af fMRI-sessionen.
    1. Generere sekvenser med de samme intervaller som i trin 1.2.3, igen sammensat af to på hinanden følgende rene toner med en varighed på 1 s hver.
      BEMÆRK: Deltagernes rækkevidde skal nu tages i betragtning, og alle noter skal falde komfortabelt inden for hver deltagers sangområde.
      1. Brug en tilfældig sekvensgenerator til at skabe en randomiseret sekvens på 30 intervaller for lytteforsøgsprocedurerne 30 . For sangforsøgene skal du oprette en pseudorandomiseret sekvens på 120 intervaller for deltagerne at lytte til et bestemt interval og derefter matche dette målinterval med deres sangstemmer. For den pseudorandomerede sekvens skal du anvende den samme metode som beskrevet i trin 1.2.4, med de 4 intervaller som argumenter igen, men nOw gentager denne proces 30 gange.
      2. Følg samme procedure som i trin 1.2.5 ved brug af adfærdsmæssig forskningssoftware til at generere tre forskellige kørsler, der hver især bestod af 10 lydløse baselineforsøg efterfulgt af 10 på hinanden følgende lytteforsøg, og endelig ved 40 på hinanden følgende sangforsøg.
        BEMÆRK: Under basislinieforsøgene vises de fire intervaller i tilfældig rækkefølge, mens under sangforsøgene de fire intervaller vises i pseudorandomiseret rækkefølge på en sådan måde, at hvert interval efterhånden præsenteres nøjagtigt 10 gange. Varigheden af ​​hvert forsøg er 10 s, så en hel runde varer 10 min. Da hvert emne går gennem 3 eksperimentelle kørsler, er eksperimentets samlede varighed 30 minutter. Imidlertid giver deltagerne mulighed for at indtaste og forlade scanneren, for tid til at oprette og teste mikrofonen, for tid til at opnå den anatomiske scanning og for tiden mellem funktionelle kørsler, skal ca. 1 time scannertid tildeles hver deltager .
    2. Forklar deltagerne i de prøver, der skal præsenteres, som beskrevet i trin 2.1.1.2, og svar på enhver tvivl, de måtte have. Opfordre deltagerne til at humme noterne uden at åbne deres mund under sangprøverne, idet læberne stadig er ved at producere en "m" lyd.
    3. Tilslut et ikke-magnetisk, MR-kompatibelt headset til en bærbar computer. Juster lydniveauet til et behageligt niveau for hvert emne.
    4. Tilslut en lille kondensatormikrofon til en lydgrænseflade, som igen er forbundet til den bærbare computer ved hjælp af et afskærmet snoet-triplet-kabel.
      BEMÆRK: Mikrofonens strømforsyning, lydgrænsefladen og den bærbare computer skal alle være placeret uden for rummet, der rummer scanneren.
    5. Kontrollér mikrofonfrekvensresponsen.
      BEMÆRK: Formålet med denne test er at bekræfte, at mikrofonen opfører sig som forventet inde i scanneren.
      1. Start et nyt projekt i lydredigeringssoftwaren og vælg kondensatorenMikrofon som indgangsenhed.
      2. Generer en 440 Hz testtone med en varighed på 10 s som beskrevet i afsnit 1.2.1 med de relevante værdier for frekvens og varighed.
      3. Brug standard lydgengivelsessoftware på den bærbare computer ved at trykke på "Afspil" for at sende testtonen via hovedtelefonerne på steder inde (oven på nakkestøtten) og udenfor (i kontrolrummet) scanneren med mikrofonen placeret mellem siderne Af headsettet i hvert tilfælde.
      4. Tryk på "Record" i lydredigeringssoftwaren for at optage ca. 1 s af testtonen på hvert sted.
      5. Vælg "Plot Spectrum" fra menuen "Analyser" for hvert tilfælde og sammenlign mikrofonens respons til testtonen, både indenfor og uden for scanneren, ved at kontrollere, at den grundlæggende frekvens af signalet modtaget på hvert sted er 440 Hz.
    6. Tape kondensatormikrofonen til deltagernes hals, lige understrubehoved.
    7. Lad deltageren bære headsettet. Placer deltageren i en magnetisk resonans (MR) scanner.
  2. FMRI session.
    1. I begyndelsen af ​​sessionen åbner du softwarepakken for magnetisk resonans brugergrænseflade (MRUI). Brug MRUI til at programmere overtagelsesparadigmet.
      BEMÆRK: Nogle variationer i grænsefladen kan forventes mellem forskellige modeller.
      1. Vælg indstillingen "Patient" fra skærmmenuen. Indtast deltagerens navn, alder og vægt.
      2. Klik på "Exam" knappen. Først skal du vælge "Head" og derefter "Brain" fra de tilgængelige muligheder.
      3. Vælg "3D" og derefter "T1 isometrisk" med følgende værdier for de relevante parametre: Gentagelsestid (TR) = 10,2 ms, Ekkotid (TE) = 4,2 ms, Flip Angle = 90 ° og Voxel Størrelse = 1 x 1 x 1 mm 3
        BEMÆRK: For hver deltager vil et T1-vægtet anatomisk volumen bE erhvervet ved anvendelse af en gradient-ekko-puls-sekvens for anatomisk reference.
      4. Klik på "Program" og vælg EchoPlanaImage_diff_perf_bold (T2 *) med værdierne for de relevante parametre som følger: TE = 40 ms, TR = 10 s, Acquisition Time (TA) = 3 s, Forsinkelse i TR = 7 s, Flip Vinkel = 90 °, synsfelt (FOV) = 256 mm 2 og Matrix Dimensioner = 64 x 64. Brug "Dummy" -optionen til at erhverve 5 volumener, mens du indtaster en værdi på "55" for det samlede antal volumener.
        BEMÆRK: Disse værdier tillader opkøb af funktionelle T2 * -vægtede helhovedscanninger i henhold til det sparsomme prøveudtagningsparadigm, der er illustreret i Figur 1 , hvor en EPO-dummy-scan opnås og kasseres for at tillade T1-mætning virkninger. Bemærk, at i nogle MRUI'er skal værdien af ​​TR være 3 s, da det antages at være den samlede tid, hvor købet finder sted.
      5. Klik på "Kopier" for at lave en kopi af denne sekvensENCE. Placer markøren nederst på listen over sekvenser, og klik derefter på "Indsæt" to gange for at indstille tre på hinanden følgende sparsomme sampling sekvenser.
      6. Klik på "Start" for at starte den T1-vægtede anatomiske volumenforsamling.
      7. Foreløbige tre kører til deltageren med kørslen som beskrevet i trin 2.1.1.2. Synkroniser starten af ​​kørslen ved køb af scanneren ved hjælp af scanner udløserkassen.
        1. Følg samme procedure som beskrevet i afsnit 1.3.2 for at starte hver af de tre kørsler, der differentierer mellem kørsler ved hjælp af sessionsnummeret. Gem resultaterne af tre komplette kørsler ved hjælp af samme procedure som beskrevet i trin 1.3.3.
          BEMÆRK: Tidspunktet for prøvepræsentationerne er systematisk jitteret med ± 500 ms.

figur 1
Figur 1: SParse-sampling Design. ( A ) Tidslinje af begivenheder inden for en prøve, der kun indebærer at lytte til et totonet interval (2 s) uden efterfølgende åbenbar gengivelse. ( B ) Tidslinje af begivenheder inden for en prøve med lytte- og sangopgaver. Klik her for at se en større version af denne figur.

3. Data analyse

  1. Forarbejde de funktionelle data ved hjælp af software designet til analyse af hjernedannelsesdatasekvenser efter standardprocedurer 33 .
    BEMÆRK: Alle databehandlingerne udføres ved hjælp af den samme software.
    1. Brug det medfølgende menupunkt til at justere billederne til det første volumen, resampleret og rumligt normaliseret (endelig voxelstørrelse: 2 x 2 x 2 mm 3 ) til det standardmonterede stereotaktiske rum fra Montreal Neurological Institute (MNI) 34 . Brug det medfølgende menupunkt til at glatte billedet ved hjælp af en isotropisk, 8 mm, fuld bredde ved halv maksimal (FWHM) Gaussisk kerne.
    2. Hvis du vil model BOLD-svaret, skal du vælge en enkelt-bin-Finite Impulse Response (FIR) som en basisfunktion (rækkefølge 1) eller boxcar funktion, der spænder tiden for lydindsamling (3 s) 28 .
      BEMÆRK: Sparsamprøveprotokoller, som denne, kræver ikke generelt, at FIR-gruppen er forbundet med den hæmodynamiske responsfunktion, som det almindeligvis er tilfældet for hændelsesrelateret fMRI.
    3. Anvend et højpasfilter til BOLD-responsen for hver begivenhed (1.000 s for "sangnetværket" og 360 s andetsteds).
      BEMÆRK: Modellering af alle sangopgaver sammen udgør en blok på 400 s 35 .

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Alle 11 deltagere i vores eksperiment var kvindelige vokalstuderende på vinterhaveplanen, og de udførte sig godt nok i de intervalgennemsagnsopgaver, der skulle vælges til scanning. Succesraten for intervallidentifikationsopgaven var 65,72 ± 21,67%, hvilket som forventet er lavere end succesfrekvensen ved identifikation af dissonante og konsonantintervaller, hvilket var 74,82 ± 14,15%.

For at validere undersøgelsens grundlæggende design håbede vi at identificere neurale aktiviteter under sang i de regioner, der vides at udgøre "sangnetværket" som defineret i en række tidligere undersøgelser 25 , 26 , 27 , 28 , 29 , 30 , 31 ,Ass = "xref"> 32 , 33 , 34 , 35 , 36 , 37 . Effekten af ​​sang observeres ved hjælp af den første niveau lineære kontrast af interesse, hvilket svarer til at synge i modsætning til lytning. En-prøve-t-test blev brugt med klynger bestemt ved Z> 3 og en klyngenes betydningstærskel p = 0,05, Family-Wise Error (FWE) korrigeret 38 . Til anatomisk mærkning blev SPM Anatomy Toolbox 33 og Harvard-Oxford cortical og subcortical structural atlas anvendt 39 . Hjernegrupperne, hvor signifikant aktivering blev observeret, var den primære somatosensoriske cortex (S1), den sekundære somatosensoriske cortex (S2), den primære motorcortex (M1), det supplerende motorområde (SMA), den premotoriske cortex (PM), Brodmann-området 44 (BA 44), den primære auditory cortex(PAC), den overordnede temporal gyrus (STG), den temporale pol, den forreste insula, putamen, thalamus og cerebellum. Disse aktivering matcher de rapporterede i de ovennævnte undersøgelser vedrørende "sangnetværket", og de er illustreret i figur 2 . Bemærk at i begge figurer 2 og 3 er x-koordinaten vinkelret på sagittalplanet, y-koordinaten er vinkelret på koronalplanet, og z-koordinaten er vinkelret på det tværgående eller horisontale plan.

Når det grundlæggende design er blevet valideret, blev to yderligere lineære kontrastniveauer på første niveau beregnet for hver deltager, svarende til syngende dissonant i modsætning til konsonantintervaller og sangkonsonant i modsætning til dissonante intervaller. Disse lineære kontraster blev derefter taget til en anden niveau-random-effect-model, der involverede et sæt 2-vejs gentagne måleanalyser af variaNce (ANOVA), med faktorerne konsonans og dissonans. På denne måde blev de aktiverede eller deaktiverede områder undersøgt for mulige vekselvirkninger, med aktivitetsinteresser bestemt bestemt ifølge signifikans voxeltærskelen p <0,001, ukorrigeret for multiple sammenligninger 28 , 29 . For den kontrast, der var resultatet af at synge dissonant i modsætning til konsonantintervaller, blev der observeret øgede aktiveringer i højre S1, højre PAC, venstre midterste ende, højre posterior insula, venstre amygdala og venstre putamen. Disse aktiveringer er vist i figur 3 . Med hensyn til den komplementære kontrast blev der ikke påvist signifikante ændringer i aktivering under sang af konsonantintervaller.

Figur 2
Figur 2: Aktivering i regioner, der udgør "Singing Network." ActivatIonen kort er præsenteret med en klynge signifikans tærskel på p = 0,05, familiefejl fejl (FWE) korrigeret. BOLD-svar rapporteres i vilkårlig enheder. Klik her for at se en større version af denne figur.

Figur 3
Figur 3: Kontrast imellem synge af dissonant og konsonantintervaller. Aktiveringskort er præsenteret, ukorrigeret for flere sammenligninger, med en tærskelværdierstærskel på p = 0,001. BOLD-svar rapporteres i vilkårlig enheder. Klik her for at se en større version af denne figur.

Interval Antal halvtoner Forholdet mellem fundamentale forhold
Unison 0 1: 1
Mindre sekund 1 16:15
Største sekund 2 9: 8
Mindre tredje 3 6: 5
Største tredjedel 4 5: 4
Perfekt fjerde 5 4: 3
Tritone 6 45:32
Perfekt femte 7 3: 2
Mindre sjette 8 8: 5
Major sjette 9 5: 3
Mindre syvende 10 16: 9
Største syvende 11 15: 8
Octave 12 2: 1

Tabel 1: Consonant og Dissonant Musical Intervals. Consonant intervaller vises i fed skrift, mens dissonante intervaller vises i kursiv. Vær opmærksom på, at jo mere konsonant et interval, jo mindre er heltalene, der vises i frekvensforholdet, der bruges til at repræsentere det. For en dybtgående diskussion af konsonans og dissonans som en funktion af frekvensforhold, se Bidelman & Krishnan 40 .

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Dette værk beskriver en protokol, hvor sang bruges som et middel til at studere hjerneaktivitet under produktion af konsonante og dissonante intervaller. Selvom sang giver det, der muligvis er den enkleste metode til produktion af musikalske intervaller 22 , tillader det ikke akkordproduktion. Selv om de fleste fysiske karakteriseringer af begrebet konsonans imidlertid i nogen grad afhænger af overlejring af samtidige noter, har en række undersøgelser vist, at intervaller konstrueret med noter, der svarer til konsonant eller dissonante akkorder, stadig opfattes som konsonant eller dissonant, Henholdsvis 4 , 6 , 15 , 41 , 42 .

Opgaveintervalopfattelsesopgaven bruges til at etablere, før deltagerne kan gennemgå scanningen sEssion, hvis de er i stand til at skelne mellemrumene tilstrækkeligt. Således fungerer de godt en gang indenfor magnetresonatoren. Alle deltagere, der ikke er i stand til at opfylde en forudbestemt tærskel, når de udfører disse identifikationsopgaver, bør ikke fortsætte til fMRI-eksperimentet. Hovedformålet med denne udvælgelsesproces er at sikre, at forskelle i præstationer mellem deltagerne ikke skyldes manglende perceptuelle evner. Udvalgte deltagere skal have tilsvarende grader af vokal og musikalsk træning, og også om muligt lignende tessituras. Hvis de har vokalområder, der varierer betydeligt, skal intervallet, der præsenteres under de sangopgaver, de skal udføre, tilpasses.

Mikrofonopsætningen er afgørende for, at overtagelsen er pålidelig og artefaktfri. Selve typen af ​​mikrofon er meget vigtig, og selv om det er muligt at anvende optisk 28 eller specielt designet, MR-kompatibel 29 Sup> mikrofoner har det vist sig, at følsomheden af ​​kondensormikrofoner ikke påvirkes af tilstedeværelsen af ​​de intense magnetfelter i billedmiljøet 43 . En lille Lavalier-kondensormikrofon kan faktisk anvendes i denne sammenhæng, forudsat at et afskærmet snoet-triplet-kabel bruges til at forbinde mikrofonen til forforstærkeren, som skal placeres uden for det rum, hvor MR-scanneren er anbragt. Dette arrangement forhindrer udseendet af billeddannende artefakter 44 , men forskere bør også sikre, at scanneren ikke forstyrrer mikrofonens ydeevne. Til dette formål kan der sendes en testtone via de MR-kompatible hovedtelefoner til mikrofonen placeret i MR-scanneren, og signalet opnået på denne måde kan derefter sammenlignes med det, der opnås ved at sende den samme tone til den mikrofon, der nu er placeret udenfor Scanneren. Lydtrykniveauerne inde i MR-scanneren kan være ekstremt højeXref "> 45, så mikrofonen skal placeres så tæt som muligt på kilden. Ved at spørge deltagerne om at være mere end åbenlyngede, kan bevægelsen i og omkring mundområdet minimeres. Ved at placere mikrofonen lige under strubehovedet , Der er dækket af tape, er det muligt at opnå en trofast optagelse af sangerens stemme. Optagelsen vil naturligvis være meget støjende - dette kan ikke undgås - men hvis forskerne primært er interesserede i tonehøjde og ikke i artikulering eller ordforklaring, Forskellige softwarepakker kan bruges til at rense signalet tilstrækkeligt til detektering af den grundlæggende frekvens af hver sung notat. En standard metode ville være at bruge lydredigeringssoftware til at filtrere tidssignalerne gennem et Hamming-vindue og derefter anvende autokorrelationen Algoritmer indbygget i bestemte tale- og fonetiske softwarepakker for at identificere de sunde fundamentale. Vokal præcision kan derefter beregnes for hver deltager. Potentielle anvendelser afDataene fra optagelserne indbefatter korrelerende tonehøjde eller rytmisk nøjagtighed med en hvilken som helst grad af træning eller intervalafstande.

Funktionelle billeder er erhvervet ved hjælp af et sparsomt prøvetagningsdesign for at minimere BOLD eller auditiv maskering på grund af scanningsstøj 25 , 28 , 29 , 46 , 47 . Hvert emne gennemgår 3 eksperimentelle kørsler, hver af dem varer 10 min. Under hvert løb bliver fagpersoner først bedt om at lægge sig i stilhed i løbet af 10 lydløse baselineforsøg, så lytte passivt til en blok med 10 intervaller og endelig at lytte til og synge tilbage en anden blok på 40 intervaller. Et formål med at holde individuelle kørsler så kort som muligt er at undgå deltagernes træthed. Ikke desto mindre er det siden blevet konkluderet, at det i fremtiden vil være bedre at inddrage samme antal lytte-kun- og sangforsøg, hvilketKan derefter præsenteres i vekslende blokke. Dette ville medføre en stigende statistisk magt. Som et eksempel kunne et løb bestå af 2 blokke af 5 tavse forsøg med baseline, 4 blokke med 5 lytteforsøg og 4 blokke af sangforsøg. Blokene vil derefter blive præsenteret for deltagere i veksling, med en samlet varighed på 500 s pr løb.

Hovedårsagen til at deltagerne lytter passivt inde i resonatoren er at have mulighed for at subtrahere auditiv aktivitet fra motoraktivitet. Således er en gunstig sammenligning af sangaktiveringer mod "sangnetværket" 25 , 27 , 28 , 29 , 36 , 37 uundværlig for korrekt validering af undersøgelsen. Bemærk at "syngende netværk" aktiveringer er meget robuste og veletablerede og er normalt deTected ved hjælp af one-sample t-tests og en korrigeret cluster significance tærskel på p = 0,05. Aktiveringer svarende til kontrasten mellem syngende dissonant / konsonant og konsonant / dissonantintervaller identificeres typisk ved hjælp af 2-vejs gentagne faktoranalyser af varians (ANOVA) i henhold til signifikans voxeltærsklen p <0,001, ukorrigeret for multiple sammenligninger 28 , 29 . Det forventes, at deltagerne vil finde syngende dissonante intervaller mere udfordrende end at syngende konsonantintervaller 48 , 49 ; Således forventes forskellige aktiveringer for hver af de to kontraster beskrevet ovenfor. Resultater viser, at syngende dissonante intervaller indebærer en omprogrammering af de neurale mekanismer, der rekrutteres til produktion af konsonantintervaller. Under sang er den producerede lyd sammenlignet med den tilsigtede lyd, og enhver nødvendig justering opnås derefterGennem integration af ekstern og intern feedback fra auditive og somatosensoriske veje. En detaljeret diskussion af disse resultater og de konklusioner, der drages af dem, er inkluderet i artiklen af ​​González-García, González og Rendón 30 .

Denne protokol giver en rimelig ligetil metode til undersøgelse af neurale korrelater af musikalsk produktion og til overvågning af aktiviteten af ​​både motor og lydsystemer. Det kan bruges til at spore forskelle i hjerneaktivering mellem binære forhold, såsom sangkonsonant eller dissonante intervaller, og synger smalle eller brede intervaller 30 . Det er også velegnet til at studere effekten af ​​træning på en række opgaver forbundet med at synge specifikke frekvenser. På den anden side vil det være vanskeligt at anvende denne prototyper på grund af den meget store mængde støj, der er indeholdt i optagelser af den sunde stemme, der blev opnået under scanningen.Ocol at analysere opgaver, der vedrører kvalitet af tone eller timbre, især fordi disse er kvaliteter, der ikke kan måles korrekt, mens humming.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Forfatterne erklærer ingen interessekonflikter.

Acknowledgments

Forfatterne anerkender økonomisk støtte til denne forskning fra Secretaría de Salud de México (HIM / 2011/058 SSA. 1009), CONACYT (SALUD-2012-01-182160) og DGAPA UNAM (PAPIIT IN109214).

Materials

Name Company Catalog Number Comments
Achieva 1.5-T magnetic resonance scanner Philips Release 6.4
Audacity Open source 2.0.5
Audio interface Tascam US-144MKII
Audiometer Brüel & Kjaer Type 1800
E-Prime Professional Psychology Software Tools, Inc. 2.0.0.74
Matlab Mathworks R2014A
MRI-Compatible Insert Earphones Sensimetrics S14
Praat Open source 5.4.12
Pro-audio condenser microphone Shure SM93
SPSS Statistics IBM 20
Statistical Parametric Mapping Wellcome Trust Centre for Neuroimaging 8

DOWNLOAD MATERIALS LIST

References

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061 (1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237 (2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Tags

Behavior Consonance and dissonance musikalske neurale korrelater musikalsk intervalidentifikation sang funktionel magnetisk resonansbilleddannelse (fMRI) audio-vokal integration
FMRI-kortlægning af hjerneaktivitet associeret med vokalproduktion af konsonant- og dissonantintervaller
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

González-García, N.,More

González-García, N., Rendón, P. L. fMRI Mapping of Brain Activity Associated with the Vocal Production of Consonant and Dissonant Intervals. J. Vis. Exp. (123), e55419, doi:10.3791/55419 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter