Waiting
登录处理中...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

FMRI-kartlegging av hjerneaktivitet assosiert med vokalproduksjonen av konsonant og dissonantintervaller

Published: May 23, 2017 doi: 10.3791/55419

Summary

Nevrale korrelater av å lytte til konsonante og dissonante intervaller har blitt studert mye, men de nevrale mekanismene som er forbundet med produksjon av konsonante og dissonante intervaller er mindre velkjente. I denne artikkelen er adferdstest og fMRI kombinert med intervallidentifikasjon og sangoppgaver for å beskrive disse mekanismene.

Abstract

De nevrale korrelater av konsonans og dissonanspersepsjon er blitt studert mye, men ikke nevrale korrelater av konsonans og dissonansproduksjon. Den mest enkle måten musikkproduksjon synger, men fra et bilde-perspektiv fremstår det fortsatt flere utfordringer enn å lytte fordi det innebærer motoraktivitet. Den nøyaktige sangingen av musikalske intervaller krever integrering mellom auditiv tilbakemelding og vokal motorstyring for å kunne produsere hvert notat korrekt. Denne protokollen presenterer en metode som tillater overvåking av nevrale aktiveringer assosiert med vokalproduksjonen av konsonante og dissonante intervaller. Fire musikalske intervaller, to konsonant og to dissonant, brukes som stimuli, både for en auditorisk diskrimineringstest og en oppgave som involverer å først lytte til og deretter gjengi gitt intervaller. Deltakere, alle kvinnelige vokalstuderende på vinterhagen, ble studert ved hjelp av funksjonell magnetisk resOnance Imaging (fMRI) under utførelsen av sangoppgaven, med lyttingsoppgaven som betjeningsbetingelse. På denne måten ble aktiviteten til både motor- og lydsystemene observert, og et mål for vokal nøyaktighet under sangoppgaven ble også oppnådd. Dermed kan protokollen også brukes til å spore aktiveringer forbundet med å synge forskjellige typer intervaller eller med å synge de nødvendige notatene mer nøyaktig. Resultatene indikerer at syngende dissonante intervaller krever større deltakelse av nevrale mekanismer som er ansvarlige for integrasjonen av ekstern tilbakemelding fra de hørbare og sensorimotoriske systemer enn syngende konsonantintervaller.

Introduction

Visse kombinasjoner av musikalske baner er generelt anerkjent for å være konsonant, og de er vanligvis forbundet med en hyggelig følelse. Andre kombinasjoner er generelt referert til som dissonant og er forbundet med en ubehagelig eller uløst følelse 1 . Selv om det synes fornuftig å anta at enculturasjon og trening spiller en rolle i konseptet 2 , har det nylig blitt vist at forskjellene i oppfatning av konsonant og dissonant intervaller og akkorder sannsynligvis er mindre avhengig av musikalsk kultur enn tidligere antatt 3 og mai Selv stammer fra enkle biologiske baser 4 , 5 , 6 . For å forhindre en tvetydig forståelse av begrepet konsonans, introduserte Terhardt 7 begrepet sensorisk konsonans, i motsetning til konsonans i en musikalsk sammenheng, Hvor harmoni for eksempel kan påvirke responsen på et gitt akkord eller intervall. I den foreliggende protokollen ble bare isolerte topunktsintervaller brukt nøyaktig for å utelukke aktiveringer som bare er relatert til sensorisk konsonans, uten forstyrrelser fra kontekstavhengig prosessering 8 .

Forsøk på å karakterisere konsonans gjennom rent fysiske midler begynte med Helmholtz 9 , som tilskrev den oppfattede grovheten forbundet med dissonante akkorder til å slå mellom tilstøtende frekvenskomponenter. I nyere tid har det imidlertid vist seg at sensorisk konsonans ikke bare er forbundet med fravær av grovhet, men også med harmonisitet, det vil si justering av partiene av en gitt tone eller akkord med de av en uhørt tone i en Lavere frekvens 10 , 11 . Behavioral studier bekrefter at subjektiv konsonans faktisk påvirkes av puStole på fysiske parametere, for eksempel frekvensavstand 12 , 13 , men et bredere spekter av studier har påvist at fysiske fenomen ikke bare kan utgjøre forskjellene mellom oppfattet konsonans og dissonans 14 , 15 , 16 , 17 . Alle disse studiene rapporterer imidlertid disse forskjellene når de lytter til en rekke intervaller eller akkorder. En rekke studier ved bruk av Positron Emission Tomography (PET) og funksjonell magnetisk resonans imaging (fMRI) har vist betydelige forskjeller i de kortikale områdene som blir aktive når man lytter til enten konsonant eller dissonant intervaller og akkorder 8 , 18 , 19 , 20 . Hensikten med denne studien er å utforske forskjelleneI hjerneaktivitet når man produserer, snarere enn å lytte til, konsonante og dissonante intervaller.

Studien av sensorisk-motorisk kontroll under musikalsk produksjon innebærer vanligvis bruk av musikkinstrumenter, og ofte krever det da fremstilling av instrumenter som er modifisert spesielt for bruk under nevroimaging 21 . Synging synes imidlertid å gi fra starten en hensiktsmessig mekanisme for analyse av sensoriske motoriske prosesser under musikkproduksjonen, da instrumentet er selve menneskets stemme, og vokalapparatet ikke krever noen modifikasjoner for å være egnet under Avbildning 22 . Selv om nevrale mekanismer assosiert med aspekter av sang, slik som tonehøydekontroll 23 , vokalimitasjon 24 , treningsinducerte adaptive forandringer 25 og integrasjon av ekstern tilbakemelding 25 , , 27 , 28 , 29 , har vært gjenstand for en rekke studier i løpet av de siste to tiårene, ble de nevrale korrelater av sangkonsonant og dissonante intervaller først nylig beskrevet 30 . For dette formål beskriver det nåværende papiret en adferdstest som er utformet for å fastslå tilstrekkelig anerkjennelse av konsonant og dissonant intervaller av deltakerne. Dette følges av en fMRI-studie av deltakerne som synger en rekke konsonante og dissonante intervaller. FMRI-protokollen er relativt enkel, men som med all MR-undersøkelse må det tas stor forsiktighet for å korrekt opprette forsøkene. I dette tilfellet er det spesielt viktig å minimere hode-, munn- og leppebevegelser under sangoppgaver, noe som gjør det mulig å identifisere effekter som ikke er direkte relatert til den fysiske sangbevegelsen enklere. Denne metoden kan brukes til iVestigere nevrale mekanismene forbundet med en rekke aktiviteter som involverer musikalsk produksjon ved sang.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Denne protokollen er godkjent av Forsknings-, Etikk- og Sikkerhetskomiteen til Hospital Infantil de México "Federico Gómez".

1. Behavioral Pretest

  1. Utfør en standard, ren-tone audiometrisk test for å bekrefte at alle potensielle deltakere har normal hørsel (20 dB Hearing Level (HL) over oktavfrekvenser på -8000 Hz). Bruk Edinburgh Handedness Inventory 31 for å sikre at alle deltakere har høyrehendt.
  2. Generering av intervall sekvenser.
    1. Lag rene toner som spenner over to oktaver, G4-G6, ved hjelp av et lydredigeringsprogram.
      MERK: Her beskrives gratis, åpen kildekode lydredigeringsprogramvare Audacity. Andre pakker kan brukes til dette formålet.
      1. For hver tone, åpne et nytt prosjekt i lydredigeringsprogramvaren.
      2. Under "Generer" -menyen, velg "Tone". I vinduet som vises, sVelg en sinusbølgeform, en amplitude på 0,8 og en varighet på 1 s. Skriv inn verdien av frekvensen som tilsvarer ønsket notat ( f.eks. 440 Hz for A4). Klikk på "OK" -knappen.
      3. Under "Fil" -menyen, velg "Eksporter lyd". I vinduet som åpnes, skriv inn ønsket navn for lydfilen og velg WAV som ønsket filtype. Klikk på "Lagre".
    2. Velg to konsonant og to dissonante intervaller, i henhold til Tabell 1 , på en slik måte at hvert konsonantintervall ligger nær et dissonantintervall.
      MERK: For eksempel, vurder konsonantintervallene til en perfekt femte og en oktav og de dissonante intervaller av en forstørret fjerde (tritone) og en stor syvende. Dette er de intervaller som er valgt for studien utført av forfatterne.
    3. Generer alle mulige kombinasjoner av notater som svarer til disse fire intervaller i området mellom G4 og G6.
      1. For eacH-intervall, åpne et nytt prosjekt i lydredigeringsprogramvaren og bruk "Import Audio" under "File" -menyen for å importere de to WAV-filene som skal sammenkobles.
      2. Plasser markøren når som helst over den andre tonen, og klikk for å velge. Klikk på "Velg alt" under "Rediger" -menyen. Under samme meny, klikk på "Kopier".
      3. Plasser markøren når som helst over den første tonen og klikk. Under "Rediger" -menyen klikker du på "Flytt markør til sporet slutt" og klikk deretter "Lim inn" under samme meny. Eksporter lyden som beskrevet i trinn 1.2.1.3.
    4. Bruk en tilfeldig sekvensgenerator til å produsere sekvenser som består av 100 intervaller generert pseudorandomly på en slik måte at hver av de fire forskjellige intervaller forekommer nøyaktig 25 ganger 30 . For å gjøre dette, bruk tilfeldig permutasjonsfunksjonen i statistisk analysesoftware (se Materialetabellen ). Skriv inn de fire intervjueneAls som argumenter og opprett en loop som gjentar denne prosessen 25 ganger.
    5. Bruk atferdsforsknings programvare for å generere to forskjellige kjøringer. Last inn en sekvens på 100 intervaller i WAV-format for hver runde, og knytt identifiseringen av hvert intervall med en enkelt prøveperiode 30 .
      MERK: Her brukes E-Prime atferdsforsknings programvare. Andre tilsvarende opplæringsprogramvare kan brukes.
  3. Forklar deltakerne at de vil lytte til to sekvenser med 100 intervaller hver, hvor hver sekvens er knyttet til en annen oppgave og med sitt eget sett med instruksjoner. Fortell deltakerne at i begge løpene vil neste intervall bare spilles når en gyldig tast trykkes.
    MERK: Når intervallgjenkjenningssekvensen begynner, bør den ikke avbrytes, slik at handlingsforløpet skal være så klart som mulig for alle deltakere.
    1. Ta deltakerne seg foran en bærbar datamaskinOg bruk de medfølgende hodetelefonene. Bruk avanserte hodetelefoner av høy kvalitet. Juster lydnivået til et komfortabelt nivå for hvert emne.
    2. Hvis du bruker atferdsforskningsprogramvaren beskrevet her, åpner du oppgavene som ble opprettet i trinn 1.2.5 med E-Run. I vinduet som vises, skriv inn økten og fagnummeret og klikk på "OK". Bruk øktenummeret til å skille mellom løp for hver deltaker.
      MERK: Instruksjonene for oppgaven ved hånden vises på skjermen, etterfulgt av begynnelsen av selve oppgaven.
      1. For det første, i en 2-alternativ tvangsvalg-oppgave, må deltakerne bare finne ut om intervaller de hører, er konsonante eller dissonante. Ta deltakeren på "C" på tastaturet for konsonant og "D" for dissonant.
        MERK: Siden alle deltakerne forventes å ha musikalsk opplæring på vinterhage, er de alle forventet å kunne skille mellom patenterte og klare disSonant intervaller. Den første oppgaven tjener på en måte som bekreftelse på at dette faktisk er tilfelle.
      2. For det andre, i en 4-alternativ tvangsvelgeringsoppgave, må deltakerne identifisere intervallerene selv. Ta deltakerne på tallene "4", "5", "7" og "8" på datamaskinens tastatur for å identifisere intervaller for henholdsvis en forsterket fjerde, perfekt femte, stor syvende og oktav.
    3. På slutten av hver oppgave, trykk "OK" for å automatisk lagre resultatene for hver deltaker i en individuell E-DataAid 2.0-fil merket med emne- og øktnummer og med utvidelsen .edat2.
    4. Bruk statistisk analyse programvare (for eksempel Matlab, SPSS Statistikk eller et open source-alternativ) for å beregne suksessratene for hver oppgave ( dvs. prosenten av vellykkede svar når du identifiserer om intervaller var konsonante eller dissonante, og også når du identifiserer intErvals seg selv), både individuelt og som en gruppe 32 .

2. fMRI-eksperiment

  1. Forberedelse for fMRI-økten.
    1. Generere sekvenser med de samme intervaller som i trinn 1.2.3, igjen sammensatt av to påfølgende rene toner med en varighet på 1 s hver.
      MERK: Deltagernes rekkevidde må nå tas i betraktning, og alle notater må falle komfortabelt innenfor sangområdet for hver deltaker.
      1. Bruk en tilfeldig sekvensgenerator til å opprette en randomisert sekvens på 30 intervaller for lytteforsøkene 30 . For sangforsøkene, opprett en pseudorandomisert sekvens på 120 intervaller for deltakerne å lytte til et bestemt intervall og deretter matche dette målintervallet med sangstemmer. For den pseudorandomiserte sekvensen, bruk samme metode som beskrevet i trinn 1.2.4, med de fire intervaller som argumenter igjen, men nOw gjentar denne prosessen 30 ganger.
      2. Følg samme prosedyre som i trinn 1.2.5, bruk opplæringsforskningsprogramvare for å generere tre forskjellige kjøringer, som hver bestod først av 10 lydbaserte forsøk, etterfulgt av 10 påfølgende lytteforsøk, og til slutt ved 40 påfølgende sangforsøk.
        MERK: I løpet av baselineforsøkene ser de fire intervaller i tilfeldig rekkefølge, mens i løpet av sangforsøkene, vises de fire intervaller i pseudorandomisert rekkefølge, slik at hvert intervall til slutt presenteres nøyaktig 10 ganger. Varigheten av hvert forsøk er 10 s, så en hel runde varer 10 min. Siden hvert emne går gjennom 3 eksperimentelle forsøk, er eksperimentets totale varighet 30 minutter. Imidlertid tillater deltakerne å gå inn og ut av skanneren, for tid til å sette opp og teste mikrofonen, for tiden for å få den anatomiske skanningen, og for tiden mellom funksjonelle forsøk, skal ca 1 time skannertid tildeles hver deltaker .
    2. Forklar deltakerne i forsøkene som skal presenteres, som beskrevet i trinn 2.1.1.2, og svare på eventuelle tvil de måtte ha. Oppgi deltakerne for å lufte notatene uten å åpne munnen under sangprøver, og hold leppene fortsatt mens de produserer en "m" -lyd.
    3. Koble et ikke-magnetisk, MR-kompatibelt hodesett til en bærbar PC. Juster lydnivået til et komfortabelt nivå for hvert emne.
    4. Koble en liten kondensatormikrofon til et lydgrensesnitt som i sin tur er koblet til den bærbare datamaskinen ved hjelp av en skjermet vridd triplettkabel.
      MERK: Mikrofonens strømforsyning, lydgrensesnittet og den bærbare datamaskinen skal alle være plassert utenfor rommet som ligger i skanneren.
    5. Kontroller mikrofonfrekvensresponsen.
      MERK: Formålet med denne testen er å bekrefte at mikrofonen oppfører seg som forventet inne i skanneren.
      1. Start et nytt prosjekt i lydredigeringsprogramvaren og velg kondensatorenMikrofon som inngangsenhet.
      2. Generer en 440 Hz testtone med en varighet på 10 s, som beskrevet i avsnitt 1.2.1, med passende verdier for frekvens og varighet.
      3. Bruk standard lydgjenopprettingsprogramvare på den bærbare datamaskinen ved å trykke "Play" for å sende testtonen via hodetelefonene på steder inne (på toppen av nakkestøtten) og utenfor (i kontrollrommet) skanneren, med mikrofonen plassert mellom sidene Av hodesettet i hvert tilfelle.
      4. Trykk på "Record" i lydredigeringsprogramvaren for å ta opp ca 1 s av testtonen på hvert sted.
      5. Velg "Plot Spectrum" fra "Analys" -menyen for hvert tilfelle, og sammenlign mikrofonens respons til testtonen, både i og utenfor skanneren, ved å kontrollere at den grunnleggende frekvensen til signalet mottatt på hvert sted er 440 Hz.
    6. Tape kondensatormikrofonen til deltakerens hals, like understrupehodet.
    7. Ta deltakeren på hodetelefonen. Plasser deltakeren i en magnetisk resonans (MR) -skanner.
  2. FMRI økt.
    1. I starten av økten åpner du programvarepakken for magnetisk resonansbrukergrensesnitt (MRUI). Bruk MRUI til å programmere overtakelsesparadigmet.
      MERK: Noen variasjoner i grensesnittet kan forventes mellom ulike modeller.
      1. Velg alternativet "Patient" fra skjermmenyen. Skriv inn deltakerens navn, alder og vekt.
      2. Klikk på "Eksamen" -knappen. Først velger du "Head" og deretter "Brain" fra de tilgjengelige alternativene.
      3. Velg "3D" og deretter "T1 isometrisk", med følgende verdier for de relevante parameterne: Repetisjonstid (TR) = 10,2 ms, Ekkotid (TE) = 4,2 ms, Flip Angle = 90 ° og Voxel Size = 1 x 1 x 1 mm 3 .
        MERK: For hver deltaker vil et T1-vektet anatomisk volum bE ervervet ved hjelp av en gradient ekkosimpuls-sekvens for anatomisk referanse.
      4. Klikk på "Program" og velg EchoPlanaImage_diff_perf_bold (T2 *), med verdiene for de relevante parameterne som følger: TE = 40 ms, TR = 10 s, Anskaffelsestid (TA) = 3 s, Forsinkelse i TR = 7 s, Flip Vinkel = 90 °, Visningsfelt = 256 mm 2 og Matrise Dimensjoner = 64 x 64. Bruk "Dummy" -alternativet til å skaffe 5 volumer mens du angir en verdi på "55" for totalt antall volumer.
        MERK: Disse verdiene tillater oppkjøp av funksjonelle T2 * -vektede helhode-skanninger i henhold til det sparsomme samplingsparadigmet som er illustrert i Figur 1 , der en ekko-plan bildebehandling (EPI) "dummy" -skanning er anskaffet og kasseres for å tillate T1-metning effekter. Vær oppmerksom på at i noen MRUIer skal verdien av TR være 3 s, da det antas å være den totale tiden som oppkjøpet finner sted.
      5. Klikk "Kopier" for å lage en kopi av denne sekvensenningen. Plasser markøren nederst på listen over sekvenser, og klikk deretter "Lim inn" to ganger for å konfigurere tre påfølgende sparsomme samplingssekvenser.
      6. Klikk på "Start" for å starte T1-vektet anatomisk voluminnkjøp.
      7. Presentere tre løp til deltakeren, med løpene som beskrevet i trinn 2.1.1.2. Synkroniser starten på løpene med oppkjøpet av skanneren ved å bruke skannertrykkboksen.
        1. Følg samme fremgangsmåte som beskrevet i avsnitt 1.3.2 for å starte hver av de tre løpene, og skille mellom løpene som bruker sessionsnummeret. Lagre resultatene av tre komplette løp med samme fremgangsmåte som beskrevet i trinn 1.3.3.
          MERK: Tidspunktet for prøvepresentasjonene er systematisk jittert med ± 500 ms.

Figur 1
Figur 1: SParse-sampling Design. ( A ) Tidslinje av hendelser i en prøveperiode som bare innebærer å lytte til to-tone intervall (2 s), uten etterfølgende åpen reproduksjon. ( B ) Tidslinje av hendelser i en prøveperiode som involverer lytting og sangoppgaver. Vennligst klikk her for å se en større versjon av denne figuren.

3. Dataanalyse

  1. Forhåndsbehandle de funksjonelle dataene ved hjelp av programvare som er designet for analyse av hjernedannelsesdatasekvenser etter standardprosedyrer 33 .
    MERK: All databehandling er ferdig med samme programvare.
    1. Bruk det medfølgende menyalternativet til å tilpasse bildene til det første volumet, resamplert og romlig normalisert (endelig voxelstørrelse: 2 x 2 x 2 mm 3 ) til standard Montreal Neurological Institute (MNI) stereotaktisk plass 34 . Bruk det medfølgende menyalternativet til å glatte bildet ved hjelp av en isotropisk, 8 mm, full bredde ved halv maksimal (FWHM) gausskjerne.
    2. For å modellere BOLD-responsen, velg en enkeltboks-Finite Impulse Response (FIR) som grunnfunksjon (rekkefølge 1) eller boksfunksjon, som spenner over tid for voluminnkjøp (3 s) 28 .
      MERK: Sparse samplingsprotokoller, som denne, krever generelt ikke at FIR-enheten blir forbundet med den hemodynamiske responsfunksjonen, som det ofte er tilfelle for hendelsesrelatert fMRI.
    3. Påfør et høypassfilter til BOLD-responsen for hver hendelse (1.000 s for "sangnettverket" og 360 s andre steder).
      MERK: Modellering av alle sangoppgaver sammen vil utgjøre en blokk på 400 s 35 .

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Alle 11 deltakere i eksperimentet var kvinnelige vokalstudenter på vinterhagen, og de oppnådde godt nok i intervallgjenkjenningsoppgavene som skal velges for skanning. Suksessraten for intervallidentifikasjonsoppgaven var 65,72 ± 21,67%, som, som forventet, var lavere enn suksessraten ved identifisering av dissonant og konsonantintervall, som var 74,82 ± 14,15%.

For å validere den grunnleggende utformingen av studien håpet vi å identifisere nevralaktivitet under sang i regionene som er kjent for å utgjøre "sangnettverket", som definert i en rekke tidligere studier 25 , 26 , 27 , 28 , 29 , 30 , 31 ,Ass = "xref"> 32 , 33 , 34 , 35 , 36 , 37 . Effekten av sang observeres ved hjelp av den første nivå lineære kontrast av interesse, som tilsvarer å synge i motsetning til å lytte. En-prøve-t-tester ble brukt med klynger bestemt av Z> 3 og en klyngedispersjonsgrense på p = 0,05, Family-Wise Error (FWE) korrigert 38 . For anatomisk merking ble SPM Anatomy Toolbox 33 og Harvard-Oxford cortical og subcortical structural atlas brukt 39 . Hjernegruppene hvor signifikant aktivering ble observert var den primære somatosensoriske cortexen (S1), den sekundære somatosensoriske cortexen (S2), den primære motorcortexen (M1), det supplerende motorområdet (SMA), den premotoriske cortex (PM), Brodmann-området 44 (BA 44), den primære auditory cortex(PAC), overordnet temporal gyrus (STG), temporal pole, den fremre insulaen, putamen, thalamus og cerebellum. Disse aktiveringene stemmer overens med de som er rapportert i de nevnte studiene angående "sangnettverket", og de er illustrert i figur 2 . Merk at i begge figurene 2 og 3 er x-koordinatet vinkelrett på sagittalplanet, y-koordinatet er vinkelrett på koronalplanet, og z-koordinaten er vinkelrett på det tverrgående eller horisontale planet.

Når den grunnleggende utformingen har blitt validert, ble to ytterligere lineære kontrastnivåer på første nivå beregnet for hver deltaker, tilsvarende sang dissonant i motsetning til konsonantintervall og å synge konsonant i motsetning til dissonante intervaller. Disse lineære kontrastene ble deretter tatt til en andre nivå-random-effektmodell som involverte et sett av 2-veis gjentatte måleanalyser av variasjonNce (ANOVA), med faktorene konsonans og dissonans. På denne måten ble de aktiverte eller deaktiverte områdene undersøkt for mulige vekselvirkninger, med aktivitetsinteresser bestemt i henhold til signifikans-voxeltærskelen, p <0,001, ukorrigert for flere sammenligninger 28 , 29 . For kontrasten som resulterte fra syngende dissonant i motsetning til konsonantintervall, ble økte aktiveringer observert i høyre S1, høyre PAC, venstre midbrain, høyre bakre insula, venstre amygdala og venstre putamen. Disse aktiveringene er vist i figur 3 . Med hensyn til komplementær kontrast ble det ikke påvist signifikante endringer i aktivering under sang av konsonantintervall.

Figur 2
Figur 2: Aktivering i regioner som utgjør "Singing Network." aktivatorerIonkart er presentert med en terskelverdiergrense på p = 0,05, familiefull feil (FWE) korrigert. BOLD-svar rapporteres i vilkårlig enheter. Vennligst klikk her for å se en større versjon av denne figuren.

Figur 3
Figur 3: Kontrast mellom Singing of Dissonant og Consonant Intervals. Aktiveringskart er presentert, ukorrigert for flere sammenligninger, med en klyngedimensjonsterskel p = 0,001. BOLD-svar rapporteres i vilkårlig enheter. Vennligst klikk her for å se en større versjon av denne figuren.

intervall Antall halvtoner Forholdet mellom grunnleggende
Unison 0 1: 1
Mindre andre 1 16:15
Major andre 2 9: 8
Mindre tredje 3 6: 5
Major tredje 4 5: 4
Perfekt fjerde 5 4: 3
Tritone 6 45:32
Perfekt femte 7 3: 2
Mindre sjette 8 8: 5
Major sjette 9 5: 3
Mindre syvende 10 16: 9
Major syvende 11 15: 8
Octave 12 2: 1

Tabell 1: Consonant og Dissonant Musical Intervals. Consonant intervaller vises i fet skrift, mens dissonante intervaller vises i kursiv. Vær oppmerksom på at jo mer konsonant et intervall desto mindre er heltallene som vises i frekvensforholdet som brukes til å representere det. For en grundig diskusjon av konsonans og dissonans som en funksjon av frekvensforhold, se Bidelman & Krishnan 40 .

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Dette arbeidet beskriver en protokoll hvor sang brukes som et middel til å studere hjernens aktivitet under produksjon av konsonante og dissonante intervaller. Selv om sang gir det som muligens er den enkleste metoden for produksjon av musikalske intervaller 22 , tillater det ikke produksjon av akkorder. Imidlertid, selv om de fleste fysiske karakteriseringer av konsonansbegrepet, til en viss grad er basert på superposisjon av samtidige notater, har en rekke studier vist at intervaller konstruert med notater som korresponderer med konsonant eller dissonant akkorder, fremdeles oppfattes som konsonant eller dissonant, Henholdsvis 4 , 6 , 15 , 41 , 42 .

Oppføringsintervalloppfattelsesoppgaven brukes til å etablere, før deltakerne kan gå gjennom til skanning sEssion, hvis de er i stand til å skille mellomromene tilstrekkelig. Dermed utfører de seg godt en gang inne i magnetresonatoren. Alle deltakere som ikke klarer å møte en forhåndsbestemt grense når de utfører disse identifikasjonsoppgaver, bør ikke gå videre til fMRI-eksperimentet. Hovedformålet med denne utvelgelsesprosessen er å sikre at forskjeller i ytelse mellom deltakerne ikke skyldes mangelfulle perceptuelle evner. Utvalgte deltakere skal ha tilsvarende grad av vokal og musikalsk trening, og også, om mulig, lignende tessituras. Hvis de har vokalområder som varierer vesentlig, må intervjuet som presenteres under sangoppgavene de må utføre, tilpasses.

Mikrofonoppsettet er avgjørende for at oppkjøpet skal være pålitelig og artefaktfri. Typen av mikrofon selv er svært viktig, og selv om det er mulig å bruke optisk 28 eller spesialdesignet, MR-kompatibel 29 Sup> mikrofoner, har det vist seg at følsomheten til kondensormikrofoner ikke påvirkes av tilstedeværelsen av de intense magnetfeltene i bildemiljøet 43 . Faktisk kan en liten Lavalier kondensatormikrofon brukes i denne sammenheng, forutsatt at en skjermet vridet triplettkabel brukes til å koble mikrofonen til forforsterkeren, som må plasseres utenfor rommet der MR-skanneren er plassert. Dette arrangementet vil forhindre utseendet på avbildningsartefakter 44 , men forskere bør også sørge for at skanneren ikke forstyrrer ytelsen til mikrofonen. Til dette formål kan en testtone sendes via MR-kompatible hodetelefoner til mikrofonen plassert i MR-skanneren, og signalet som er oppnådd på denne måten, kan da sammenlignes med det som oppnås ved å sende samme tone til mikrofonen som nå er plassert utenfor Skanneren. Lydtrykknivåene i MR-skanneren kan være ekstremt høyeXref "> 45, slik at mikrofonen må plasseres så nært som mulig til kilden. Ved å spørre deltakerne om å ikke bare synge uten å synge, kan bevegelsen i og rundt munnområdet minimeres. Ved å plassere mikrofonen like under strupehodet , Som dekkes av tape, er det mulig å oppnå et troverdig innspill av sangerens stemme. Opptaket vil selvsagt være veldig støyende - dette kan ikke unngås - men hvis forskerne hovedsakelig er interessert i tonehøyde og ikke i artikulasjon eller setning av ord, En rekke programvarepakker kan brukes til å rengjøre signalet nok til å detektere grunnfrekvensen til hvert sungnotat. En standardmetode ville være å bruke lydredigeringsprogramvare for å filtrere tidssignalene gjennom et Hamming-vindu og deretter bruke autokorrelasjonen Algoritmer bygget inn i bestemte tale- og fonetikkpakker for å identifisere de sungne grunnleggende. Vokalnøyaktigheten kan da beregnes for hver deltaker. Potensielle applikasjoner avDataene hentet fra opptakene inkluderer korrelerende tonehøyde eller rytmisk nøyaktighet med en hvilken som helst grad av trening eller intervallavstander.

Funksjonsbilder blir oppnådd ved hjelp av en sparsom prøvetakingsdesign for å minimere BOLD eller auditiv maskering på grunn av skannebuller 25 , 28 , 29 , 46 , 47 . Hvert fag gjennomgår 3 eksperimentelle løp, hver som varer 10 min. Under hvert løp blir fagpersoner først bedt om å ligge i stillhet i løpet av 10 lydløse baselineforsøk, deretter å lytte passivt til en blokk med 10 intervaller, og til slutt å lytte til og synge tilbake en annen blokk med 40 intervaller. Et formål med å holde individuelle løp så kort som mulig er å unngå tretthet fra deltakerne. Ikke desto mindre har det siden blitt konkludert med at det i fremtiden kan være bedre å inkludere det samme antall lytte-bare og sangprøver somKan da presenteres i alternerende blokker. Dette ville føre til økt statistisk kraft. Som et eksempel kan en løp bestå av 2 blokker med 5 lydbaserte forsøk, 4 blokker med 5 lytteforsøk og 4 blokker av sangforsøk. Blokkene vil da bli presentert til deltakerne i veksling, med en total varighet på 500 s per løp.

Hovedårsaken til at deltakerne lytter passivt inne i resonatoren, er å ha et middel til å trekke opp hørselsaktivitet fra motoraktivitet. Således er en gunstig sammenligning av sangaktivering mot "sangnettverket" 25 , 27 , 28 , 29 , 36 , 37 uunnværlig for riktig validering av studien. Vær oppmerksom på at "sangnettverk" aktiveringer er svært robuste og veletablerte og er vanligvis deTected ved hjelp av en-prøve t-tester og en korrigert cluster significance terskel p = 0,05. Aktiveringer som korresponderer med kontrasten mellom synkende dissonant / konsonant og konsonant / dissonant intervaller, identifiseres typisk ved hjelp av 2-veis gjentatte faktoranalyser av varians (ANOVA) i henhold til signifikans voxeltærskelen p <0,001, ukorrigert for flere sammenligninger 28 , 29 . Det forventes at deltakerne vil finne syngende dissonante intervaller mer utfordrende enn å sang konsonantintervall 48 , 49 ; Dermed forventes forskjellige aktiveringer for hver av de to kontrastene som er beskrevet ovenfor. Resultatene indikerer at syngende dissonante intervaller innebærer en omprogrammering av nevrale mekanismer rekruttert for produksjon av konsonantintervaller. Under sang blir produsert lyd sammenlignet med tilsiktet lyd, og enhver nødvendig justering oppnås daGjennom integrering av ekstern og intern tilbakemelding fra auditiv og somatosensoriske veier. En detaljert diskusjon av disse resultatene og konklusjonene fra dem er inkludert i artikkelen av González-García, González og Rendón 30 .

Denne protokollen gir en rimelig grei metode for studiet av nevrale korrelater av musikalsk produksjon og for å overvåke aktiviteten til både motor og lydsystemer. Det kan brukes til å spore forskjeller i hjerneaktivering mellom binære forhold, som sangkonsonant eller dissonante intervaller, og synger smale eller brede intervaller 30 . Det er også godt egnet til å studere effekten av trening på en rekke oppgaver forbundet med å synge bestemte frekvenser. På den annen side, på grunn av den meget store mengden støy som finnes i opptak av den solgte stemmen som er oppnådd under skanningen, ville det være vanskelig å benytte denne prototypenOcol å analysere oppgaver som er opptatt av kvaliteten på tone eller timbre, spesielt fordi disse er kvaliteter som ikke kan måles riktig mens det blir humming.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Forfatterne erklærer ingen interessekonflikter.

Acknowledgments

Forfatterne anerkjenner økonomisk støtte til denne undersøkelsen fra Secretaría de Salud de México (HIM / 2011/058 SSA. 1009), CONACYT (SALUD-2012-01-182160) og DGAPA UNAM (PAPIIT IN109214).

Materials

Name Company Catalog Number Comments
Achieva 1.5-T magnetic resonance scanner Philips Release 6.4
Audacity Open source 2.0.5
Audio interface Tascam US-144MKII
Audiometer Brüel & Kjaer Type 1800
E-Prime Professional Psychology Software Tools, Inc. 2.0.0.74
Matlab Mathworks R2014A
MRI-Compatible Insert Earphones Sensimetrics S14
Praat Open source 5.4.12
Pro-audio condenser microphone Shure SM93
SPSS Statistics IBM 20
Statistical Parametric Mapping Wellcome Trust Centre for Neuroimaging 8

DOWNLOAD MATERIALS LIST

References

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061 (1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237 (2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Tags

Behavior Consonance and dissonance neurale korrelater av musikk musikkintervallidentifikasjon sang funksjonell magnetisk resonansbilder (fMRI) lyd-vokalintegrasjon
FMRI-kartlegging av hjerneaktivitet assosiert med vokalproduksjonen av konsonant og dissonantintervaller
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

González-García, N.,More

González-García, N., Rendón, P. L. fMRI Mapping of Brain Activity Associated with the Vocal Production of Consonant and Dissonant Intervals. J. Vis. Exp. (123), e55419, doi:10.3791/55419 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter