Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Mapping fMRI dell'attività del cervello associata alla produzione vocale di intervalli consonanti e dissonanti

Published: May 23, 2017 doi: 10.3791/55419

Summary

I correlati neurali dell'ascolto di interazioni consonanti e dissonanti sono stati ampiamente studiati, ma i meccanismi neurali associati alla produzione di intervalli consonanti e dissonanti sono meno conosciuti. In questo articolo, i test comportamentali e fMRI sono combinati con attività di identificazione e canto di intervallo per descrivere questi meccanismi.

Abstract

I correlati neurali della consonanza e della percezione della dissonanza sono stati ampiamente studiati, ma non i correlati neurali della consonanza e della produzione di dissonanze. Il modo più diretto della produzione musicale sta cantando, ma, da una prospettiva di imaging, presenta ancora più sfide che l'ascolto perché coinvolge l'attività motoria. Il preciso canto degli intervalli musicali richiede l'integrazione tra l'elaborazione del feedback uditivo e il controllo del motore vocale per produrre correttamente ogni nota. Questo protocollo presenta un metodo che consente il monitoraggio delle attivazioni neurali associate alla produzione vocale di intervalli consonanti e dissonanti. Quattro intervalli musicali, due consonanti e due dissonanti, vengono usati come stimoli, sia per un test di discriminazione uditivo che per un compito che prevede l'ascolto e la riproduzione di intervalli dati. I partecipanti, tutti gli allievi vocali femminili a livello di conservatorio, sono stati studiati utilizzando il funzionale Magnetic ResOnance Imaging (fMRI) durante l'esecuzione dell'attività di canto, con l'attività di ascolto che funge da condizione di controllo. In questo modo, è stata osservata l'attività sia del sistema motorio che del sistema uditivo e anche una misura di precisione vocale durante il lavoro di canto. Pertanto, il protocollo può essere utilizzato anche per monitorare le attivazioni associate a cantare diversi tipi di intervalli oa cantare le note richieste più accuratamente. I risultati indicano che il canto degli intervalli dissonanti richiede una maggiore partecipazione dei meccanismi neurali responsabili dell'integrazione di risposte esterne dai sistemi uditivi e sensoriali rispetto agli intervalli di consonanza di canto.

Introduction

Alcune combinazioni di piazzole musicali sono generalmente riconosciute come consonanti e sono tipicamente associate ad una piacevole sensazione. Altre combinazioni sono generalmente definite dissonanti e sono associate ad una sensazione sgradevole o irrisolta1. Anche se sembra ragionevole supporre che l'enculturazione e la formazione svolgano parte nella percezione della consonanza 2 , è stato recentemente dimostrato che le differenze nella percezione degli accordi e degli accordi dissonanti probabilmente dipendono meno dalla cultura musicale di quanto in precedenza era stato pensato 3 e può Derivano anche da semplici basi biologiche 4 , 5 , 6 . Per impedire una comprensione ambigua del termine consonanza, Terhardt 7 ha introdotto la nozione di consonanza sensoriale, al contrario della consonanza in un contesto musicale, Dove l'armonia, per esempio, può influenzare la risposta ad un determinato accordo o intervallo. Nel presente protocollo sono stati utilizzati solo intervalli isolati a due note per individuare attivazioni unicamente correlate alla consonanza sensoriale senza interferenze con l'elaborazione dipendente dal contesto 8 .

I tentativi di caratterizzare la consonanza attraverso mezzi puramente fisici hanno avuto inizio con Helmholtz 9 , che attribuisce la percezione di rugosità associata agli accordi dissonanti al trapasso tra componenti di frequenza adiacenti. Più recentemente, tuttavia, è stato dimostrato che la consonanza sensoriale non è associata solo all'assenza di rugosità, ma anche all'armonica, vale a dire l'allineamento dei partiali di un determinato tono o accordo con quelli di un tono non udito di un Frequenza inferiore 10 , 11 . Gli studi comportamentali confermano che la consonanza soggettiva è in effetti colpita da puI parametri fisici, come la distanza di frequenza 12 , 13 , ma una più ampia gamma di studi hanno dimostrato conclusivamente che i fenomeni fisici non possono rappresentare esclusivamente le differenze tra la consonanza e la dissonanza percepita 14 , 15 , 16 , 17 . Tutti questi studi, tuttavia, riportano queste differenze quando si ascolta una serie di intervalli o accordi. Una varietà di studi che utilizzano la tomografia a emissione di positroni (PET) e la risonanza magnetica funzionale (fMRI) hanno rivelato significative differenze nelle regioni corticali che diventano attive quando ascoltano gli accordi consonanti o dissonanti e gli accordi 8 , 18 , 19 , 20 . Lo scopo del presente studio è quello di esplorare le differenzeNell'attività cerebrale quando producono, anziché ascoltare, intervalli consonanti e dissonanti.

Lo studio del controllo dei sensori-motori durante la produzione musicale comporta tipicamente l'uso di strumenti musicali e molto spesso richiede la realizzazione di strumenti modificati appositamente per il loro utilizzo durante la neuroimaging 21 . Il cantare, però, sembra fornire dall'inizio un meccanismo appropriato per l'analisi dei processi sensori-motori durante la produzione musicale, in quanto lo strumento è la voce umana stessa e l'apparecchio vocale non richiede alcuna modifica per essere idoneo durante Imaging 22 . Sebbene i meccanismi neurali associati ad aspetti del canto, quali il controllo del passo 23 , l'imitazione vocale 24 , i cambiamenti adattativi indotti da formazione 25 e l'integrazione di feedback esterni 25 , 30 . A questo scopo, il presente documento descrive un test comportamentale progettato per stabilire l'adeguato riconoscimento degli intervalli consonanti e dissonanti dai partecipanti. Questo è seguito da uno studio fMRI di partecipanti che cantano una serie di intervalli consonanti e dissonanti. Il protocollo fMRI è relativamente semplice, ma, come per tutte le ricerche MRI, si deve prestare molta attenzione per impostare correttamente gli esperimenti. In questo caso, è particolarmente importante minimizzare il movimento della testa, della bocca e del labbro durante le attività di canto, rendendo l'identificazione di effetti non direttamente correlati all'atto fisico del canto più semplice. Questa metodologia può essere usata perVestire i meccanismi neurali associati ad una varietà di attività che riguardano la produzione musicale da cantare.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Questo protocollo è stato approvato dal Comitato Ricerca, Etica e Sicurezza dell'Ospedale Infantil de México "Federico Gómez".

1. Prurito comportamentale

  1. Eseguire un test audiometrico standard e puro per confermare che tutti i partecipanti potenziali possiedono un normale udito (livello sonoro di 20 dB (HL) rispetto alle frequenze di ottava di -8.000 Hz). Utilizza l'inventario di Edinburgh Handedness 31 per assicurarsi che tutti i partecipanti siano a destra.
  2. Generazione di sequenze di intervalli.
    1. Producono toni pura che attraversano due ottave, G4-G6, utilizzando un programma di editing del suono.
      NOTA: Qui viene descritto il software gratuito di editing audio di Open Source Audacity. A tale scopo possono essere utilizzati altri pacchetti.
      1. Per ogni tono, aprire un nuovo progetto nel software di editing del suono.
      2. Sotto il menu "Genera", seleziona "Tono". Nella finestra che appare, sElezioni una forma d'onda sinusoidale, un'ampiezza di 0,8 e una durata di 1 s. Immettere il valore della frequenza corrispondente alla nota desiderata ( es. 440 Hz per A4). Fare clic sul pulsante "OK".
      3. Sotto il menu "File", selezionare "Esporta audio". Nella finestra che si apre, immettere il nome desiderato per il file audio e scegliere WAV come il tipo di file desiderato. Fai clic su "Salva".
    2. Selezionare due intervalli consonanti e due dissonanti, secondo la tabella 1 , in modo che ogni intervallo di consonanti sia vicino ad un intervallo dissonante.
      NOTA: Ad esempio, considerate gli intervalli consonanti di una quinta perfetta e un'ottava e gli intervalli dissonanti di un quarto (tritone) e di un settimo maggiore. Questi sono gli intervalli scelti per lo studio condotto dagli autori.
    3. Genera tutte le possibili combinazioni di note corrispondenti a questi quattro intervalli nell'intervallo tra G4 e G6.
      1. Per eacH, aprire un nuovo progetto nel software di editing sonoro e utilizzare "Import Audio" nel menu "File" per importare i due file WAV da concatenare.
      2. Posizionare il cursore in qualsiasi punto del secondo tono e fare clic per selezionare. Fai clic su "Seleziona tutto" sotto il menu "Modifica". Sotto lo stesso menu, fare clic su "Copia".
      3. Posizionare il cursore in qualsiasi punto del primo tono e fare clic su. Sotto il menu "Modifica" fare clic su "Spostare cursore fino alla fine del brano" e quindi fare clic su "Incolla" sotto lo stesso menu. Esportare l'audio come descritto nel passaggio 1.2.1.3.
    4. Utilizzare un generatore di sequenze casuali per produrre sequenze costituite da 100 intervalli generati pseudorandomamente in modo tale che ciascuno dei quattro intervalli differenti si presenta esattamente 25 volte 30 . A tale scopo, utilizzare la funzione di permutazione casuale nel software di analisi statistica (vedere la tabella dei materiali ). Inserisci i quattro interventiCome argomenti e creare un ciclo che ripete questo processo 25 volte.
    5. Usa il software di ricerca comportamentale per generare due distinte piste. Caricare una sequenza di 100 intervalli in formato WAV per ogni esecuzione e associare l'identificazione di ciascun intervallo con una singola prova 30 .
      NOTA: Qui viene utilizzato il software di comportamento di E-Prime. È possibile utilizzare altri software equivalenti di ricerca comportamentale.
  3. Spiega ai partecipanti che ascoltano due sequenze di 100 intervalli ciascuno, dove ogni sequenza è associata ad un compito diverso e con un proprio set di istruzioni. Spiega ai partecipanti che, in entrambe le esecuzioni, l'intervallo successivo verrà riprodotto solo quando viene premuto un tasto valido.
    NOTA: Una volta che comincia la sequenza di riconoscimento di intervalli, non dovrebbe essere interrotta in modo che il corso di azione sia il più chiaro possibile a tutti i partecipanti.
    1. Fai sedere i partecipanti davanti a un computer portatileE indossare le cuffie fornite. Utilizzare cuffie auricolari di buona qualità. Regolare il livello sonoro ad un livello comodo per ogni soggetto.
    2. Se si utilizza il software di ricerca comportamentale descritto qui, aprire le attività create nel passaggio 1.2.5 con E-Run. Nella finestra visualizzata, immettere la sessione e il numero dell'oggetto e fare clic su "OK". Utilizzare il numero di sessione per distinguere tra le esecuzioni per ciascun partecipante.
      NOTA: Le istruzioni per l'attività a portata appariranno sullo schermo, seguite dall'inizio dell'attività stessa.
      1. Innanzitutto, in un compito a due forze alternative, è sufficiente identificare i partecipanti se gli intervalli che ascoltano sono consonanti o dissonanti. Avere il partecipante premere "C" sulla tastiera del computer per consonante e "D" per dissonante.
        NOTA: Poiché tutti i partecipanti sono tenuti ad avere formazione musicale a livello di conservatorio, tutti si aspettano di poter distinguere tra paternamente consonanti eIntervalli sonanti. Il primo compito serve, in un certo senso, come conferma che questo è veramente il caso.
      2. In secondo luogo, in un 4-alternativo compito a scelta, i partecipanti identificano gli intervalli stessi. I partecipanti devono premere i numeri "4", "5", "7" e "8" sulla tastiera del computer per identificare gli intervalli di una quarta, perfetta quinta, principale settima e ottava.
    3. Al termine di ogni attività, premere "OK" per salvare automaticamente i risultati di ciascun partecipante in un singolo file E-DataAid 2.0 etichettato con il numero di soggetto e di sessione e con l'estensione .edat2.
    4. Utilizzare software di analisi statistica ( ad esempio, Matlab, SPSS Statistics o un'alternativa open source) per calcolare le percentuali di successo di ciascuna attività ( ossia la percentuale di risposte riuscite per identificare se gli intervalli sono stati consonanti o dissonanti e anche quando si identifica l'intErvali stessi), sia individualmente che in gruppo 32 .

2. Esperimento fMRI

  1. Preparazione alla sessione fMRI.
    1. Genera sequenze degli stessi intervalli come al punto 1.2.3, composto nuovamente da due toni puramente consecutivi con una durata di 1 s ciascuno.
      NOTA: la gamma vocale dei partecipanti deve ora essere presa in considerazione e tutte le note devono cadere comodamente all'interno della gamma di canto di ciascun partecipante.
      1. Utilizzare un generatore di sequenza casuale per creare una sequenza casuale di 30 intervalli per le prove di ascolto solo 30 . Per le prove di canto, creare una sequenza pseudorandomizzata di 120 intervalli per i partecipanti per ascoltare un intervallo specifico e quindi corrispondere a questo intervallo di destinazione con le loro voci di canto. Per la sequenza pseudorandomizzata, utilizzare lo stesso metodo descritto nel passaggio 1.2.4, con gli intervalli di 4 come argomenti ancora una volta, ma nDovuto ripetere questo processo 30 volte.
      2. Seguendo la stessa procedura del punto 1.2.5, utilizzare il software di ricerca comportamentale per generare tre distinti brani, ciascuno composto inizialmente da dieci prove basali silenziose, seguite da 10 prove consecutive a solo ascolto e infine da 40 prove consecutive di canto.
        NOTA: Durante le prove di base, i quattro intervalli vengono visualizzati in ordine casuale, mentre durante le prove di canto, i quattro intervalli vengono visualizzati in ordine pseudorandomizzato, in modo che ciascun intervallo sia eventualmente presentato esattamente 10 volte. La durata di ogni prova è di 10 s, quindi un intero ciclo dura 10 minuti. Poiché ogni soggetto passa attraverso 3 prove sperimentali, la durata complessiva dell'esperimento è di 30 min. Tuttavia, consentendo ai partecipanti di entrare e uscire lo scanner, per impostare e testare il microfono, per ottenere il tempo per ottenere la scansione anatomica e per il tempo tra i percorsi funzionali, è necessario assegnare a ciascun partecipante circa 1 h di tempo di scansione .
    2. Spiega ai partecipanti le sequenze di prove da presentare, come descritto nel punto 2.1.1.2, e rispondere a eventuali dubbi che potrebbero avere. Istruci i partecipanti a muovere le note senza aprire le loro bocche durante le prove di canto, mantenendo le labbra ancora producendo un suono "m".
    3. Collegare un auricolare non magnetico compatibile con un computer portatile. Regolare il livello sonoro ad un livello comodo per ogni soggetto.
    4. Collegare un piccolo microfono a condensatore ad un'interfaccia audio a sua volta collegata al computer portatile utilizzando un cavo schermato tripletto tripletto.
      NOTA: l'alimentatore del microfono, l'interfaccia audio e il portatile devono trovarsi tutti fuori dalla stanza che ospita lo scanner.
    5. Controllare la risposta in frequenza del microfono.
      NOTA: Lo scopo di questo test è quello di confermare che il microfono si comporta come previsto all'interno dello scanner.
      1. Avviare un nuovo progetto nel software di editing del suono e selezionare il condensatoreMicrofono come dispositivo di input.
      2. Genera un tono di prova a 440 Hz con una durata di 10 s, come descritto nella sezione 1.2.1, con i valori appropriati per la frequenza e la durata.
      3. Usando il software di riproduzione del suono predefinito sul portatile, premere "Play" per inviare il tono di prova attraverso le cuffie nelle posizioni all'interno (sopra il poggiatesta) e all'esterno (nella sala di controllo) dello scanner, con il microfono posto tra i lati Della cuffia in ogni caso.
      4. Premere "Record" nel software di editing del suono per registrare circa 1 s del tono di prova in ogni posizione.
      5. Selezionare "Plot Spectrum" dal menu "Analizza" per ogni caso e confrontare la risposta del microfono al tono di prova, sia all'interno che all'esterno dello scanner, controllando che la frequenza fondamentale del segnale ricevuto in ciascuna posizione è di 440 Hz.
    6. Nastri il microfono del condensatore sul collo del partecipante, appena sotto il microfonolaringe.
    7. Avere il partecipante indossare l'auricolare. Mettere il partecipante in uno scanner a risonanza magnetica (MR).
  2. Sessione fMRI.
    1. All'inizio della sessione, aprire il pacchetto software di interfaccia utente di risonanza magnetica (MRUI). Utilizzare MRUI per programmare il paradigma di acquisizione.
      NOTA: Alcune varianti dell'interfaccia devono essere previste tra i diversi modelli.
      1. Selezionare l'opzione "Paziente" dal menu sullo schermo. Inserisci il nome, l'età e il peso del partecipante.
      2. Fai clic sul pulsante "Esame". In primo luogo, scegliete "Head" e poi "Brain" dalle opzioni disponibili.
      3. Selezionare "3D" e poi "T1 isometrico" con i seguenti valori per i parametri pertinenti: Tempo di ripetizione (TR) = 10,2 ms, Echo Time (TE) = 4,2 ms, angolo di inclinazione = 90 ° e Voxel Size = 1 x 1 x 1 mm 3 .
        NOTA: per ogni partecipante, un volume anatomico ponderato con T1 bE acquisita utilizzando una sequenza di impulsi di gradiente di eco per il riferimento anatomico.
      4. Cliccate su "Programma" e selezionate EchoPlanaImage_diff_perf_bold (T2 *), con i valori dei relativi parametri come segue: TE = 40 ms, TR = 10 s, Tempo di Acquisizione (TA) = 3 s, Ritardo in TR = 7 s, Flip Angolo = 90 °, campo di visualizzazione (FOV) = 256 mm 2 e dimensione matrice 64 x 64. Utilizzare l'opzione "Dummy" per acquisire 5 volumi mentre si immette un valore di "55" per il numero totale di volumi.
        NOTA: Questi valori permettono l'acquisizione di scansioni a testa intera a peso T2 * funzionale secondo il paradigma di campionamento sparso illustrato in figura 1 , in cui viene acquisita una scansione "dummy" di imaging eco-planare (EPI) e scartata per consentire la saturazione di T1 effetti. Si noti che in alcuni MRUI, il valore di TR dovrebbe essere di 3 s, in quanto è considerato il tempo totale durante il quale l'acquisizione avviene.
      5. Fare clic su "Copia" per creare una copia di questo sequENCE. Posiziona il cursore nella parte inferiore dell'elenco delle sequenze e fai clic su "Incolla" due volte per impostare tre sequenze di campionamento sparse consecutive.
      6. Fare clic su "Start" per iniziare l'acquisizione anatomica del volume T1.
      7. Presentare tre corse al partecipante, con i percorsi descritti nel passaggio 2.1.1.2. Sincronizzare l'inizio delle operazioni con l'acquisizione dallo scanner utilizzando la scatola di scansione dello scanner.
        1. Seguire la stessa procedura descritta nella sezione 1.3.2 per iniziare ciascuna delle tre correzioni, distinguendo tra le correzioni utilizzando il numero di sessione. Salvare i risultati di tre corse complete utilizzando la stessa procedura descritta nel passaggio 1.3.3.
          NOTA: La temporizzazione delle presentazioni di prova è sistematicamente sprecata da ± 500 ms.

Figura 1
Figura 1: SCampionamento di analisi. ( A ) Timeline degli eventi all'interno di un processo che prevede solo l'ascolto di un intervallo a due toni (2 s), senza ripetizione successiva. ( B ) Timeline degli eventi in un processo che prevede compiti di ascolto e canto. Clicca qui per visualizzare una versione più grande di questa figura.

3. Analisi dei dati

  1. Preprocessare i dati funzionali utilizzando un software progettato per l'analisi delle sequenze di dati di immagini cerebrali secondo procedure standard 33 .
    NOTA: Tutto l'elaborazione dei dati avviene utilizzando lo stesso software.
    1. Utilizza l'opzione di menu fornita per riallineare le immagini al primo volume, ripassato e normalizzato spazialmente (dimensione finale del voxel: 2 x 2 x 2 mm 3 ) allo spazio stereotassico 34 dello standard Montreal Neurological Institute (MNI). Utilizzare l'opzione di menu fornita per lisciare l'immagine usando un kernel Gaussian di larghezza massima pari a 8 mm, larghezza massima di 8 millimetri (FWHM).
    2. Per modellare la risposta BOLD, selezionare una funzione di base (ordine 1) o funzionalità boxcar, in base al tempo di acquisizione del volume (3 s) 28 .
      NOTA: I protocolli di campionatura a bassa frequenza, come questo, non richiedono generalmente che il FIR sia convigurato con la funzione di risposta emodinamica, come avviene comunemente per la fMRI correlata all'evento.
    3. Applicare un filtro passa-alto alla risposta BOLD per ogni evento (1.000 s per la "rete di canto" e 360 ​​s altrove).
      NOTA: Modellazione di tutte le attività di canto insieme sarà un blocco di 400 s 35 .

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Tutti e 11 i partecipanti al nostro esperimento erano allievi vocali femminili a livello di conservatorio e sono stati eseguiti abbastanza bene nei task di riconoscimento di intervalli da selezionare per la scansione. Il tasso di successo per l'attività di identificazione dell'intervallo è stato di 65,72 ± 21,67%, che è, come previsto, inferiore al tasso di successo durante l'identificazione di intervalli dissonanti e consonanti, pari a 74,82 ± 14,15%.

Al fine di convalidare la progettazione di base dello studio, speravamo di identificare l'attività neurale durante il canto nelle regioni notoriamente costituenti la "rete di canto", come definito in alcuni studi precedenti 25 , 26 , 27 , 28 , 29 , 30 , 31 ,Ass = "xref"> 32 , 33 , 34 , 35 , 36 , 37 . L'effetto del canto è osservato attraverso il primo livello di contrasto lineare di interesse, che corrisponde al canto in contrapposizione all'ascolto. T-test di un campione sono stati utilizzati con i cluster determinati da Z> 3 e una soglia di significatività del cluster di p = 0,05, errore familiare-saggio (FWE) corretto 38 . Per l'etichettatura anatomica, sono stati utilizzati la toolbox 33 di Anatomy SPM e l'atlante strutturale corticale e subcorticale di Harvard-Oxford 39 . Le regioni del cervello in cui è stata osservata un'attivazione significativa sono stati la corteccia somatosensoriale primaria (S1), la corteccia secondaria somatosensoria (S2), la corteccia motoria primaria (M1), l'area motoria supplementare (SMA), la corteccia premotoria (PM), la zona Brodmann 44 (BA 44), la corteccia uditiva primaria(PAC), il superiore gyrus temporale (STG), il polo temporale, l'insula anteriore, il putamen, il talamo e il cervelletto. Queste attivazioni corrispondono a quelle riportate negli studi sopra citati per quanto riguarda la "rete di canto", e sono illustrati nella Figura 2 . Si noti che nelle figure 2 e 3 entrambe le coordinate x sono perpendicolari al piano sagittale, la coordinata y è perpendicolare al piano coronale e la coordinata z è perpendicolare al piano trasversale o orizzontale.

Una volta che il progetto di base è stato convalidato, sono stati calcolati altri due contrasti lineari di primo livello per ciascun partecipante, corrispondenti a cantare dissonante in contrasto con gli intervalli consonanti e per cantare la consonante in contrasto con gli intervalli dissonanti. Questi contrasti lineari sono stati poi portati a un modello di effetti casuali di secondo livello che coinvolgono una serie di analisi di misure ripetute a due vie di variaNce (ANOVA), con i fattori di consonanza e di dissonanza. In questo modo, le aree attivate o disattivate sono state esaminate per possibili interazioni, con attivazioni di interesse determinate secondo la soglia di significato voxel, p <0.001, non corretto per più comparazioni 28 , 29 . Per il contrasto risultante dal canto di dissonante rispetto agli intervalli consonanti, sono state osservate aumentate attivazioni nella destra S1, destra PAC, midbrain sinistra, insula destra posteriore, sinistra amygdala e sinistra putamen. Queste attivazioni sono mostrate in Figura 3 . Per quanto riguarda il contrasto complementare, durante il canto degli intervalli di consonanza non sono stati rilevati cambiamenti significativi nell'attivazione.

figura 2
Figura 2: Attivazione in regioni che costituiscono la "rete di canto". ActivatLe mappe ioniche sono presentate con una soglia di significatività di cluster di p = 0,05, corretto in errore familiare (FWE). Le risposte BOLD vengono riportate in unità arbitrarie. Clicca qui per visualizzare una versione più grande di questa figura.

Figura 3
Figura 3: Contrasto tra il Singing of Dissonant e l'Intervallo Consonant. Le mappe di attivazione vengono presentate, non corrette per più confronti, con una soglia di significato del cluster di p = 0.001. Le risposte BOLD vengono riportate in unità arbitrarie. Clicca qui per visualizzare una versione più grande di questa figura.

Intervallo Numero semitoni Rapporto dei fondamenti
unisono 0 1: 1
Minuto secondo 1 16:15
Grande secondo 2 9: 8
Terzo minore 3 6: 5
Maggiore terzo 4 5: 4
Quarto perfetto 5 4: 3
Tritone 6 45:32
Quinto perfetto 7 3: 2
Minore sesto 8 8: 5
Grande sesto 9 5: 3
Minore settimo 10 16: 9
Maggiore settimo 11 15: 8
Ottava 12 2: 1

Tabella 1: Intervalli Musicali Consonanti e Dissananti. Gli intervalli consonanti appaiono in grassetto, mentre gli intervalli dissonanti appaiono in corsivo. Osservate che più un intervallo più consonante, più piccole sono gli interi che appaiono nel rapporto di frequenza utilizzato per rappresentarlo. Per una discussione approfondita della consonanza e della dissonanza in funzione dei rapporti di frequenza, vedere Bidelman & Krishnan 40 .

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Questo lavoro descrive un protocollo in cui il canto viene utilizzato come mezzo per studiare l'attività cerebrale durante la produzione di intervalli consonanti e dissonanti. Anche se il canto fornisce quello che è forse il metodo più semplice per la produzione di intervalli musicali 22 , non consente la produzione di accordi. Tuttavia, sebbene la maggior parte delle caratterizzazioni fisiche della nozione di consonanza si applichi, in una certa misura, alla sovrapposizione di note simultanee, un certo numero di studi hanno dimostrato che gli intervalli costruiti con note che corrispondono a accordi consonanti o dissonanti sono ancora percepiti come consonanti o dissonanti, Rispettivamente 4 , 6 , 15 , 41 , 42 .

L'attività di percezione dell'intervallo comportamentale viene utilizzata per stabilire, prima che i partecipanti possano passare alla scansioneEssendo in grado di distinguere adeguatamente gli intervalli. Così, essi funzionano bene una volta all'interno del risonatore magnetico. Qualsiasi partecipante in grado di soddisfare una soglia predeterminata durante l'esecuzione di questi compiti di identificazione non deve procedere all'esperimento fMRI. Lo scopo principale di questo processo di selezione è quello di garantire che le differenze nelle prestazioni tra i partecipanti non siano dovute a carenze capacità percettive. I partecipanti scelti dovrebbero avere gradi simili di formazione vocale e musicale, e, se possibile, simili tessiture. Se hanno intervalli vocali che variano in modo significativo, la gamma degli intervalli presentati durante le attività di canto che dovranno eseguire deve essere personalizzata.

L'impostazione del microfono è fondamentale affinché l'acquisizione sia affidabile e priva di artefatti. Il tipo di microfono stesso è molto importante, e sebbene sia possibile utilizzare ottiche 28 o appositamente progettate, MR compatibili 29 Sup> microfoni, è stato dimostrato che la sensibilità dei microfoni a condensatore non è influenzata dalla presenza dei campi magnetici intensi nell'ambiente di imaging 43 . Infatti, un piccolo microfono condensatore Lavalier può essere utilizzato in questo contesto, a condizione che venga utilizzato un cavo tripletto schermato per collegare il microfono al preamplificatore, che deve essere collocato al di fuori della stanza in cui è alloggiato lo scanner MR. Questa disposizione impedirà la comparsa di artefatti 44 , ma i ricercatori dovrebbero anche assicurare che lo scanner non interferisca con le prestazioni del microfono. A tal fine, un tono di prova può essere inviato attraverso le cuffie compatibili con il MR al microfono posto all'interno dello scanner MR e il segnale così ottenuto può essere paragonato a quello ottenuto inviando lo stesso tono al microfono ora collocato fuori Lo scanner. I livelli di pressione sonora all'interno dello scanner MR possono essere estremamente elevatiXref "> 45, quindi il microfono deve essere messo il più vicino possibile alla sorgente.Citando i partecipanti a frenare piuttosto che a cantare apertamente le note, il movimento in e intorno all'area della bocca può essere ridotto al minimo.Si mettere il microfono appena sotto la laringe , Ricoperta da nastro, è possibile ottenere una fedele registrazione della voce del cantante. La registrazione sarà naturalmente molto rumorosa - questo non può essere evitato - ma se i ricercatori sono principalmente interessati al pitch e non all'articolazione o all'enunciazione delle parole, Una varietà di pacchetti software può essere utilizzata per pulire il segnale sufficiente per la rilevazione della frequenza fondamentale di ciascuna nota cantata.Un metodo standard sarebbe quello di utilizzare software di editing audio per filtrare i segnali di tempo attraverso una finestra Hamming e quindi utilizzare l'autocorrelazione Algoritmi integrati in alcuni pacchetti software di linguaggio e fonetica per identificare i fondamentali cantati, pertanto è possibile calcolare l'accuratezza vocale per ciascun partecipante.I dati ottenuti dalle registrazioni includono la correlazione del passo o dell'accuratezza ritmica con il grado di formazione o le distanze di intervallo.

Le immagini funzionali vengono acquisite usando un disegno a campionamento sparso in modo da ridurre al minimo la perdita uditiva o maschera uditiva a causa del rumore di scansione 25 , 28 , 29 , 46 , 47 . Ogni soggetto subisce 3 prove sperimentali, ciascuna che dura 10 min. Durante ogni esecuzione, i soggetti vengono chiesti prima di rimanere in silenzio durante 10 prove basilari di base, quindi ascoltare passivamente un blocco di 10 intervalli e, infine, ascoltare e cantare indietro un altro blocco di 40 intervalli. Uno scopo di mantenere le corse individuali più corte possibile è quello di evitare fatica da parte del partecipante. Tuttavia, da allora è stato concluso che potrebbe essere meglio nel futuro includere lo stesso numero di prove di ascolto e di canto, chePossono quindi essere presentati in blocchi alternati. Ciò avrebbe l'effetto di aumentare la potenza statistica. Ad esempio, una corsa potrebbe consistere in 2 blocchi di 5 studi di base silenziosi, 4 blocchi di 5 prove di ascolto e 4 blocchi di prove di canto. I blocchi saranno quindi presentati ai partecipanti in alternanza, con una durata totale di 500 s per run.

Il motivo principale per cui i partecipanti ascoltano passivamente all'interno del risonatore è quello di avere un mezzo per sottrarre l'attività uditiva dall'attività motoria. Quindi, un confronto favorevole delle attivazioni di canto contro la "rete di canto" 25 , 27 , 28 , 29 , 36 , 37 è indispensabile per la corretta validazione dello studio. Si noti che le attivazioni "canto di canto" sono molto robuste e ben consolidate e di solito sono deEffettuata mediante t-test di un campione e una soglia di significato del cluster corretto di p = 0,05. Le attivazioni corrispondenti al contrasto tra i singoli dissonanti / consonanti e gli intervalli di consonanti / dissonanti sono tipicamente identificati mediante analisi di varianza a fattori ripetuti a 2 vie (ANOVA) secondo la soglia di voxel p <0,001, non corretto per più confronti 28 , 29 . Si prevede che i partecipanti troveranno intervalli dissonanti di canto più impegnativi rispetto a cantare gli interventi consonanti 48 , 49 ; In tal modo sono previste diverse attivazioni per ognuno dei due contrasti sopra descritti. I risultati indicano che il canto degli intervalli dissonanti comporta una riprogrammazione dei meccanismi neurali reclutati per la produzione di intervalli di consonanza. Durante il canto, il suono prodotto viene confrontato con il suono previsto e viene quindi raggiunta la necessaria regolazioneAttraverso l'integrazione di feedback esterni e interni da percorsi uditivi e somatosensoriali. Una discussione approfondita di questi risultati e delle conclusioni tratte da esse è inclusa nell'articolo di González-García, González e Rendón 30 .

Questo protocollo fornisce un metodo ragionevolmente diretto per lo studio dei correlati neurali della produzione musicale e per il monitoraggio dell'attività dei sistemi motori e uditivi. Può essere usato per tenere traccia delle differenze nell'attivazione del cervello tra le condizioni binarie, come la consonante di canto o gli intervalli dissonanti, e il canto degli intervalli stretta o larga 30 . È inoltre idoneo a studiare l'effetto della formazione su una varietà di attività associate alla canzone di frequenze specifiche. D'altra parte, a causa della grande quantità di rumore contenuta nelle registrazioni della voce cantata ottenuta durante la scansione, sarebbe difficile impiegare questo protettoreOcol per analizzare i compiti relativi alla qualità del tono o del timbro, specialmente perché questi sono qualità che non possono essere misurati correttamente mentre ronzano.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Gli autori non dichiarano conflitti di interesse.

Acknowledgments

Gli autori riconoscono il sostegno finanziario a questa ricerca da Secretaría de Salud de México (HIM / 2011/058 SSA 1009), CONACYT (SALUD-2012-01-182160) e DGAPA UNAM (PAPIIT IN109214).

Materials

Name Company Catalog Number Comments
Achieva 1.5-T magnetic resonance scanner Philips Release 6.4
Audacity Open source 2.0.5
Audio interface Tascam US-144MKII
Audiometer Brüel & Kjaer Type 1800
E-Prime Professional Psychology Software Tools, Inc. 2.0.0.74
Matlab Mathworks R2014A
MRI-Compatible Insert Earphones Sensimetrics S14
Praat Open source 5.4.12
Pro-audio condenser microphone Shure SM93
SPSS Statistics IBM 20
Statistical Parametric Mapping Wellcome Trust Centre for Neuroimaging 8

DOWNLOAD MATERIALS LIST

References

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061 (1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237 (2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Tags

Comportamento Numero 123 Consonanza e dissonanza correlati neurali della musica identificazione dell'intervallo musicale canto risonanza magnetica funzionale (fMRI) integrazione audio-vocale
Mapping fMRI dell&#39;attività del cervello associata alla produzione vocale di intervalli consonanti e dissonanti
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

González-García, N.,More

González-García, N., Rendón, P. L. fMRI Mapping of Brain Activity Associated with the Vocal Production of Consonant and Dissonant Intervals. J. Vis. Exp. (123), e55419, doi:10.3791/55419 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter