Waiting
登录处理中...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

FMRI-Mapping der Gehirnaktivität, verbunden mit der Vokalproduktion von Konsonanten- und Dissonanzintervallen

Published: May 23, 2017 doi: 10.3791/55419

Summary

Die neuronalen Korrelate des Hörens von konsonanten und dissonanten Intervallen wurden weitgehend untersucht, aber die neuronalen Mechanismen, die mit der Produktion von konsonanten und dissonanten Intervallen verbunden sind, sind weniger bekannt. In diesem Artikel werden Verhaltenstests und fMRI mit Intervallidentifikations- und Gesangsaufgaben kombiniert, um diese Mechanismen zu beschreiben.

Abstract

Die neuronalen Korrelate der Konsonanz und der Dissonanzwahrnehmung wurden weitgehend untersucht, aber nicht die neuronalen Korrelate der Konsonanz und der Dissonanzproduktion. Die einfachste Art der musikalischen Produktion singt, aber aus einer bildgebenden Perspektive stellt sie noch mehr Herausforderungen als das Zuhören, weil es motorische Aktivität beinhaltet. Das genaue Singen von musikalischen Intervallen erfordert die Integration zwischen auditiver Rückkopplungsverarbeitung und Gesangsmotorsteuerung, um jede Note korrekt zu produzieren. Dieses Protokoll stellt eine Methode vor, die die Überwachung von neuronalen Aktivierungen erlaubt, die mit der stimmlichen Produktion von konsonanten und dissonanten Intervallen verbunden sind. Es werden vier musikalische Intervalle, zwei Konsonanten und zwei Dissonanten, als Reize verwendet, sowohl für einen auditiven Diskriminierungstest als auch für eine Aufgabe, die das erste Hören und dann die Wiedergabe von Intervallen beinhaltet. Die Teilnehmer, alle weiblichen Gesangsstudenten auf der Konservatoriumsebene, wurden mit dem funktionalen Magnetischen ResOnance Imaging (fMRI) während der Durchführung der singenden Aufgabe, wobei die Höraufgabe als Kontrollbedingung dient. Auf diese Weise wurde die Aktivität sowohl des motorischen als auch des auditorischen Systems beobachtet, und es wurde auch ein Maß der Gesangsgenauigkeit während der Gesangsaufgabe erhalten. So kann das Protokoll auch verwendet werden, um Aktivierungen zu verfolgen, die mit dem Singen von verschiedenen Arten von Intervallen oder mit dem Singen der erforderlichen Noten genauer verbunden sind. Die Ergebnisse deuten darauf hin, dass das Singen von dissonanten Intervallen eine stärkere Beteiligung der neuronalen Mechanismen erfordert, die für die Integration von externer Rückkopplung von den auditorischen und sensomotorischen Systemen verantwortlich sind, als die Konsumintervalle singen.

Introduction

Bestimmte Kombinationen von musikalischen Tonhöhen sind allgemein anerkannt, um konsonant zu sein, und sie sind typischerweise mit einer angenehmen Empfindung verbunden. Andere Kombinationen werden im Allgemeinen als dissonant bezeichnet und sind mit einem unangenehmen oder ungelösten Gefühl verbunden 1 . Obwohl es sinnvoll erscheint, anzunehmen, dass Enkulturation und Training in der Wahrnehmung der Konsonanz 2 eine Rolle spielen, wurde kürzlich gezeigt, dass die Unterschiede in der Wahrnehmung von Konsonanten und dissonanten Intervallen und Akkorden vermutlich weniger von der musikalischen Kultur abhängen, als es früher gedacht war und kann Sogar aus einfachen biologischen Grundlagen 4 , 5 , 6 ableiten. Um ein zweideutiges Verständnis des Begriffs Konsonanz zu verhindern, führte Terhardt 7 den Begriff der sensorischen Konsonanz ein, im Gegensatz zur Konsonanz im musikalischen Kontext, Wo die Harmonie zum Beispiel die Antwort auf einen gegebenen Akkord oder ein Intervall beeinflussen kann. In dem vorliegenden Protokoll wurden nur isolierte, zweipunktige Intervalle präzise verwendet, um Aktivierungen auszuschließen, die ausschließlich mit sensorischer Konsonanz zusammenhängen, ohne Interferenz von kontextabhängiger Verarbeitung 8 .

Versuche, die Konsonanz durch rein physikalische Mittel zu charakterisieren, begannen mit Helmholtz 9 , der die wahrgenommene Rauheit mit dissonanten Akkorden dem Schlagen zwischen benachbarten Frequenzkomponenten zugeschrieben hat. In jüngster Zeit hat sich jedoch gezeigt, daß die sensorische Konsonanz nicht nur mit der Abwesenheit von Rauheit verbunden ist, sondern auch mit der Harmonizität, dh der Ausrichtung der Partien eines gegebenen Tons oder Akkords mit denen eines unerhörten Tons eines Untere Frequenz 10 , 11 . Verhaltensstudien bestätigen, dass die subjektive Konsonanz tatsächlich von Pu betroffen istVerlasse physikalische Parameter wie Frequenzabstand 12 , 13 , aber ein breiteres Spektrum von Studien hat schlüssig gezeigt, dass physikalische Phänomene nicht nur die Unterschiede zwischen wahrgenommener Konsonanz und Dissonanz 14 , 15 , 16 , 17 berücksichtigen können. Alle diese Studien berichten jedoch über diese Unterschiede beim Hören einer Vielzahl von Intervallen oder Akkorden. Eine Vielzahl von Studien mit Positronenemissionstomographie (PET) und funktionellem Magnetresonanztomographie (fMRI) zeigten signifikante Unterschiede in den kortikalen Regionen, die aktiv werden, wenn sie entweder konsonante oder dissonante Intervalle und Akkorde 8 , 18 , 19 , 20 hören. Der Zweck der vorliegenden Studie ist es, die Unterschiede zu erforschenIn Gehirnaktivität beim Produzieren, anstatt zuzuhören, konsonante und dissonante Intervalle.

Das Studium der sensorisch-motorischen Kontrolle während der musikalischen Produktion beinhaltet typischerweise den Einsatz von Musikinstrumenten, und oft erfordert es dann die Herstellung von Instrumenten, die speziell für ihre Verwendung während der Neuroimaging modifiziert wurden 21 . Singen aber scheinen von Anfang an einen geeigneten Mechanismus für die Analyse von sensorisch-motorischen Prozessen während der Musikproduktion zu liefern, da das Instrument die menschliche Stimme selbst ist und der Vokalapparat keine Modifikation erfordert, um während des Spiels geeignet zu sein Bildgebung 22 Obwohl die neuronalen Mechanismen, die mit Aspekten des Sings verbunden sind, wie die Tonhöhensteuerung 23 , die vokale Nachahmung 24 , die trainingsinduzierten adaptiven Änderungen 25 und die Integration der externen Rückkopplung 25 ,

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Dieses Protokoll wurde vom Forschungs-, Ethik- und Sicherheitskomitee des Krankenhauses Infantil de México "Federico Gómez" genehmigt.

1. Behavioral Pretest

  1. Führen Sie einen standardmäßigen, audiometrischen Test durch, um zu bestätigen, dass alle potenziellen Teilnehmer ein normales Gehör (20-dB Hearing Level (HL) über Oktavfrequenzen von -8.000 Hz besitzen). Benutze das Edinburgh Handedness Inventory 31 , um sicherzustellen, dass alle Teilnehmer rechtshändig sind.
  2. Erzeugung von Intervallsequenzen.
    1. Produzieren Sie reine Töne, die zwei Oktaven überspannen, G4-G6, mit einem Ton-Editing-Programm.
      HINWEIS: Hier wird die kostenlose Open-Source-Soundbearbeitungssoftware Audacity beschrieben. Andere Pakete können zu diesem Zweck verwendet werden.
      1. Für jeden Ton öffnen Sie ein neues Projekt in der Sound-Editing-Software.
      2. Wählen Sie im Menü "Generieren" die Option "Ton". In dem Fenster, das erscheint, sEine Sinuswellenform, eine Amplitude von 0,8 und eine Dauer von 1 s wählen. Geben Sie den Wert der Frequenz ein, die der gewünschten Note entspricht ( zB 440 Hz für A4). Klicken Sie auf die Schaltfläche "OK".
      3. Wählen Sie im Menü "Datei" die Option "Audio exportieren". Geben Sie im folgenden Fenster den gewünschten Namen für die Audiodatei ein und wählen Sie WAV als gewünschten Dateityp. Klicken Sie auf "Speichern".
    2. Wähle zwei Konsonanten und zwei Dissonanzintervalle gemäß Tabelle 1 so, dass jedes Konsonantenintervall in der Nähe eines dissonanten Intervalls liegt.
      HINWEIS: Als Beispiel betrachten wir die konsonanten Intervalle einer perfekten fünften und einer Oktave und der dissonanten Intervalle eines erweiterten vierten (Tritons) und eines großen siebten. Dies sind die Intervalle, die für die von den Autoren durchgeführte Studie gewählt wurden.
    3. Erzeugen Sie alle möglichen Kombinationen von Noten, die diesen vier Intervallen entsprechen, im Bereich zwischen G4 und G6.
      1. Für eacH Intervall, öffnen Sie ein neues Projekt in der Sound-Editing-Software und verwenden Sie "Import Audio" im Menü "Datei", um die beiden zu verkettenden WAV-Dateien zu importieren.
      2. Setzen Sie den Cursor an einen beliebigen Punkt über den zweiten Ton und klicken Sie, um auszuwählen. Klicken Sie im Menü "Bearbeiten" auf "Alles markieren". Klicken Sie im selben Menü auf "Kopieren".
      3. Setzen Sie den Cursor an einen beliebigen Punkt über den ersten Ton und klicken Sie auf. Klicken Sie im Menü "Bearbeiten" auf "Cursor zum Track-Ende verschieben" und klicken Sie dann unter demselben Menü auf "Einfügen". Exportieren Sie den Ton wie in Schritt 1.2.1.3 beschrieben.
    4. Verwenden Sie einen zufälligen Sequenzgenerator, um Sequenzen zu erzeugen, die aus 100 Intervallen bestehen, die pseudozufällig so erzeugt werden, dass jedes der vier verschiedenen Intervalle genau 25 mal 30 auftritt. Verwenden Sie dazu die zufällige Permutationsfunktion in der statistischen Analyse-Software (siehe Tabelle der Materialien ). Geben Sie die vier IntervAls als Argumente und erstellen Sie eine Schleife, die diesen Prozess 25 mal wiederholt.
    5. Verwenden Sie Verhaltensforschung Software, um zwei verschiedene Läufe zu generieren. Laden Sie eine Sequenz von 100 Intervallen im WAV-Format für jeden Lauf und verknüpfen Sie die Identifizierung jedes Intervalls mit einer einzigen Testversion 30 .
      HINWEIS: Hier wird E-Prime Verhaltensforschungssoftware verwendet. Andere äquivalente Verhaltensforschungssoftware kann verwendet werden.
  3. Erklären Sie den Teilnehmern, dass sie zwei Sequenzen von jeweils 100 Intervallen hören werden, wobei jede Sequenz mit einer anderen Aufgabe und mit einem eigenen Satz von Anweisungen verknüpft ist. Sagen Sie den Teilnehmern, dass in beiden Läufen das nächste Intervall nur dann gespielt wird, wenn eine gültige Taste gedrückt wird.
    HINWEIS: Sobald die Intervallerkennungsreihenfolge beginnt, sollte es nicht unterbrochen werden, damit die Vorgehensweise allen Teilnehmern so klar wie möglich sein sollte.
    1. Haben sich die Teilnehmer vor einem Laptop-Computer hinsetzenUnd den mitgelieferten Kopfhörer tragen. Verwenden Sie gutwertige Over-the-Ear-Kopfhörer. Stellen Sie den Schallpegel auf ein angenehmes Niveau für jedes Motiv ein.
    2. Wenn Sie die hier beschriebene Verhaltensforschungssoftware verwenden, öffnen Sie die in Schritt 1.2.5 erstellten Aufgaben mit E-Run. Geben Sie im daraufhin angezeigten Fenster die Sitzungs- und Betreffnummer ein und klicken Sie auf "OK". Verwenden Sie die Sitzungsnummer, um zwischen den Läufen für jeden Teilnehmer zu unterscheiden.
      HINWEIS: Die Anweisungen für die jeweilige Aufgabe erscheinen auf dem Bildschirm, gefolgt von dem Beginn der Aufgabe selbst.
      1. Zuerst in einer 2-alternativen Zwangswahl-Aufgabe, einfach die Teilnehmer identifizieren, ob die Intervalle, die sie hören, konsonant oder dissonant sind. Haben Sie den Teilnehmer auf "C" auf der Computertastatur für Konsonanten und "D" für Dissonant.
        ANMERKUNG: Da es allen Teilnehmern erwartet wird, musikalisches Training auf einer Konservatoriumsebene zu haben, werden sie alle erwartet, dass sie in der Lage sind, zwischen dem Patonanten und dem Patenten zu unterscheidenSonantintervalle Die erste Aufgabe dient in gewissem Sinne als Bestätigung dafür, dass dies tatsächlich der Fall ist.
      2. Zweitens, in einer 4-alternativen Zwangswahl-Aufgabe, haben die Teilnehmer die Intervalle selbst zu identifizieren. Lassen Sie die Teilnehmer die Ziffern "4", "5", "7" und "8" auf der Computertastatur drücken, um die Intervalle einer erweiterten vierten, perfekten fünften, sechsten und Oktave zu identifizieren.
    3. Am Ende jeder Aufgabe drücken Sie "OK", um die Ergebnisse für jeden Teilnehmer automatisch in einer einzelnen E-DataAid 2.0-Datei zu speichern, die mit dem Betreff und der Sitzungsnummer und mit der Erweiterung .edat2 gekennzeichnet ist.
    4. Verwenden Sie eine statistische Analyse-Software ( z. B. Matlab, SPSS Statistics oder eine Open-Source-Alternative), um die Erfolgsquoten für jede Aufgabe zu berechnen ( dh der Prozentsatz der erfolgreichen Antworten bei der Identifizierung, ob die Intervalle konsonant oder dissonant waren, und auch bei der Identifizierung der intErvals selbst), sowohl einzeln als auch als Gruppe 32 .

2. fMRI Experiment

  1. Vorbereitung auf die fMRI-Sitzung.
    1. Generieren Sie Sequenzen der gleichen Intervalle wie in Schritt 1.2.3, die wiederum aus zwei aufeinanderfolgenden reinen Tönen mit einer Dauer von jeweils 1 s zusammengesetzt sind.
      HINWEIS: Die Stimmlage der Teilnehmer muss nun berücksichtigt werden, und alle Noten müssen bequem in den Singbereich jedes Teilnehmers fallen.
      1. Verwenden Sie einen zufälligen Sequenzgenerator, um eine randomisierte Sequenz von 30 Intervallen für die Nur-Lese-Versuche zu erstellen 30 . Für die Gesangsversuche erstellen Sie eine pseudorandomisierte Sequenz von 120 Intervallen für die Teilnehmer, um ein bestimmtes Intervall zu hören und dann dieses Zielintervall mit ihren Singstimmen zu vergleichen. Für die pseudorandomisierte Sequenz verwenden Sie die gleiche Methode wie in Schritt 1.2.4 beschrieben, mit den 4 Intervallen als Argumente noch einmal, aber nWiederholen Sie diesen Vorgang 30 mal.
      2. Nach dem gleichen Verfahren wie in Schritt 1.2.5 verwenden Sie die Verhaltensforschungssoftware, um drei verschiedene Läufe zu erzeugen, die jeweils aus 10 stillen Grundlinienversuchen bestehen, gefolgt von 10 aufeinanderfolgenden Hörversuchen und schließlich von 40 aufeinanderfolgenden Gesangsversuchen.
        HINWEIS: Während der Baseline-Versuche erscheinen die vier Intervalle in zufälliger Reihenfolge, während während der Gesangsversuche die vier Intervalle in pseudozufriedener Reihenfolge erscheinen, so dass jedes Intervall schließlich genau 10 mal dargestellt wird. Die Dauer jedes Versuches beträgt 10 s, so dass ein ganzer Lauf 10 min dauert. Da jedes Fach 3 Versuchsläufe durchläuft, beträgt die Gesamtdauer des Experiments 30 min. Jedoch ermöglicht es den Teilnehmern, den Scanner einzugeben und zu verlassen, für die Zeit zum Einrichten und Testen des Mikrofons, für die Zeit, um den anatomischen Scan zu erhalten, und für die Zeit zwischen den funktionalen Läufen sollten etwa 1 h Scannerzeit jedem Teilnehmer zugeteilt werden .
    2. Erklären Sie den Teilnehmern die Sequenzen der zu präsentierenden Versuche, wie in Schritt 2.1.1.2 beschrieben, und antworten Sie auf alle Zweifel, die sie haben könnten. Weisen Sie die Teilnehmer an, die Notizen zu summen, ohne den Mund während der Gesangsversuche zu öffnen, die Lippen immer noch zu halten, während sie einen "m" Klang erzeugen.
    3. Verbinden Sie ein nichtmagnetisches, MR-kompatibles Headset mit einem Laptop. Stellen Sie den Schallpegel auf ein angenehmes Niveau für jedes Motiv ein.
    4. Verbinden Sie ein kleines Kondensatormikrofon mit einer Audio-Schnittstelle, die wiederum mit dem Laptop verbunden ist, mit einem abgeschirmten Twisted-Triplet-Kabel.
      HINWEIS: Das Mikrofon-Netzteil, das Audio-Interface und der Laptop sollten sich alle außerhalb des Raumes befinden, der den Scanner aufnimmt.
    5. Überprüfen Sie den Mikrofon-Frequenzgang.
      HINWEIS: Der Zweck dieses Tests ist es zu bestätigen, dass sich das Mikrofon wie erwartet im Scanner verhält.
      1. Starten Sie ein neues Projekt in der Sound-Editing-Software und wählen Sie den Kondensator ausMikrofon als Eingabegerät.
      2. Erzeugen Sie einen 440 Hz-Testton mit einer Dauer von 10 s, wie in Abschnitt 1.2.1 beschrieben, mit den entsprechenden Werten für Frequenz und Dauer.
      3. Verwenden Sie die Standard-Klangwiedergabesoftware auf dem Laptop, und drücken Sie "Play", um den Testton über die Kopfhörer an den Orten im Inneren (oben auf der Kopfstütze) und außerhalb (im Kontrollraum) des Scanners zu senden, wobei das Mikrofon zwischen den Seiten platziert ist Des Headsets in jedem Fall.
      4. Drücken Sie "Record" in der Sound-Editing-Software, um etwa 1 s des Testtons an jedem Ort aufzuzeichnen.
      5. Wählen Sie "Plot Spectrum" aus dem Menü "Analysieren" für jeden Fall und vergleichen Sie die Reaktion des Mikrofons auf den Testton sowohl innerhalb als auch außerhalb des Scanners, indem Sie überprüfen, ob die Grundfrequenz des an jedem Ort empfangenen Signals 440 Hz beträgt.
    6. Tondiere das Kondensatormikrofon an den Hals des Teilnehmers, knapp unter demLarynx.
    7. Haben die Teilnehmer das Headset tragen. Stellen Sie den Teilnehmer in einen Magnetresonanzscanner (MR).
  2. FMRI-Sitzung.
    1. Zu Beginn der Sitzung öffnen Sie das Softwarepaket der Magnetresonanz-Benutzeroberfläche (MRUI). Verwenden Sie die MRUI, um das Erfassungsparadigma zu programmieren.
      HINWEIS: Manche Abweichungen in der Schnittstelle sind zwischen verschiedenen Modellen zu erwarten.
      1. Wählen Sie die Option "Patient" aus dem Bildschirmmenü aus. Geben Sie den Namen des Teilnehmers, Alter und Gewicht ein.
      2. Klicken Sie auf die Schaltfläche "Prüfung". Zuerst wählen Sie "Kopf" und dann "Gehirn" aus den verfügbaren Optionen.
      3. Wählen Sie "3D" und dann "T1 isometrisch" mit den folgenden Werten für die relevanten Parameter: Wiederholzeit (TR) = 10,2 ms, Echozeit (TE) = 4,2 ms, Flipwinkel = 90 ° und Voxelgröße = 1 x 1 x 1 mm 3 .
        HINWEIS: Für jeden Teilnehmer wird ein T1-gewichtetes anatomisches Volumen bE unter Verwendung einer Gradient-Echo-Pulssequenz für anatomische Referenz erworben.
      4. Klicken Sie auf "Programm" und wählen Sie EchoPlanaImage_diff_perf_bold (T2 *) mit den Werten der relevanten Parameter wie folgt: TE = 40 ms, TR = 10 s, Erfassungszeit (TA) = 3 s, Verzögerung in TR = 7 s, Flip Winkel = 90 °, Sichtfeld (FOV) = 256 mm 2 und Matrix Dimensionen = 64 x 64. Verwenden Sie die Option "Dummy", um 5 Volumes zu erwerben, während Sie einen Wert von "55" für die Gesamtzahl der Volumes eingeben.
        HINWEIS: Diese Werte erlauben die Erfassung von funktionalen T2 * -gewichteten Ganzkopf-Scans nach dem in Abbildung 1 dargestellten Sparse-Sampling-Paradigma, wo ein echo-planarer Imaging (EPI) "Dummy" Scan erfasst und verworfen wird, um eine T1-Sättigung zu ermöglichen Auswirkungen. Beachten Sie, dass bei einigen MRUIs der Wert von TR 3 s sein sollte, da es sich um die Gesamtzeit handelt, während der die Akquisition stattfindet.
      5. Klicken Sie auf "Kopieren", um eine Kopie dieser Sequenz zu erstellenEnce Setzen Sie den Cursor an die Unterseite der Sequenzliste und klicken Sie dann zweimal auf "Einfügen", um drei aufeinanderfolgende Stichprobensequenzen einzurichten.
      6. Klicken Sie auf "Start", um die T1-gewichtete anatomische Volumenerfassung zu starten.
      7. Gegenwärtig drei Läufe an den Teilnehmer, mit den Läufen wie in Schritt 2.1.1.2 beschrieben. Synchronisieren Sie den Start der Läufe mit der Erfassung durch den Scanner mit der Scanner-Triggerbox.
        1. Befolgen Sie die gleiche Vorgehensweise wie in Abschnitt 1.3.2 beschrieben, um jeden der drei Läufe zu beginnen, wobei zwischen den Läufen unter Verwendung der Sitzungsnummer differenziert wird. Speichern Sie die Ergebnisse von drei vollständigen Läufen mit demselben Verfahren wie in Schritt 1.3.3 beschrieben.
          HINWEIS: Das Timing der Testvorstellungen wird systematisch um ± 500 ms gesammelt.

Abbildung 1
Abbildung 1: SParse-Sampling Design. ( A ) Timeline von Ereignissen innerhalb eines Versuches, bei dem nur ein zweifarbiges Intervall (2 s) ohne nachfolgende Wiederverwertung aufgenommen wird. ( B ) Zeitplan der Ereignisse innerhalb eines Prozesses mit Hör- und Gesangsaufgaben. Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen.

3. Datenanalyse

  1. Vorbereiten der Funktionsdaten mit Software zur Analyse von Gehirnabbildungsdatenfolgen nach Standardverfahren 33 .
    HINWEIS: Die gesamte Datenverarbeitung erfolgt mit der gleichen Software.
    1. Verwenden Sie die mitgelieferte Menüoption, um die Bilder auf die erste Lautstärke, die neu abgetastete und räumlich normalisierte (endgültige Voxelgröße: 2 x 2 x 2 mm 3 ) an den standardmäßigen stererotischen Raum des Montreal Neurological Institute (MNI) auszurichten 34 . Verwenden Sie die mitgelieferte Menüoption, um das Bild mit einem isotropen, 8 mm, voller Breite bei halbmaximalem (FWHM) Gaußschen Kernel zu glätten.
    2. Um die BOLD-Antwort zu modellieren, wähle eine Single-Bin Finite Impulse Response (FIR) als Basisfunktion (Order 1) oder Boxcar-Funktion, die die Zeit der Volumenerfassung (3 s) 28 überspannt.
      HINWEIS: Sparse-Sampling-Protokolle, wie diese, erfordern im Allgemeinen nicht, dass die FIR mit der hämodynamischen Antwortfunktion gefaltet wird, wie dies üblicherweise bei eventbezogenen fMRI der Fall ist.
    3. Wenden Sie für jede Veranstaltung einen Hochpassfilter an die BOLD-Antwort an (1.000 s für das "singing network" und 360 s woanders).
      HINWEIS: Das Modellieren aller Gesangsaufgaben wird zusammen einen Block von 400 s sein. 35 .

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Alle 11 Teilnehmer in unserem Experiment waren weibliche Vokalstudenten auf der Konservatoriumsebene, und sie machten sich gut genug in den Intervallerkennungsaufgaben, die für das Scannen ausgewählt wurden. Die Erfolgsquote für die Intervall-Identifikationsaufgabe betrug 65,72 ± 21,67%, was erwartungsgemäß niedriger ist als die Erfolgsquote bei der Identifizierung von dissonanten und konsonanten Intervallen, was 74,82 ± 14,15% betrug.

Um das grundlegende Design der Studie zu validieren, haben wir gehofft, neuronale Aktivität während des Gesangs in den Regionen zu identifizieren, von denen bekannt ist, dass sie das "Gesangsnetzwerk" darstellen, wie es in einer Reihe von früheren Studien 25 , 26 , 27 , 28 , 29 , 30 definiert ist , 31 ,Ass = "xref"> 32 , 33 , 34 , 35 , 36 , 37 . Die Wirkung des Gesangs wird durch den linearen Kontrast der ersten Ebene beobachtet, der dem Singen im Gegensatz zum Hören entspricht. Es wurden Stichproben-T-Tests mit Clustern verwendet, die durch Z> 3 bestimmt wurden, und eine Cluster-Signifikanzschwelle von p = 0,05, Family-Wise Error (FWE) korrigiert 38 . Für die anatomische Markierung wurden die SPM Anatomy Toolbox 33 und der Harvard-Oxford kortikalen und subkortikalen Strukturatlas verwendet 39 . Die Hirnregionen, in denen eine signifikante Aktivierung beobachtet wurde, waren der primäre somatosensorische Kortex (S1), der sekundäre somatosensorische Kortex (S2), der primäre motorische Kortex (M1), der ergänzende motorische Bereich (SMA), der prämotorische Kortex (PM), der Brodmannbereich 44 (BA 44), die primäre auditorische Kortex(PAC), der überlegene zeitliche Gyrus (STG), der zeitliche Pol, die vordere Insula, der Putamen, der Thalamus und das Kleinhirn. Diese Aktivierungen entsprechen denen, die in den oben zitierten Studien zum "singenden Netzwerk" berichtet wurden, und sie sind in Abbildung 2 dargestellt. Man beachte, daß in den Fig. 2 und 3 die x-Koordinate senkrecht zur Sagittalebene ist, die y-Koordinate senkrecht zur koronalen Ebene ist und die z-Koordinate senkrecht zur transversalen oder horizontalen Ebene ist.

Sobald die Grundkonstruktion validiert worden ist, wurden für jeden Teilnehmer zwei weitere lineare Kontraste der ersten Ebene berechnet, die dem singenden Dissonanten im Gegensatz zu den Konsonantenintervallen und dem Sinkenkonsonanten im Gegensatz zu dissonanten Intervallen entsprechen. Diese linearen Kontraste wurden dann auf ein zweites Niveau-Zufalls-Effekt-Modell mit einem Satz von 2-Wege-wiederholt-Maßnahmen Analysen von Varia genommenNce (ANOVA), mit den Faktoren Konsonanz und Dissonanz. Auf diese Weise wurden die aktivierten oder deaktivierten Bereiche auf mögliche Wechselwirkungen untersucht, wobei Aktivierungen von Interesse nach der Signifikanz-Voxel-Schwelle, p <0,001, unkorrigiert für Mehrfachvergleiche 28 , 29, bestimmt wurden . Für den Kontrast, der sich aus dem Singen des Dissonanten im Gegensatz zu den Konsonantenintervallen ergab, wurden erhöhte Aktivierungen im rechten S1, dem rechten PAC, dem linken Mittelhirn, der rechten hinteren Insula, dem linken Amygdala und dem linken Putamen beobachtet. Diese Aktivierungen sind in Abbildung 3 dargestellt. In Bezug auf den komplementären Kontrast wurden keine signifikanten Veränderungen der Aktivierung während des Sings von Konsonantenintervallen festgestellt.

Figur 2
Abbildung 2: Aktivierung in Regionen, die das "Singenetzwerk" konstituieren. AktivierenIonenkarten werden mit einer Cluster-Signifikanzschwelle von p = 0,05 dargestellt, familiärer Fehler (FWE) korrigiert. BOLD-Antworten werden in beliebigen Einheiten gemeldet. Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen.

Abbildung 3
Abbildung 3: Kontrast zwischen dem Singen von Dissonanten und Konsonantenintervallen. Aktivierungskarten werden vorgestellt, unkorrigiert für Mehrfachvergleiche mit einer Cluster-Signifikanzschwelle von p = 0,001. BOLD-Antworten werden in beliebigen Einheiten gemeldet. Bitte klicken Sie hier, um eine größere Version dieser Figur zu sehen.

Intervall Anzahl der Halbtöne Verhältnis der Grundlagen
Einklang 0 1: 1
Kleine Sekunde 1 16:15
Major zweitens 2 9: 8
Geringes Drittel 3 6: 5
Hauptdrittel 4 5: 4
Perfektes viertes 5 4: 3
Triton 6 45:32
Perfektes Fünftel 7 3: 2
Minor sechsten 8 8: 5
Major sechsten 9 5: 3
Minder siebter 10 16: 9
Major siebten 11 15: 8
Oktave 12 2: 1

Tabelle 1: Konsonante und dissonante musikalische Intervalle. Konsonante Intervalle erscheinen fett gedruckt, während dissonante Intervalle kursiv erscheinen. Beachten Sie, dass je mehr Konsonant ein Intervall ist, desto kleiner sind die ganzen Zahlen, die im Frequenzverhältnis erscheinen, um sie darzustellen. Für eine eingehende Diskussion über Konsonanz und Dissonanz als Funktion der Frequenzverhältnisse siehe Bidelman & Krishnan 40 .

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Diese Arbeit beschreibt ein Protokoll, in dem Gesang als Mittel zum Studium der Hirnaktivität während der Herstellung von Konsonanten und dissonanten Intervallen verwendet wird. Auch wenn das Singen bietet, was vielleicht die einfachste Methode für die Produktion von musikalischen Intervallen 22 ist , erlaubt es nicht die Produktion von Akkorden. Obwohl die meisten physikalischen Charakterisierungen des Begriffs der Konsonanz bis zu einem gewissen Grad auf die Überlagerung von gleichzeitigen Notizen beruhen, haben eine Reihe von Studien gezeigt, dass Intervalle, die mit Noten konstruiert sind, die konsonanten oder dissonanten Akkorden entsprechen, immer noch als konsonant oder dissonant wahrgenommen werden, Jeweils 4 , 6 , 15 , 41 , 42 .

Die Verhaltensintervall-Wahrnehmungsaufgabe wird verwendet, um festzulegen, bevor die Teilnehmer zum Scannen gehen könnenWenn sie in der Lage sind, die Intervalle adäquat zu unterscheiden. So verhalten sie sich einmal im Inneren des Magnetresonators. Alle Teilnehmer, die bei der Durchführung dieser Identifikationsaufgaben keinen vorgegebenen Schwellenwert erfüllen können, sollten nicht mit dem fMRI-Experiment fortfahren. Der Hauptzweck dieses Auswahlprozesses besteht darin, sicherzustellen, dass Leistungsunterschiede zwischen den Teilnehmern nicht auf mangelhafte Wahrnehmungsfähigkeiten zurückzuführen sind. Ausgewählte Teilnehmer sollten ähnliche Grade von Gesang und Musiktraining haben, und auch, wenn möglich, ähnliche Tessituras. Wenn sie Stimmbereiche haben, die sich erheblich unterscheiden, muss die Intervalle, die während der Gesangsaufgaben präsentiert werden, die sie durchführen müssen, personalisiert sein.

Das Mikrofon-Setup ist entscheidend für die Erfassung zuverlässig und artefaktfrei. Die Art des Mikrofons selbst ist sehr wichtig, und obwohl es möglich ist, optische 28 oder speziell entworfene, MR-kompatible 29 zu verwenden Sup> Mikrofone wurde gezeigt, dass die Empfindlichkeit von Kondensatormikrofonen nicht durch das Vorhandensein der intensiven Magnetfelder in der Abbildungsumgebung 43 beeinflusst wird. In der Tat kann ein kleines Lavalier-Kondensatormikrofon verwendet werden, sofern ein abgeschirmtes Twisted-Triplet-Kabel zum Verbinden des Mikrofons mit dem Vorverstärker verwendet wird, das außerhalb des Raumes platziert werden muss, in dem der MR-Scanner untergebracht ist. Diese Anordnung verhindert das Auftreten von Abbildungsartefakten 44 , aber Forscher sollten auch sicherstellen, dass der Scanner die Leistung des Mikrofons nicht beeinträchtigt. Zu diesem Zweck kann ein Testton über den MR-kompatiblen Kopfhörer an das im Inneren des MR-Scanners angeordnete Mikrofon gesendet werden, und das auf diese Weise erhaltene Signal kann dann mit dem verglichen werden, das durch Senden des gleichen Tons an das Mikrofon, das jetzt draußen platziert wird, erhalten wird Der scanner Die Schalldruckpegel im MR-Scanner können extrem hoch seinXref "> 45, so dass das Mikrofon so nah wie möglich an die Quelle gestellt werden muss, indem man die Teilnehmer zum Brummen anstatt offener Noten sammelt, kann die Bewegung im und um den Mundbereich minimiert werden, indem man das Mikrofon direkt unter dem Kehlkopf platziert , Abgedeckt von Band, ist es möglich, eine treue Aufnahme der Stimme des Sängers zu erhalten. Die Aufnahmen werden natürlich sehr laut sein - das kann man nicht vermeiden - aber wenn die Forscher sich vor allem für Pitch und nicht für die Artikulation oder die Aussprache von Worten interessieren, Eine Vielzahl von Softwarepaketen kann verwendet werden, um das Signal für die Erkennung der Grundfrequenz jeder gesungenen Note zu reinigen. Eine Standardmethode wäre die Verwendung von Audio-Editing-Software, um die Zeitsignale durch ein Hamming-Fenster zu filtern und dann die Autokorrelation zu verwenden Algorithmen, die in bestimmte Sprach- und Phonetik-Softwarepakete eingebaut sind, um die gesungenen Grundlagen zu identifizieren. Die Stimmgenauigkeit kann dann für jeden Teilnehmer berechnet werdenDie aus den Aufzeichnungen erhaltenen Daten umfassen das Korrelieren der Tonhöhe oder der rhythmischen Genauigkeit mit dem Grad der Trainings- oder Intervallabstände.

Funktionale Bilder werden unter Verwendung eines spärlichen Abtastentwurfs erfaßt, um die BOLD- oder akustische Maskierung aufgrund des Rauschens 25 , 28 , 29 , 46 , 47 zu minimieren . Jedes Thema unterliegt 3 Versuchsläufen, jeweils 10 min. Während jedes Laufs werden die Fächer zuerst gebeten, während der 10 stillen Grundversuche schweigend zu liegen, dann passiv zu einem Block von 10 Intervallen zu hören und schließlich einen anderen Block von 40 Intervallen zu hören und zu singen. Ein Ziel, einzelne Läufe so kurz wie möglich zu halten, ist, die Müdigkeit der Teilnehmer zu vermeiden. Dennoch ist seither klar, dass es in Zukunft besser sein könnte, die gleiche Anzahl von Hör- und Gesangsversuchen einzuschließen, dieKann dann in wechselnden Blöcken dargestellt werden. Dies würde die Wirkung der Erhöhung der statistischen Macht haben. Als Beispiel könnte ein Lauf aus 2 Blöcken von 5 stillen Grundlinienversuchen bestehen, 4 Blöcke von 5 Hörproben und 4 Blöcken von Gesangsversuchen. Die Blöcke würden dann den Teilnehmern im Wechsel mit einer Gesamtdauer von 500 s pro Lauf präsentiert.

Der Hauptgrund dafür, dass die Teilnehmer passiv in den Resonator hören, besteht darin, ein Mittel zu haben, die auditive Aktivität von der motorischen Aktivität zu subtrahieren. Somit ist für die ordnungsgemäße Validierung der Studie ein günstiger Vergleich von singenden Aktivierungen gegen das "singing network" 25 , 27 , 28 , 29 , 36 , 37 unentbehrlich. Beachten Sie, dass "Singen Netzwerk" Aktivierungen sind sehr robust und gut etabliert und sind in der Regel deMit einer Stichprobe t-Tests und einer korrigierten Cluster-Signifikanzschwelle von p = 0,05. Aktivierungen, die dem Kontrast zwischen singenden dissonanten / konsonanten und konsonanten / dissonanten Intervallen entsprechen, werden typischerweise mittels zweifach wiederholter Faktoranalysen der Varianz (ANOVA) entsprechend der Signifikanzvoxelschwelle p <0,001, unkorrigiert für Mehrfachvergleiche 28 , 29 , identifiziert. Es wird erwartet, dass die Teilnehmer singende dissonante Intervalle finden, die anspruchsvoller sind als singende Konsonantenintervalle 48 , 49 ; So werden verschiedene Aktivierungen für jeden der beiden oben beschriebenen Kontraste erwartet. Die Ergebnisse zeigen, dass die singenden Dissonanzintervalle eine Neuprogrammierung der neuronalen Mechanismen beinhalten, die für die Produktion von Konsonantenintervallen angeworben wurden. Während des Gesangs wird der erzeugte Klang mit dem beabsichtigten Klang verglichen, und jede notwendige Einstellung wird dann erreichtDurch die Integration von externem und internem Feedback aus auditiven und somatosensorischen Bahnen. Eine ausführliche Erörterung dieser Ergebnisse und die daraus gezogenen Schlussfolgerungen sind in dem Artikel von González-García, González und Rendón 30 enthalten.

Dieses Protokoll bietet eine vernünftig einfache Methode für die Untersuchung der neuronalen Korrelate der musikalischen Produktion und zur Überwachung der Aktivität sowohl des motorischen als auch des auditorischen Systems. Es kann verwendet werden, um Unterschiede in der Hirnaktivierung zwischen binären Bedingungen, wie singende Konsonanten oder dissonante Intervalle, und singen engen oder breiten Intervallen 30 zu verfolgen. Es ist auch gut geeignet, um die Wirkung der Ausbildung auf eine Vielzahl von Aufgaben mit singen spezifischen Frequenzen verbunden zu studieren. Auf der anderen Seite wäre es wegen der sehr großen Menge an Lärm, die in Aufnahmen der gesungenen Stimme enthalten ist, die während des Scans erhalten wurden, schwierig, diesen Prot zu verwendenOcol, um Aufgaben zu analysieren, die sich mit der Qualität des Tons oder der Klangfarbe befassen, vor allem, weil es sich um Qualitäten handelt, die beim Summen nicht richtig beurteilt werden können.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren erklären keine Interessenkonflikte.

Acknowledgments

Die Autoren bestätigen die finanzielle Unterstützung für diese Forschung von Secretaría de Salud de México (HIM / 2011/058 SSA 1009), CONACYT (SALUD-2012-01-182160) und DGAPA UNAM (PAPIIT IN109214).

Materials

Name Company Catalog Number Comments
Achieva 1.5-T magnetic resonance scanner Philips Release 6.4
Audacity Open source 2.0.5
Audio interface Tascam US-144MKII
Audiometer Brüel & Kjaer Type 1800
E-Prime Professional Psychology Software Tools, Inc. 2.0.0.74
Matlab Mathworks R2014A
MRI-Compatible Insert Earphones Sensimetrics S14
Praat Open source 5.4.12
Pro-audio condenser microphone Shure SM93
SPSS Statistics IBM 20
Statistical Parametric Mapping Wellcome Trust Centre for Neuroimaging 8

DOWNLOAD MATERIALS LIST

References

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061 (1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237 (2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Tags

Verhalten Ausgabe 123 Konsonanz und Dissonanz neuronale Korrelate von Musik musikalische Intervallidentifikation Gesang funktionelle Magnetresonanztomographie (fMRI) audio-vokale Integration
FMRI-Mapping der Gehirnaktivität, verbunden mit der Vokalproduktion von Konsonanten- und Dissonanzintervallen
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

González-García, N.,More

González-García, N., Rendón, P. L. fMRI Mapping of Brain Activity Associated with the Vocal Production of Consonant and Dissonant Intervals. J. Vis. Exp. (123), e55419, doi:10.3791/55419 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter