Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

子音と睡眠不足の声調発声に伴う脳活動のfMRIマッピング

Published: May 23, 2017 doi: 10.3791/55419

Summary

子音と不協和区間を聞く神経相関は広く研究されているが、子音区間と不協和区間の生成に関連する神経機構はあまり知られていない。この記事では、行動テストとfMRIを、間隔の特定と歌い合わせのタスクと組み合わせて、これらのメカニズムを説明します。

Abstract

協調性と不協感性の神経相関は広く研究されているが、協調性と不協和性の神経相関は研究されていない。音楽制作の最も単純なやり方は歌ですが、イメージングの観点から見ると、それは運動活動を伴うため、聞き取るよりも難題が多いです。音楽区間の正確な歌唱は、正確に各音符を生成するために、聴覚フィードバック処理と声帯運動制御との間の統合を必要とする。このプロトコルは、子音および不協和区間の声調生成に関連する神経活動の監視を可能にする方法を提示する。聴覚弁別試験と、所定の時間間隔を最初に聞いて再生することの両方のために、4つの音程、2つの子音と2つの不協和音が刺激として使用される。保育者レベルの女性ボーカル学生全員が、機能的な磁気Resリスニングタスクを制御条件とする歌唱タスクの実行中のオニオンイメージング(fMRI)を含む。このようにして、モーターシステムと聴覚システムの両方の活動が観察され、歌作業中の声の正確度の測定値も得られた。したがって、このプロトコルは、異なるタイプの区間を歌うことに関連する活動化、または必要な音符をより正確に歌うことに関連する活動化を追跡するためにも使用することができる。この結果は、不協和音を歌うことは、子音の歌唱よりも聴覚および感覚運動システムからの外部フィードバックの統合に関与する神経機構のより大きな参加を必要とすることを示している。

Introduction

ある種の音楽ピッチの組み合わせは、一般的に子音であると認められており、典型的には心地よい感覚と関連している。他の組み合わせは、一般に、不協和と呼ばれ、不快感または未解決の感情と関連している1 。音韻習得と訓練が協調2の認識にある役割を果たすと仮定することは賢明であるが、子音と不協和区間と和音の知覚の違いはおそらく以前考えられていた3より音楽文化に依存しないことが示されている。単純な生物学的基盤4,5,6からも得られる。用語集のあいまいな理解を避けるために、Terhardt 7は、音楽的な文脈における協和とは対照的に、感覚的な協調の概念を導入したたとえば調和がある和音や音程への応答に影響を与える場合があります。現在のプロトコルでは、文脈依存処理からの干渉なしに、感覚的な協和にのみ関連する活性化を正確に区別するために、隔離された2音符間隔のみが正確に使用された8

ヘルマンホルツ9は、純粋に物理的な手段で協和を特徴付ける試みを始めた。ヘルムホルツ9は、不協和音に関連する知覚された粗さが隣接する周波数成分間の鼓動に起因すると考えた。しかしながら、より最近では、感覚的な協調は、粗さの欠如に関連するだけでなく、調和、すなわち、与えられた調子または和音の部分的な音と和音の非調和の音との調和とも関連することが示されている低い周波数10,11 。行動研究は、主観的な協和が実際にpuの影響を受けることを確認している周波数間隔12,13などの物理的パラメータに依存しているが、より広い範囲の研究は、物理現象が知覚される協和と不協和音の差異だけを説明することはできないことを最終的に示している14,15,16,17。しかしながら、これらの研究のすべては、様々な間隔または和音を聞くときに、これらの相違を報告する。子宮頸がんの発症時には、脳梗塞の発症が心配されています。陽電子放射断層撮影(PET)と機能性磁気共鳴画像法(fMRI)を使用したさまざまな研究により本研究の目的は、子音や声の不自然な音程を聞くのではなく、発声するときの脳活動に影響を与えます。

音楽制作中の感覚・運動制御の研究は、典型的には楽器の使用を伴い、非常にしばしば、ニューロイメージング中に使用するために特別に修正された器具の製作を必要とする。しかし、歌唱は、楽器が人間の声そのものなので、音楽制作中の感覚運動プロセスの分析のための適切なメカニズムを最初から提供しているようであり、声楽装置は、イメージング22 。ピッチ制御23 、声模倣24 、訓練誘導適応変化25 、外部フィードバック25の統合など、歌唱の態様に関連する神経機構は、 30 。この目的のために、現在の論文では、参加者による子音と不協和音の適切な認識を確立するための行動テストが記述されています。これに続いて、様々な子音と不協和音を歌う参加者のfMRIの研究が続きます。 fMRIプロトコルは比較的簡単ですが、すべてのMRI研究と同様に、実験を正しく設定するためには十分な注意が必要です。この場合、歌の作業中に頭、口、唇の動きを最小限にすることが特に重要であり、歌の物理的行為に直接関係しない効果をより簡単に特定することができます。この方法論は、歌うことによって音楽制作を含む様々な活動に関連する神経メカニズムを賞賛する。

Subscription Required. Please recommend JoVE to your librarian.

Protocol

このプロトコルは、病院Infantil deMéxico "FedericoGómez"の研究、倫理、安全委員会によって承認されています。

1.行動試験

  1. すべての参加予定者が通常の聴覚(-8,000 Hzのオクターブ周波数で20 dBの聴力レベル(HL))を持つことを確認するために、標準の純音聴力検査を実施します。すべての参加者が右利きであることを確認するには、Edinburgh Handedness Inventory 31を使用します。
  2. 区間シーケンスの生成。
    1. サウンド編集プログラムを使用して、2つのオクターブにまたがる純粋なトーン、G4-G6を作成します。
      注:ここでは、無料のオープンソースのサウンド編集ソフトAudacityについて説明します。他のパッケージをこの目的のために使用することができます。
      1. 音色ごとに、サウンド編集ソフトウェアで新しいプロジェクトを開きます。
      2. "Generate"メニューで "Tone"を選択します。表示されるウィンドウで、s正弦波形、振幅0.8、および1秒の持続時間を選択する。目的の音符に対応する周波数の値を入力します( 例: 440 Hz for A4)。 「OK」ボタンをクリックします。
      3. [ファイル]メニューの[オーディオの書き出し]を選択します。開いたウィンドウで、オーディオファイルの名前を入力し、目的のファイルタイプとしてWAVを選択します。 [保存]をクリックします。
    2. それぞれの子音間隔が不協和区間に近いように、 表1に従って、2つの子音と2つの不協和区間を選択します。
      注:一例として、完璧な5番目と1オクターブの子音の間隔と、拡張された4番目のトーンの不協和音の間隔(トライトン)と主要な7番目の音程を考えてみましょう。これらは、著者が実施した研究のために選ばれた間隔である。
    3. G4とG6の間の範囲で、これらの4つの区間に対応するノートの可能なすべての組み合わせを生成します。
      1. eacのためにオーディオ編集ソフトウェアで新しいプロジェクトを開き、[ファイル]メニューの[オーディオのインポート]を使用して連結する2つのWAVファイルをインポートします。
      2. 2番目のトーン上の任意のポイントにカーソルを置き、クリックして選択します。 [編集]メニューの[すべて選択]をクリックします。同じメニューの下で、[コピー]をクリックします。
      3. カーソルを最初のトーンの上の任意のポイントに置き、クリックします。 「編集」メニューの「カーソルをトラック終了まで移動」をクリックし、同じメニューの「貼り付け」をクリックします。手順1.2.1.3の説明に従ってオーディオをエクスポートします。
    4. ランダムシーケンスジェネレータを使用して、4つの異なる間隔がそれぞれ正確に25倍になるように擬似ランダムに生成された100の間隔からなるシーケンスを生成します。これを行うには、統計解析ソフトウェアのランダム置換機能を使用します( 表の表を参照 )。 4つのintervを入力してくださいこのプロセスを25回繰り返すループを作成します。
    5. 行動研究ソフトウェアを使用して2つの異なるランを生成する。実行ごとにWAV形式で100間隔のシーケンスをロードし、各間隔の識別を単一の試行に関連付けます30
      注:ここでは、E-Primeの行動研究ソフトウェアが使用されています。他の同等の行動研究ソフトウェアを使用することができる。
  3. 参加者には、各々100の間隔の2つのシーケンスを聞くことを説明する。各シーケンスは異なるタスクとそれ自身の指示セットと関連している。参加者に両方のランで、有効なキーが押されたときにのみ次のインターバルが再生されることを教えてください。
    注記:区間認識シーケンスが開始されたら、中断してはいけません。そのため、すべての参加者ができるだけ明確な行動を取るようにしてください。
    1. 参加者にラップトップコンピュータの前に座らせる付属のヘッドホンを着用してください。良質の耳あふれるヘッドホンを使用してください。音量を各対象の快適なレベルに調整します。
    2. ここで説明した行動調査ソフトウェアを使用している場合は、ステップ1.2.5で作成したタスクをE-Runで開きます。表示されるウィンドウで、セッションと件名を入力して[OK]をクリックします。セッション番号を使用して、各参加者の実行を区別します。
      注記:手元にあるタスクの指示が画面に表示され、その後にタスク自体が表示されます。
      1. まず、2選択肢の強制選択タスクでは、参加者に聞こえる間隔が子音か不協和音かを識別させるだけです。参加者は、コンピュータのキーボードで "C"を、子音には "D"を、不協和音には "D"を押します。
        注記:すべての参加者はコンサバトリーレベルで音楽訓練を受ける予定であるため、すべての参加者は、純粋に子音と明白に区別することができると期待されています超音波間隔。最初のタスクは、ある意味では、これが本当に事実であるという確認として機能します。
      2. 第2に、4つの代替強制選択タスクにおいて、参加者にインターバルを識別させる。参加者にコンピュータキーボードの数字「4」「5」「7」「8」を押して、それぞれ第4、第5、第7、およびオクターブの間隔を確認させます。
    3. 各タスクの最後に、「OK」を押して、各参加者の結果を、件名とセッション番号と拡張子.edat2のラベルが付いた個々のE-DataAid 2.0ファイルに自動的に保存します。
    4. 統計分析ソフトウェア(Matlab、SPSS Statistics、オープンソースの代替案など)を使用して、各タスクの成功率( すなわち 、間隔が子音であるか不協和であるかを識別したときの成功率、自分自身も、グループとしても) 32

2. fMRI実験

  1. fMRIセッションの準備。
    1. ステップ1.2.3と同じ間隔のシーケンスを生成します。これも、それぞれ1秒間の連続した2つの純粋なトーンから構成されています。
      注:参加者の声の範囲は考慮されなければならず、すべての音符は各参加者の歌唱範囲​​内で快適に落ちなければなりません。
      1. ランダムシーケンスジェネレータを使用して、リッスンオンリー試行30のランダムシーケンスを作成します30 。歌う試行のために、参加者が特定の間隔を聞き、次にこの目標間隔を歌声に合わせるための120の間隔の擬似乱数列を作成します。擬似乱数化されたシーケンスの場合は、ステップ1.2.4で説明したのと同じ方法を使用し、引数として4つの間隔をもう一度使用しますが、nこのプロセスを30回繰り返す。
      2. ステップ1.2.5と同じ手順に従って、行動研究ソフトウェアを使用して、3つの異なるランを生成する。各ランは、最初は10回の無音ベースライン試験から成り、続いて10回の連続した試聴のみの試み、最後に40回の連続試聴で構成される。
        注:ベースライン試行中、4つの区間はランダムな順序で表示され、歌唱の試行では、4つの区間は擬似ランダム化された順序で表示され、各区間は最終的に正確に10回表示されます。各試行の所要時間は10秒です。したがって、1回の試運転は10分間続きます。各被験者は3回の実験を経るので、実験の合計時間は30分である。しかし、参加者がスキャナに出入りすることを可能にし、マイクロフォンをセットアップして試験する時間、解剖学的スキャンを得る時間、および機能的ラン間の時間については、各参加者に約1時間のスキャナ時間を割り当てるべきである。
    2. ステップ2.1.1.2に記載されているように、参加者に提示される試行のシーケンスを説明し、疑念があればそれに対応する。参加者に歌の試行中に口を開かずにノートを叩くように指示し、唇を静止したまま "m"の音を出すように指示します。
    3. 非磁性のMR互換ヘッドセットをラップトップに接続します。音量を各対象の快適なレベルに調整します。
    4. 小さなコンデンサーマイクをオーディオインターフェースに接続します。オーディオインターフェースは、シールドツイストトリプレットケーブルを使用してラップトップに接続します。
      注:マイク電源、オーディオインターフェイス、およびラップトップは、すべてスキャナを収納する部屋の外に設置する必要があります。
    5. マイクの周波数応答を確認してください。
      注記:このテストの目的は、マイクがスキャナ内部で正常に動作することを確認することです。
      1. サウンド編集ソフトウェアで新しいプロジェクトを開始し、コンデンサーを選択してくださいマイクを入力デバイスとして使用します。
      2. セクション1.2.1で説明したように、周波数と持続時間の適切な値とともに、10秒間の440Hzテストトーンを生成します。
      3. ラップトップのデフォルトのサウンド再生ソフトウェアを使用して、「再生」を押して、ヘッドホンの内側(ヘッドレストの上部)とスキャナの外側(コントロールルーム内)のマイクを両側に配置してテストトーンを送信しますそれぞれのケースでヘッドセットの
      4. サウンド編集ソフトウェアの "Record"を押して、各場所に約1秒のテストトーンを録音します。
      5. それぞれのケースの "分析"メニューから "プロットスペクトラム"を選択し、各場所で受信した信号の基本周波数が440 Hzであることを確認して、スキャナの内側と外側の両方のテストトーンとマイクロフォンの応答を比較します。
    6. コンデンサーマイクロフォンを参加者の首にテープで固定する喉頭。
    7. 参加者にヘッドセットを着用させる。参加者を磁気共鳴(MR)スキャナーに置く。
  2. fMRIセッション。
    1. セッションの開始時に、MRUI(magnetic resonance user interface)ソフトウェアパッケージを開きます。取得パラダイムをプログラムするには、MRUIを使用します。
      注記:インターフェイスのいくつかのバリエーションは、異なるモデル間で予想されます。
      1. 画面上のメニューから「患者」オプションを選択します。参加者の名前、年齢、体重を入力します。
      2. 「試験」ボタンをクリックします。まず、 "Head"を選択し、次に "Brain"を使用可能なオプションから選択します。
      3. 反復時間(TR)= 10.2ms、エコー時間(TE)= 4.2ms、フリップアングル= 90°、ボクセルサイズ= 1xを選択して、「3D」を選択し、次に「T1等角」を選択します。 1×1mm 3
        注:各参加者について、T1加重解剖学的ボリュームはb解剖学的参照のための勾配エコーパルスシーケンスを使用して取得される。
      4. TE = 40ms、TR = 10s、Acquisition Time(TA)= 3s、TR = 7sの遅延、Flip(トリプルトーン)= 3s、EchoPlanaImage_diff_perf_bold角度= 90°、視野(FOV)= 256 mm 2 、マトリックス寸法= 64 x 64です。「ダミー」オプションを使用して5つのボリュームを取得し、合計ボリューム数に「55」を入力します。
        注:これらの値は、 図1に示す疎サンプリングのパラダイムに従って機能的なT2 *加重全頭スキャンを取得することを可能にします。エコープレーナイメージング(EPI)の「ダミー」スキャンを取得して破棄し、T1飽和効果。一部のMRUIでは、TRの値は取得が行われる合計時間と見なされるため、TRの値は3秒でなければならないことに注意してください。
      5. このコピーをコピーするには、[コピー]をクリックしてくださいence。カーソルをシーケンスのリストの一番下に置き、「貼り付け」を2回クリックして、連続する3つの希薄なサンプリングシーケンスを設定します。
      6. 「開始」をクリックして、T1加重解剖学的ボリューム取得を開始します。
      7. ステップ2.1.1.2で説明したように、参加者に対して3回の実行を提示する。スキャンのトリガボックスを使用して、ランの開始をスキャナによる取得と同期させます。
        1. セクション1.3.2で説明したのと同じ手順で、3回の実行のそれぞれを開始し、セッション番号を使用して実行を区別します。手順1.3.3で説明した手順と同じ手順を使用して、3回の完全実行の結果を保存します。
          注:トライアルプレゼンテーションのタイミングは、システマティックに±500ミリ秒間ジッタがかかります。

図1
図1:Sパースサンプリング設計。 ( A )2トーン間隔(2秒)だけを聞くことを含む試行内の事象のタイムライン。その後の明白な再現はない。 ( B )聴取および歌の作業を伴う試行内の事象のタイムライン。 この図の拡大版を見るには、ここをクリックしてください。

3.データ分析

  1. 標準的な手順33に従った脳イメージングデータシーケンスの解析用に設計されたソフトウェアを使用して機能データを前処理する。
    注:すべてのデータ処理は同じソフトウェアを使用して行われます。
    1. 提供されたメニューオプションを使用して、画像を最初のボリュームに再配置し、標準的なMontreal Neurological Institute(MNI)の定位空間34に再サンプリングし、空間的に正規化する(最終ボクセルサイズ:2 x 2 x 2mm 3 )。 指定されたメニューオプションを使用して、等方性、8mm、半値全幅(FWHM)ガウスカーネルを使用して画像を滑らかにします。
    2. BOLDレスポンスをモデル化するには、音量取得時間(3秒)にまたがる基本関数(1次)またはボックスカー関数として、単一ビン有限インパルス応答(FIR)を選択します。
      注記:このようなスパースサンプリングプロトコルでは、通常、イベント関連のfMRIの場合のように、FIRを血行力学的応答関数とコンボリューションする必要はありません。
    3. 各イベントのBOLDレスポンスにハイパスフィルタをかける(「歌うネットワーク」では1,000秒、他の場所では360秒)。
      注記:すべての歌作業を一緒にモデリングすると、400秒のブロックになります35

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

実験に参加した11人の参加者はすべて、コンサバトリーレベルの女性のボーカル生であり、スキャンのために選択される区間認識タスクで十分に機能しました。区間識別タスクの成功率は、65.72±21.67%であり、期待されるように、74.82±14.15%であった不協点および子音区間を特定する成功率よりも低い。

研究の基本的な設計を検証するために、私たちは、多くの先行研究25,26,27,28,29,30で定義されているように、歌唱ネットワークの構成要素として知られている領域での歌唱中の神経活動を特定することを望んでいました 31 ass = "xref"> 32,33,34,35,36,37。歌の効果は、第1レベルの直線的な関心対象のコントラストによって観察され、リスニングとは対照的に歌唱に対応する。 1サンプルのt検定は、Z> 3で決定されたクラスタおよびp = 0.05のクラスタ有意閾値、FWE(Family-Wise Error)補正で使用された38 。解剖学的ラベリングのために、SPM Anatomy Toolbox 33およびHarvard-Oxford皮質および皮質構造アトラスを使用した39 。有意な活性化が観察された脳領域は、第1体性感覚皮質(S1)、第2体性感覚皮質(S2)、一次運動皮質(M1)、補助運動領域(SMA)、前庭皮質(PM)、ブロドマン領域44(BA44)、一次聴覚野(PAC)、上側頭側回(STG)、側頭、前方インシュラ、被殻、視床、および小脳が含まれる。これらのアクティベーションは、「歌唱ネットワーク」に関して上に引用した研究で報告されたものと一致し、 図2に示されている図2および図3において、x座標は矢状面に垂直であり、y座標は冠状面に垂直であり、z座標は横または水平面に垂直であることに留意されたい。

基本的なデザインが検証されると、各参加者について、2つのさらなる第1レベルの線形コントラストが、子音区間とは反対の歌唱不協和と、不協和区間ではなく子音とに対応して計算された。次に、これらの線形コントラストを、第2レベルのランダム効果モデルに適用し、バリエーションの2方向反復測定のセットnce(ANOVA)、因子の和音と不協和音。このようにして、活性化領域または非活性化領域を可能な相互作用について検査し、重要なボクセル閾値(p <0.001、多重比較28,29について未補正)に従って決定された関心活性化を調べた。子音が子音の音程とは対照的に歌唱された結果、右S1、右PAC、左中脳、右後部、左扁桃体、左被殻に活性化が認められた。これらのアクティベーションを図3に示します。相補的コントラストに関しては、子音区間の歌唱中に活性化に有意な変化は検出されなかった。

図2
図2: "歌うネットワーク"を構成する地域の活性化 Activatイオンマップは、p = 0.05、クラスタワイズエラー(FWE)補正されたクラスター有意性閾値で提示される。 BOLD応答は任意の単位で報告されます。 この図の拡大版を見るには、ここをクリックしてください。

図3
図3:覚醒と子音の歌唱間のコントラスト。活性化マップは、複数の比較について未補正であり、クラスタ有意性閾値はp = 0.001で示される。 BOLD応答は任意の単位で報告されます。 この図の拡大版を見るには、ここをクリックしてください。

間隔半音の数基礎の比率
ユニゾン 0 1:1
マイナーセカンド 1 16:15
メジャー秒 2 9:8
マイナーセカンド 3 6:5
第3大 4 5:4
パーフェクト4 5 4:3
トリトン 6 45:32
パーフェクト5 7 3:2
マイナー6 8 8:5
第六位 9 5:3
マイナー7 10 16:9
メジャー第7 11 15:8
オクターブ 12 2:1

表1:子音と矛盾した音程。子音の間隔は太字で表示され、不協点の間隔は斜体で表示されます。間隔が長くなればなるほど、それを表現するために使用される周波数比に現れる整数が小さくなることに注意してください。周波数比の関数としての和音と不協和音の詳細な議論については、Bidelman&Krishnan 40を参照してください。

Subscription Required. Please recommend JoVE to your librarian.

Discussion

この作品は、歌声が子音と不協和音の間に脳活動を研究する手段として使用されるプロトコルを記述しています。歌唱は、おそらく音楽区間22の生成のための最も簡単な方法であるが、和音の生成を可能にしない。しかし、和音概念のほとんどの物理的特徴付けは、ある程度、同時音符の重ね合わせに依存するが、子音または不協和和音に対応する音符で構成された区間は、依然として子音または不協和として認識され、それぞれ4,6,15,41,42である。

行動間隔認知課題は、参加者がスキャンに行く前に確立するために使用されますそれらが間隔を適切に区別できるかどうかを判断する。したがって、これらは磁気共鳴器の内部で一度良好に機能する。これらの識別作業を行う際に所定の閾値を満たすことができない参加者は、fMRI実験に進むべきではない。この選択プロセスの主な目的は、参加者間のパフォーマンスの違いが、不十分な知覚能力によるものではないことを保証することです。選択された参加者は、声楽と音楽の訓練と同様の程度を持つべきであり、可能であれば同様のテスチュラもあるべきである。ボーカルの範囲が大幅に異なる場合は、実行する必要のある歌い合わせ作業の間に表示される区間の範囲をパーソナライズする必要があります。

マイクロフォンのセットアップは、集録が信頼性が高く、アーチファクトのないようにするために重要です。マイクロフォン自体のタイプは非常に重要であり、光学式28または特別に設計されたMR互換型29を使用することは可能であるがコンデンサーマイクロフォンの感度は、イメージング環境43内の強い磁場の存在によって影響されないことが示されている。シールドされたツイストトリプレットケーブルを使用してマイクロホンをプリアンプに接続し、MRスキャナが収容されている部屋の外に配置しなければならない場合には、小さなラバリア(Lavalier)コンデンサマイクロホンをこの状況で使用することができる。この構成は、画像化アーチファクト44の出現を防止するが、研究者は、スキャナがマイクロホンの性能を妨げないことを保証すべきである。この目的のために、テストトーンは、MR対応ヘッドフォンを介してMRスキャナ内に配置されたマイクロホンに送信され、このようにして得られた信号は、外部に配置されたマイクロホンに同じトーンを送信することによって得られた信号と比較することができるスキャナ。 MRスキャナ内の音圧レベルは非常に高くなる可能性がありますxref "> 45であるため、マイクロフォンをソースにできるだけ近づけて配置する必要があります。参加者に開いてノートを歌わせるのではなく、ハムノイズを尋ねることによって、口領域内およびその周辺の動きを最小限に抑えることができます。テープで覆われているので、歌手の声を忠実に録音することができます。録音は当然非常に騒々しいです。これは避けられませんが、研究者が主にピッチに関心があり、標準的な方法は、オーディオ編集ソフトウェアを使用して、ハミング窓を通して時間信号をフィルタリングし、次に自己相関を使用することであろう特定の音声および音韻ソフトウェアパッケージに組み込まれたアルゴリズムを使用して、歌唱の基本を特定します。各参加者のボーカルの正確さを計算することができます。記録から得られたデータは、訓練度または間隔距離のいずれかとピッチまたは韻律の正確さを相関させることを含む。

スキャンノイズ25,28,29,46,47に起因するBOLDまたは聴覚マスキングを最小限に抑えるように、疎サンプリング設計を使用して機能画像を取得する。各被験者は3回の実験を行い、それぞれ10分間持続する。各回の実行中、被験者は、まず10回の無音ベースライン試行中に静かに寝たきりにし、次に10間隔のブロックに受動的に耳を傾け、最後に40間隔の別のブロックを聴いて歌うように求められる。個々のランを可能な限り短くする1つの目的は、参加者の疲労を避けることです。それにもかかわらず、それ以来、同数の聴取専用および歌唱試験を含むことが将来的にはより良いと結論づけられている。交互のブロックで提示することができる。これは、統計力を高める効果を有する。例として、5回のサイレントベースライントライアルの2ブロック、5回のリスニングオンリートライアルの4ブロック、および4回の歌唱試行で構成することができます。ブロックは交互に参加者に提示され、合計実行時間は500秒です。

参加者に共振器内で受動的に聞くことの主な理由は、運動活動から聴覚活動を差し引く手段を持つことである。したがって、「歌唱ネットワーク」25,27,28,29,36,37に対する歌唱活性化の好ましい比較は、本研究の適切な検証のために不可欠である。 「歌うネットワーク」のアクティベーションは非常に堅牢で確立されており、通常はde1標本t検定およびp = 0.05の補正されたクラスタ有意性閾値によって検出された。典型的には、不協和音/子音/子音/不協和音の間の対比に対応する活性化は、多重比較28,29に対して補正されていない有意ボクセル閾値p <0.001に従って2方向反復因子分析(ANOVA)によって同定される。子音の不連続区間は、子音の音程48,49よりも挑戦的です。したがって、上記の2つのコントラストのそれぞれに対して異なる活性化が予想される。結果は、不協和区間を歌うことは、子音区間の生成のために補充された神経機構の再プログラミングを伴うことを示している。歌唱中に、生成された音が意図された音と比較され、その後、必要な調整が達成される聴覚および体性感覚経路からの外部および内部のフィードバックの統合を介して。これらの結果とそれらから導き出された結論の詳細な議論は、González-García、González、およびRendón30による論文に含まれています。

このプロトコルは、音楽制作の神経相関の研究、および運動系および聴覚系の両方の活動のモニタリングのための合理的に直接的な方法を提供する。これは、歌声の子音や不協和音のようなバイナリ条件の間の脳活動の違いを追跡したり、狭い間隔または広い間隔を歌うのに使用できます30 。また、特定の周波数を歌うことに関連したさまざまなタスクに対するトレーニングの効果を研究するのにも適しています。一方、スキャン中に得られた歌声の録音には非常に大きなノイズが含まれているため、これを使用することは困難ですocolを使用して、音質や音色に関するタスクを分析します。特に、ハミングしながら正しく測定できない品質であるためです。

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

著者らは、利益相反を宣言していない。

Acknowledgments

著者はSecretaríade Salud deMéxico(HIM / 2011/058 SSA。1009)、CONACYT(SALUD-2012-01-182160)、DGAPA UNAM(PAPIIT IN109214)からのこの研究に対する財政的支援を認めています。

Materials

Name Company Catalog Number Comments
Achieva 1.5-T magnetic resonance scanner Philips Release 6.4
Audacity Open source 2.0.5
Audio interface Tascam US-144MKII
Audiometer Brüel & Kjaer Type 1800
E-Prime Professional Psychology Software Tools, Inc. 2.0.0.74
Matlab Mathworks R2014A
MRI-Compatible Insert Earphones Sensimetrics S14
Praat Open source 5.4.12
Pro-audio condenser microphone Shure SM93
SPSS Statistics IBM 20
Statistical Parametric Mapping Wellcome Trust Centre for Neuroimaging 8

DOWNLOAD MATERIALS LIST

References

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061 (1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237 (2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Tags

行動、問題123、聴覚および不調和、音楽の神経相関、音程識別、歌、機能的磁気共鳴画像法(fMRI)、音声 - 音声統合
子音と睡眠不足の声調発声に伴う脳活動のfMRIマッピング
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

González-García, N.,More

González-García, N., Rendón, P. L. fMRI Mapping of Brain Activity Associated with the Vocal Production of Consonant and Dissonant Intervals. J. Vis. Exp. (123), e55419, doi:10.3791/55419 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter