Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

자음과 불요의 간격의 보컬 생성과 관련된 뇌 활동의 fMRI 맵핑

Published: May 23, 2017 doi: 10.3791/55419

Summary

자음과 불협화음을 듣는 신경 상관 관계는 널리 연구되어 왔지만 자음 및 부조간 간격의 생성과 관련된 신경 메커니즘은 잘 알려져 있지 않습니다. 이 기사에서는 행동 테스트와 fMRI를 간격 확인 및 노래 작업과 결합하여 이러한 메커니즘을 설명합니다.

Abstract

조화와 부조화 인식의 신경 상관 관계는 널리 연구되었지만, 조화와 부조화 생성의 신경 상관은 연구되지 않았다. 음악 제작의 가장 직접적인 방식은 노래이지만, 이미징 관점에서 볼 때, 그것은 모터 활동과 관련되기 때문에 듣기보다 많은 도전 과제를 제시합니다. 음악 간격의 정확한 노래는 각 음을 정확하게 생성하기 위해 청각 피드백 처리와 보컬 모터 제어 간의 통합이 필요합니다. 이 프로토콜은 자음과 불협화음의 보컬 생성과 관련된 신경 활성화를 모니터링 할 수있는 방법을 제시합니다. 청각 감별 테스트와 주어진 간격을 먼저 듣고 재생하는 것과 관련된 4 가지 음악 간격, 즉 자음 2 개와 불협화음 2 개가 자극으로 사용됩니다. 콘서 베터 수준의 모든 여성 보컬 학생들은 기능적 자기 Resonance Imaging (fMRI)을 사용하여 청취 작업을 제어 조건으로 사용합니다. 이러한 방식으로, 모터 및 청각 시스템 모두의 활동이 관찰되었고, 노래 작업 중 보컬 정확도의 척도가 얻어졌다. 따라서 프로토콜을 사용하여 다양한 유형의 인터벌을 노래하거나 필요한 노트를 더 정확하게 노래하는 것과 관련된 활성화를 추적 할 수도 있습니다. 그 결과, 불협화음을 부르는 것은 자음을 발음하는 것보다 청각 및 감각 시스템에서 외부 피드백을 통합하는 신경 메커니즘이 더 많이 참여해야한다는 것을 의미합니다.

Introduction

음악 피치의 특정 조합은 일반적으로 자음으로 인식되며 일반적으로 쾌감과 관련이 있습니다. 다른 조합은 일반적으로 불협화음이라고 불리고 불쾌하거나 미해결 된 감정 1과 관련 됩니다. 문화 화와 훈련이 조화 2 의 인식에 일부 영향을 미친다고 가정하는 것이 현명하게 보일지라도, 자음 및 부조간 간격과 화음의 지각의 차이는 이전에 생각했던 것보다 음악 문화에 크게 의존하지 않는 것으로 나타 났으며 3 심지어 단순한 생물학적 기초 4 , 5 , 6 에서 도출된다. 용어 사전의 모호한 이해를 막기 위해, Terhardt 7 은 음악적 맥락에서의 조화와 달리 감각적 인 조화의 개념을 도입했습니다예를 들어, 조화가 주어진 코드 또는 간격에 대한 응답에 영향을 줄 수 있습니다. 현재의 프로토콜에서는 문맥 의존적 처리에 의한 간섭없이 단지 감각적 인 협상과 관련된 활성화를 단 하나의 분리 된 두 음표 간격 만 사용했다.

순전히 물리적 인 방법으로 조화를 특성화하려는 시도는 Helmholtz 9 에서 시작되었으며, Helmholtz 9 는 불협화음과 관련된 감지 된 거친 정도가 인접한 주파수 구성 요소 간의 충돌에 기인 한 것으로 나타났습니다. 그러나 최근에는 감각적 인 일치가 거칠기의 부재뿐만 아니라 조화와 관련이 있다는 것을 보여주었습니다. 즉, 주어진 음색이나 화음의 부분 음을 들리지 않는 음색과 조화를 이룬다는 것입니다. 낮은 주파수 10 , 11 . 행동 연구는 주관적인 일치가 pu에 의해 실제로 영향을 받는다는 것을 확인합니다.주파수 거리 12 , 13 과 같은 물리적 매개 변수를 사용하지만보다 광범위한 연구를 통해 물리적 현상이인지 된 일치와 불협화음의 차이만을 설명 할 수는 없다는 결론이났다 14 , 15 , 16 , 17 . 그러나 이러한 모든 연구는 다양한 간격이나 코드를들을 때 이러한 차이점을보고합니다. 양전자 방출 단층 촬영 (PET)과 기능적 자기 공명 영상 (fMRI)을 이용한 다양한 연구 결과에 따르면 자음 영역 또는 부조간 간격과 화음 8 , 18 , 19 , 20 중 어느 한쪽을들을 때 활성화되는 대뇌 피질 영역에 중요한 차이가 있음이 밝혀졌습니다. 본 연구의 목적은 차이점을 탐구하는 것이다.자음과 불협화음을 듣기보다는 뇌 활동에서

음악 제작 중에 감각 - 운동 조절에 대한 연구는 일반적으로 악기의 사용을 포함하며, 종종 매우 자주 신경 영상 21 중에 사용하기 위해 수정 된 악기를 제작해야합니다. 그러나 노래는 악기가 인간의 목소리이기 때문에 음악 제작 중에 감각 - 운동 프로세스 분석을위한 적절한 메커니즘을 처음부터 제공하는 것처럼 보이며 보컬 장치는 이미징 22 . 음조 조절 (23) , 음성 모방 ( 24) , 훈련 유발 적응 변화 ( 25 ) 및 외부 피드백 ( 25 ) 의 통합과 같은 노래의 양상과 관련된 신경 메커니즘이 , , 27 , 28 , 29 의 주제가 있었지만, 자음과 부조간의 노래 상관 관계는 최근에야 서술되었다. 이를 위해 현재의 논문은 참가자가 자음 및 부조간 간격을 적절하게 인식하도록 고안된 행동 테스트에 대해 설명합니다. 이어서 다양한 자음 부조간을 노래하는 참가자에 대한 fMRI 연구가 이어집니다. fMRI 프로토콜은 비교적 간단하지만 모든 MRI 연구와 마찬가지로 실험을 올바르게 설정하는 데 많은주의를 기울여야합니다. 이 경우 노래 작업 중 머리, 입, 입술의 움직임을 최소화하여 노래의 물리적 행위와 직접적으로 관련이없는 효과의 식별을보다 수월하게하는 것이 특히 중요합니다. 이 방법론은노래로 음악 제작과 관련된 다양한 활동과 관련된 신경 메커니즘을 보여줍니다.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

이 프로토콜은 Infantil de México "Federico Gómez"병원의 연구, 윤리 및 안전위원회의 승인을 받았습니다.

1. 행동 사전 테스트

  1. 모든 예상 참가자가 정상 청력 (옥타브 주파수 -8,000 Hz 이상에서 20 dB 청력 레벨 (HL))을 유지하는지 확인하기 위해 표준 순수 톤 청력 검사를 수행하십시오. Edinburgh Handedness Inventory 31 을 사용하여 모든 참가자가 오른 손잡이인지 확인하십시오.
  2. 간격 시퀀스 생성.
    1. 사운드 편집 프로그램을 사용하여 2 옥타브에 걸친 순수 톤, G4-G6을 생성합니다.
      참고 : 여기에는 무료 오픈 소스 사운드 편집 소프트웨어 인 Audacity가 설명되어 있습니다. 이 목적을 위해 다른 패키지가 사용될 수 있습니다.
      1. 각 음색마다 사운드 편집 소프트웨어에서 새 프로젝트를 엽니 다.
      2. "Generate"메뉴에서 "Tone"을 선택하십시오. 표시되는 창에서사인 파형, 진폭 0.8, 지속 시간 1 초를 선택하십시오. 원하는 음표에 해당하는 주파수 값을 입력하십시오 ( 예 : A4의 경우 440 Hz). "OK"버튼을 클릭하십시오.
      3. '파일'메뉴에서 '오디오 내보내기'를 선택하십시오. 열리는 창에서 원하는 오디오 파일 이름을 입력하고 원하는 파일 형식으로 WAV를 선택하십시오. '저장'을 클릭하십시오.
    2. 표 1에 따라 자음 2 개와 불협화음 2 개를 선택하여 각 자음 간격이 불협화음 간격에 가깝도록하십시오.
      참고 : 예를 들어, 완벽한 5 번과 1 옥타브의 자음 간격과 증강 된 4 번 (트리톤)의 불협화음 간격과 주요 7 번을 고려하십시오. 이들은 저자가 실시한 연구에서 선택된 간격입니다.
    3. G4와 G6 사이의 범위에서이 네 개의 간격에 해당하는 모든 가능한 노트 조합을 생성하십시오.
      1. each 간격으로 사운드 편집 소프트웨어에서 새 프로젝트를 열고 "파일"메뉴에서 "오디오 가져 오기"를 사용하여 연결될 두 WAV 파일을 가져옵니다.
      2. 커서를 두 번째 톤 위의 아무 지점에 놓고 클릭하여 선택합니다. "편집"메뉴에서 "모두 선택"을 클릭하십시오. 동일한 메뉴에서 '복사'를 클릭하십시오.
      3. 커서를 첫 번째 음색 위에 놓고 클릭하십시오. "편집"메뉴에서 "커서를 트랙 끝으로 이동"을 클릭 한 다음 동일한 메뉴에서 "붙여 넣기"를 클릭하십시오. 단계 1.2.1.3에서 설명한대로 오디오를 내 보냅니다.
    4. 무작위 순서 생성기를 사용하여 4 개의 서로 다른 간격이 정확하게 25 배 30 발생하는 방식으로 의사 임의 생성 된 100 개의 간격으로 구성된 시퀀스를 생성합니다. 이를 수행하려면 통계 분석 소프트웨어의 무작위 순열 함수를 사용하십시오 (재료 참조). 네 개의 interv를 입력하십시오.인수로서이 프로세스를 25 번 반복하는 루프를 만듭니다.
    5. 행동 연구 소프트웨어를 사용하여 두 가지 별개의 실행을 생성하십시오. 각 실행에 대해 WAV 형식으로 100 간격의 시퀀스를로드하고 각 간격의 ID를 단일 시도 30에 연결 하십시오.
      참고 : 여기서 E-Prime 행동 연구 소프트웨어가 사용됩니다. 다른 동등한 행동 연구 소프트웨어를 사용할 수 있습니다.
  3. 참가자들에게 각 100 개의 간격으로 두 개의 시퀀스를 듣고, 각 시퀀스는 다른 작업과 자체 지침 집합과 관련되어 있음을 설명합니다. 두 번의 달리기에서 유효한 키를 누를 때만 다음 간격이 재생된다는 것을 참가자들에게 알려줍니다.
    참고 : 간격 인식 시퀀스가 ​​시작되면 간섭 과정이 중단되어서 모든 참가자가 가능한 한 명확하게 행동해야합니다.
    1. 참가자들에게 노트북 컴퓨터 앞에 앉게하십시오.제공된 헤드폰을 착용하십시오. 양질의 헤드폰을 사용하십시오. 각 피사체의 음량을 편안한 수준으로 조정하십시오.
    2. 여기에 설명 된 행동 연구 소프트웨어를 사용하는 경우 1.2.5 단계에서 작성된 작업을 전자 실행으로 엽니 다. 나타나는 창에서 세션과 제목 번호를 입력하고 "확인"을 클릭하십시오. 세션 번호를 사용하여 각 참가자의 실행을 구별합니다.
      참고 : 진행중인 작업에 대한 지침이 화면에 표시되고 작업 자체의 시작이 표시됩니다.
      1. 첫째, 2 단계 대안 강제 선택 과제에서 참가자가 듣는 간격이 자음인지 불협화음인지 구분할 수 있습니다. 참가자가 컴퓨터 키보드에서 "C"를 누르고 자음을 보려면 "D"를 누르고 불협화음을 위해서는 "D"를 누릅니다.
        참고 : 모든 참가자는 온실에서 음악 교육을받을 것으로 예상되므로 모두 자발적으로 자음과 단호하게 구분할 수 있어야합니다.sonant intervals. 첫 번째 과제는 어떤면에서 이것이 사실 인 것을 확인하는 역할을합니다.
      2. 둘째, 4 가지 대체 강제 선택 과제에서 참가자들에게 간격을 확인하게하십시오. 참가자들에게 컴퓨터 키보드의 숫자 "4", "5", "7"및 "8"을 눌러 각각 4 번째, 5 번째, 7 번째 및 8 번째 악보의 간격을 확인하십시오.
    3. 각 작업이 끝나면 "확인"을 눌러 각 참가자의 결과를 주제 및 세션 번호와 확장자 .edat2로 표시된 개별 E-DataAid 2.0 파일에 자동 저장합니다.
    4. 통계 분석 소프트웨어 ( 예 : Matlab, SPSS Statistics 또는 오픈 소스 대안)를 사용하여 각 작업의 성공률을 계산합니다 ( 예 : 간격이 자음인지 불협화음인지를 식별 할 때 성공한 백분율 및 int자신과 함께), 개별적으로 그리고 그룹으로 32 .

2. fMRI 실험

  1. fMRI 세션 준비.
    1. 다시 1.2.3 단계와 동일한 간격의 시퀀스를 생성합니다. 다시 한 번 각각 1 초의 순음을 사용합니다.
      참고 : 이제 참가자의 보컬 범위를 고려해야하며 모든 노트는 각 참가자의 노래 범위 내에서 편안하게 떨어 져야합니다.
      1. 무작위 순서 생성기를 사용하여 수신 전용 시험을위한 30 개의 간격으로 무작위 순서를 만듭니다 30 . 노래 재판을 위해 참가자들이 특정 간격을 듣고이 대상 간격을 노래하는 목소리와 일치시키는 120 개의 간격으로 의사 랜덤 화 된 순서를 만듭니다. 의사 랜덤 화 된 시퀀스의 경우, 1.2.4 절에서 설명한 것과 동일한 방법을 사용하여 4 개의 간격을 인수로 다시 사용하지만 n이 과정을 30 번 반복하십시오.
      2. 1.2.5 단계와 동일한 절차를 거쳐 행동 연구 소프트웨어를 사용하여 처음에는 10 회의 침묵 기준선, 10 회 연속 청취 전용 시험, 마지막으로 40 연속 노래 재판으로 구성된 세 가지 별개의 실행을 생성합니다.
        참고 :베이스 라인 시도 중에는 네 개의 간격이 무작위 순서로 나타나고 노래 재판 중에는 네 개의 간격이 각 간격이 결국 정확하게 10 번 표시되는 방식으로 의사 임의화된 순서로 나타납니다. 각 시험의 지속 시간은 10 초이므로 하나의 전체 실행은 10 분간 지속됩니다. 각 과목은 3 회의 실험을 거치므로 실험 기간은 30 분입니다. 그러나 참가자가 스캐너에 출입 할 수 있도록하고, 마이크를 설정하고 테스트하는 시간, 해부학 적 스캔을 얻는 시간 및 기능적 실행 사이의 시간에 대해 약 1 시간의 스캐너 시간을 각 참가자에게 할당해야합니다 .
    2. 참가자들에게 2.1.1.2 절에 설명 된대로 시련의 순서를 설명하고 그들이 가질 수있는 의문에 대답하십시오. 참가자들에게 노래 재판 중에 입을 열지 말고 입술을 험하게하고 입술을 계속 유지하면서 "m"소리를 내도록 지시하십시오.
    3. 비자 성, MR 호환 헤드셋을 노트북에 연결하십시오. 각 피사체의 음량을 편안한 수준으로 조정하십시오.
    4. 작은 콘덴서 마이크로폰을 차폐 된 꼬인 3 중 케이블을 사용하여 랩탑에 연결된 오디오 인터페이스에 연결하십시오.
      참고 : 마이크 전원 공급 장치, 오디오 인터페이스 및 랩톱은 모두 스캐너가있는 공간 밖에 있어야합니다.
    5. 마이크 주파수 응답을 확인하십시오.
      참고 :이 테스트의 목적은 마이크가 스캐너 내부에서 예상대로 작동하는지 확인하는 것입니다.
      1. 사운드 편집 소프트웨어에서 새 프로젝트를 시작하고 콘덴서를 선택하십시오.마이크를 입력 장치로 사용하십시오.
      2. 섹션 1.2.1에서 설명한대로 주파수 및 지속 시간에 적절한 값을 사용하여 10 초 동안 440Hz 테스트 톤을 생성하십시오.
      3. 노트북의 기본 사운드 재생 소프트웨어를 사용하여 "Play"를 눌러 헤드셋의 안쪽 (머리 받침대 상단)과 바깥 쪽 (조절실)에서 마이크를 통해 테스트 톤을 보내고, 마이크는 측면 사이에 배치합니다 헤드셋의
      4. 사운드 편집 소프트웨어에서 "Record"를 눌러 각 위치에 약 1 초의 테스트 톤을 녹음하십시오.
      5. 각 경우의 "분석"메뉴에서 "플롯 스펙트럼"을 선택하고 각 위치에서 수신 된 신호의 기본 주파수가 440Hz인지 확인하여 스캐너의 내부와 외부의 테스트 톤에 대한 마이크의 응답을 비교하십시오.
    6. 응축기 마이크로폰을 참가자 목에 테이프로 붙이십시오.후두.
    7. 참가자에게 헤드셋을 착용하게하십시오. 참가자를 자기 공명 (MR) 스캐너에 놓습니다.
  2. fMRI 세션.
    1. 세션이 시작될 때 자기 공명 사용자 인터페이스 (MRUI) 소프트웨어 패키지를 엽니 다. MRUI를 사용하여 수집 패러다임을 프로그래밍하십시오.
      참고 : 다른 모델간에 인터페이스의 일부 변형이 예상됩니다.
      1. 화면 메뉴에서 "환자"옵션을 선택하십시오. 참가자의 이름, 나이 및 체중을 입력하십시오.
      2. "시험"버튼을 클릭하십시오. 먼저, "머리"를 선택한 다음 사용 가능한 옵션에서 "두뇌"를 선택하십시오.
      3. "TR"= 10.2 ms, Echo Time (TE) = 4.2 ms, Flip Angle = 90 ° 및 Voxel Size = 1 x와 같은 관련 파라미터에 대해 "3D"를 선택하고 "T1 isometric" 1 x 1 mm 3 .
        참고 : 각 참가자에 대해 T1 가중 해부 체적은 be는 해부학 적 참조를 위해 그래디언트 반향 펄스 시퀀스를 사용하여 획득됩니다.
      4. TE = 40ms, TR = 10s, 획득 시간 (TA) = 3s, TR = 7s의 지연, 플립 (Flip)과 같은 관련 파라미터의 값으로 "프로그램"을 클릭하고 EchoPlanaImage_diff_perf_bold (T2 * 각도 = 90 °, 시야 (FOV) = 256mm 2 , 매트릭스 치수 = 64 x 64입니다. "Dummy"옵션을 사용하여 5 권을 획득하고 총 권 수로 "55"값을 입력하십시오.
        참고 :이 값은 그림 1나와 있는 스파 스 샘플링 패러다임에 따라 기능적 T2 * 가중 전체 헤드 스캔을 획득 할 수 있습니다. EPI (echo-planar imaging) "더미"스캔을 수집하고 T1 포화를 허용하기 위해 버려집니다 효과. 일부 MRUI에서 TR 값은 획득이 이루어지는 총 시간으로 간주되므로 3 초가되어야합니다.
      5. 이 복사물의 사본을 만들려면 "복사"를 클릭하십시오.ence. 시퀀스 목록의 맨 아래에 커서를 놓은 다음 "붙여 넣기"를 두 번 클릭하여 3 개의 연속 된 희소 샘플링 시퀀스를 설정하십시오.
      6. "시작"을 클릭하여 T1 가중 해부 체적 볼륨 획득을 시작하십시오.
      7. 단계 2.1.1.2에서 설명한대로 실행과 함께 참가자에게 3 회의 실행을 제시합니다. 스캐너 트리거 상자를 사용하여 스캐너 시작과 동기화를 시작합니다.
        1. 1.3.2 절에 설명 된 것과 동일한 절차를 따라 세션 번호를 사용하여 실행을 구분하여 세 번의 실행 중 하나를 시작합니다. 1.3.3 절에 설명 된 것과 동일한 절차를 사용하여 세 번의 전체 실행 결과를 저장하십시오.
          참고 : 시범 프리젠 테이션의 타이밍은 체계적으로 ± 500ms 정도 지연됩니다.

그림 1
그림 1 : S파싱 ​​- 샘플링 디자인. ( A ) 2 톤 간격 (2 초) 만 듣고 관련된 명백한 재현없이 사건이 일어난 시간표. ( B ) 듣고 노래하는 일과 관련된 사건의 시간표. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

3. 데이터 분석

  1. 표준 절차에 따라 뇌 이미징 데이터 시퀀스 분석을 위해 고안된 소프트웨어를 사용하여 기능 데이터 사전 처리 33 .
    참고 : 모든 데이터 처리는 동일한 소프트웨어를 사용하여 수행됩니다.
    1. 제공된 메뉴 옵션을 사용하여 이미지를 첫 번째 볼륨으로 다시 정렬하고 표준 몬트리올 신경학 연구소 (MNI) 정위 공간 34 로 다시 샘플링하고 공간적으로 정규화합니다 (최종 보셀 크기 : 2 x 2 x 2mm 3 ). 제공된 메뉴 옵션을 사용하여 등방성, 8mm, FWHM (Full Width at Half Maximum) Gaussian 커널을 사용하여 이미지를 부드럽게 만드십시오.
    2. BOLD 응답을 모델링하려면 단일 수집 빈도 응답 (FIR)을 기본 기능 (차수 1) ​​또는 음량 획득 시간 (3 초)에 걸친 boxcar 함수로 선택하십시오.
      참고 : 이와 같은 스파 스 샘플링 프로토콜은 일반적으로 이벤트 관련 fMRI의 경우와 같이 일반적으로 FIR이 혈역학 적 반응 기능과 컨 벌브 될 필요가 없습니다.
    3. 각 이벤트의 굵은 응답에 하이 패스 필터를 적용하십시오 ( "노래 네트워크"의 경우 1,000 초, 다른 곳의 경우 360 초).
      참고 : 모든 노래 작업을 함께 모델링하면 400 초 단위로 블록됩니다.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

우리 실험의 11 명 참가자 모두는 보컬 레벨의 여성 보컬 학생들이었으며 스캔을 위해 선택한 간격 인식 작업을 충분히 수행했습니다. 간격 식별 작업의 성공률은 예상대로 65.82 ± 21.67 % 였고, 불협화음과 자음 간격을 식별하는 성공률보다 낮은 74.82 ± 14.15 %였다.

연구의 기본 설계를 검증하기 위해 우리는 이전의 많은 연구 25 , 26 , 27 , 28 , 29 , 30 에 정의 된 "노래 네트워크"를 구성하는 것으로 알려진 지역에서 노래하는 동안 신경 활동을 확인하기를 원했습니다. , 31 ,ass = "xref"> 32 , 33 , 34 , 35 , 36 , 37 . 노래 부르기의 효과는 듣기와 반대되는 노래 부르기에 해당하는 1 단계의 선형 관심사를 통해 관찰됩니다. 1- 샘플 t- 테스트는 Z> 3으로 결정된 클러스터와 p = 0.05의 클러스터 유의도 임계 값, FWE (Family-Wise Error) 보정으로 사용되었습니다. 해부학 적 라벨링을 위해 SPM Anatomy Toolbox 33 과 하버드 옥스포드 대뇌 피질 및 하부 피질 구조용 아틀라스가 사용되었습니다. 유의 한 활성화가 관찰 된 뇌 영역은 일차 체성 감각 피질 (S1), 이차 체성 감각 피질 (S2), 일차 운동 피질 (M1), 보조 운동 영역 (SMA), 전 운동 피질 (PM), 브로드 만 영역 44 (BA 44), 일차 청각 피질(PAC), 상 측두 이랑 (STG), 측두엽, 전치부, 피라미드, 시상 및 소뇌를 포함한다. 이러한 활성화는 "노래 네트워크"와 관련하여 위에 인용 된 연구에서보고 된 것과 일치하며 그림 2나와 있습니다. 도 2 3 모두에서, x- 좌표는 시상면에 수직이고, y- 좌표는 코로 널 평면에 수직이며, z- 좌표는 횡단면 또는 수평면에 수직이다.

일단 기본 디자인이 검증되면, 두 개의 추가 1 레벨 선형 대조가 각 참가자에 대해 계산됩니다. 이는 음정 간격과는 반대로 노래 불협화음과 불일치 간격과는 반대로 노래 자음에 해당합니다. 그런 다음 이러한 선형 대비를 2 차 반복 효과 측정 세트와 관련된 2 차 레벨 임의 효과 모델로 가져 왔습니다nce (ANOVA)는 요인의 일치 및 불협화음과 함께 나타납니다. 이러한 방식으로 활성화되거나 비활성화 된 영역을 가능한 상호 작용에 대해 조사하였으며, 다중 비교 28,29에 대해 보정되지 않은 유의 한 복셀 임계 값 (p <0.001)에 따라 결정된 관심 활성화가 확인되었습니다. 자음과는 대조적으로 불협화음을 유발 한 대조군의 경우 우측 S1, 우측 PAC, 좌측 중뇌, 우측 후부 insula, 좌측 편도선 및 좌측 피검에서 증가 된 활성화가 관찰되었다. 이러한 활성화는 그림 3나와 있습니다. 보완적인 대조와 관련하여, 자음 간격을 노래하는 동안 활성화에 대한 중요한 변화는 발견되지 않았다.

그림 2
그림 2 : "노래하는 네트워크"를 구성하는 지역의 활성화. Activat이온지도는 p = 0.05, 집단 - 와이즈 오차 (FWE) 보정 된 클러스터 유의 임계 값으로 제시된다. 굵은 답변은 임의의 단위로보고됩니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

그림 3
그림 3 : 부조화와 자음의 노래 사이의 대조. 활성화 맵은 다중 비교를 위해 보정되지 않고 제시되며 클러스터 중요도 임계 값은 p = 0.001입니다. 굵은 답변은 임의의 단위로보고됩니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

간격 반음의 수 펀더멘털의 비율
조화 0 1 : 1
약간의 초 1 16:15
주요 제 2 2 9 : 8
마이너 3 6 : 5
주요 제 3 4 5 : 4
완벽한 넷째 5 4 : 3
트리톤 6 45:32
완벽한 다섯째 7 3 : 2
마이너 6 8 8 : 5
주요 6 위 9 5 : 3
마이너 7 10 16 : 9
주요 일곱 번째 11 15 : 8
옥타브 12 2 : 1

표 1 : 자음 및 불일치 음악 간격. 자음 간격은 굵은 글씨로 나타나고, 불일치 간격은 기울임 꼴로 표시됩니다. 자음이 간격이 클수록 주파수를 나타내는 데 사용되는 정수가 작아짐을 관찰하십시오. 주파수 비율의 함수로서 조화와 불협화음에 대한 심층적 인 토론은 Bidelman & Krishnan 40을 참조하십시오.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

이 작품은 노래가 자음과 불협화음을 만드는 동안 두뇌 활동을 연구하는 수단으로 사용되는 프로토콜을 설명합니다. 비록 노래가 음악 간격 (22) 의 생산을위한 가장 단순한 방법 일 수 있지만, 이는 화음의 생성을 허용하지 않는다. 그러나, 비록 조화 개념의 대부분의 물리적 특성화가 어느 정도는 동시 음의 중첩에 의존하지만, 많은 연구에 따르면 자음 또는 불협화음에 해당하는 음표로 구성된 간격은 여전히 ​​자음 또는 불협화음으로 인식되지만, 4 , 6 , 15 , 41 , 42 이다.

행동 간격 지각 작업은 참가자가 스캔 작업을 통과하기 전에 설정하는 데 사용됩니다그들이 간격을 적절히 구별 할 수 있다면. 따라서, 그들은 자기 공진기 내부에서 한 번 잘 수행된다. 이러한 식별 작업을 수행 할 때 사전에 설정된 임계 값을 충족시킬 수없는 참가자는 fMRI 실험을 진행해서는 안됩니다. 이 선정 과정의 주요 목적은 참여자 간의 성과 차이가 지각 능력 부족 때문이 아니라는 것을 보증하는 것이다. 선택된 참가자는 비슷한 수준의 보컬 및 음악 교육을 받아야하며, 가능하다면 비슷한 테 시스투 라스도 있어야합니다. 보컬 범위가 크게 다를 경우 수행해야하는 노래 작업 중 제시되는 간격 범위를 개인화해야합니다.

마이크 설정은 획득이 안정적이고 아티팩트가없는 데 중요합니다. 마이크 자체의 유형은 매우 중요합니다. 광학 28 또는 특수 설계된 MR 호환 가능 29 응축기 마이크의 감도는 이미징 환경에서 강한 자기장의 영향을받지 않는 것으로 나타났습니다. 실제로, 작은 문형 콘덴서 마이크로폰이이 문맥에서 사용될 수 있는데, 차폐 꼬인 3 중 케이블이 전치 증폭기에 마이크를 연결하는 데 사용된다. 전치 증폭기는 MR 스캐너가있는 방의 바깥에 배치해야한다. 이러한 배열은 이미징 결과물 (44) 의 출현을 방지하지만, 연구원은 스캐너가 마이크로폰의 성능을 방해하지 않도록해야한다. 이를 위해 테스트 음색은 MR 호환 헤드폰을 통해 MR 스캐너 내부에 배치 된 마이크로 전송 될 수 있으며,이 방식으로 얻어진 신호는 이제 외부에 배치 된 마이크에 동일한 톤을 전송함으로써 얻어진 신호와 비교 될 수 있습니다 스캐너 MR 스캐너 내부의 음압 레벨은 매우 높을 수 있습니다xref "> 45가되도록 마이크를 소스에 최대한 가깝게 배치해야합니다. 참가자에게 공개적으로 노트를 연주하지 말고 윙윙 거리지 말고 입 영역 및 그 주변의 움직임을 최소화 할 수 있습니다. 마이크를 후두 바로 아래에 배치함으로써 , 테이프로 감싸 져있어 가수의 목소리를 충실히 녹음 할 수 있습니다. 녹음은 자연스럽게 매우 시끄 럽습니다 - 피할 수는 없지만 연구자가 주로 피치에 관심이 있고 말의 발음이나 발음에 관심이 없다면 다양한 소프트웨어 패키지를 사용하여 각 성 노트의 기본 주파수를 탐지 할 수 있도록 신호를 충분히 정리할 수 있습니다. 표준 방법은 오디오 편집 소프트웨어를 사용하여 해밍 창을 통해 시간 신호를 필터링 한 다음 자기 상관을 사용하는 것입니다 특정 언어 및 음성학 소프트웨어 패키지에 내장 된 알고리즘으로 성기능을 식별 할 수 있으며, 각 참가자마다 보컬 정확도를 계산할 수 있습니다.기록으로부터 얻어진 데이터는 피치 또는 리듬의 정확도를 훈련 정도 또는 간격 거리 중 어느 하나와 상관시키는 것을 포함한다.

스캐닝 노이즈 25 , 28 , 29 , 46 , 47 로 인한 BOLD 또는 청각 마스킹을 최소화하기 위해 스파 스 샘플링 디자인을 사용하여 기능 이미지를 얻습니다. 모든 피실험자는 3 회 실험을 진행하며 각각 10 분간 지속됩니다. 매 달리기 동안, 피실험자는 처음에 10 회의 침묵 기준선에서 침묵을 지키고, 10 블록 간격으로 수동적으로 듣고, 마지막으로 40 간격의 다른 블록을 듣고 다시 불러내라고 요청합니다. 개별 실행을 가능한 한 짧게 유지하는 한 가지 목적은 참가자의 피로를 피하는 것입니다. 그럼에도 불구하고 향후 동일한 수의 청취 및 노래 재판을 포함하는 것이 더 나을 것이라고 결론지었습니다.그런 다음 교대로 표시 할 수 있습니다. 이것은 통계력을 높이는 효과가 있습니다. 예를 들어 실행은 5 개의 침묵 기준선의 2 개 블록, 5 개의 수신 전용 시험의 4 개 블록 및 4 개 블록의 노래 시험으로 구성 될 수 있습니다. 그런 다음 블록을 참가자들에게 교대로 제시하고 총 소요 시간은 500 초입니다.

참가자가 공진기 내부에서 수동적으로 청취하는 주된 이유는 운동 활동에서 청각 활동을 빼는 수단을 갖는 것입니다. 따라서 "노래 네트워크" 25 , 27 , 28 , 29 , 36 , 37 에 대한 노래 활동의 유리한 비교는 연구의 적절한 타당성 확인을 위해 필수적입니다. "노래하는 네트워크"활성화는 매우 견고하고 잘 확립되어 있으며 일반적으로 de하나의 표본 t- 검정과 p = 0.05의 교정 된 클러스터 유의성 문턱 값에 의해 검출되었다. 불협화음과 자음 / 불협화음 사이의 대조에 해당하는 활성화는 일반적으로 다중 비교 28,29에 대해 보정되지 않은 유의성 복셀 임계 값 p <0.001에 따라 분산 분석 (ANOVA)을 통해 식별됩니다. 자음 부분 48 , 49 보다 노래 불협화음이 더 어려울 것으로 예상됩니다. 따라서 위에 설명 된 두 대조의 각각에 대해 서로 다른 활성화가 예상됩니다. 결과는 노래 불협화음 간격이 자음 간격 생성을 위해 모집 된 신경 메커니즘을 다시 프로그래밍하는 것을 의미합니다. 노래하는 동안, 생성 된 소리는 의도 한 소리와 비교되고, 필요한 모든 조정이 이루어진다.청각 및 체 감각 경로로부터의 외부 및 내부 피드백의 통합을 통해 이 결과들과 그것들로부터 도출 된 결론에 대한 자세한 논의는 González-García, González 및 Rendón 30 의 기사에 포함되어있다.

이 프로토콜은 음악 제작과 운동 및 청각 시스템의 활동을 모니터링하기위한 신경 상관 관계를 연구하기위한 합리적으로 간단한 방법을 제공합니다. 그것은 자음 또는 불협화음을 노래하고 좁은 간격 또는 넓은 간격으로 노래하는 것과 같은 이원 조건 사이의 뇌 활성화의 차이를 추적하는 데 사용할 수 있습니다. 또한 특정 주파수를 부르는 것과 관련된 다양한 작업에 대한 교육 효과를 연구하는 데에도 적합합니다. 반면에, 스캔 중에 얻은 성 음성의 녹음에는 매우 많은 양의 잡음이 포함되어 있기 때문에이 prot를 사용하기가 어려울 수 있습니다ocol은 음색이나 음색의 품질과 관련된 작업을 분석하는데, 특히 이들이 윙윙 거리는 동안 정확하게 측정 할 수없는 특성이기 때문입니다.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

저자는 아무런 이해 상충이 없다고 선언합니다.

Acknowledgments

저자는 Secretaría de Salud de México (HIM / 2011 / 058 SSA. 1009), CONACYT (SALUD-2012-01-182160) 및 DGAPA UNAM (PAPIIT IN109214)에서이 연구에 대한 재정 지원을 인정합니다.

Materials

Name Company Catalog Number Comments
Achieva 1.5-T magnetic resonance scanner Philips Release 6.4
Audacity Open source 2.0.5
Audio interface Tascam US-144MKII
Audiometer Brüel & Kjaer Type 1800
E-Prime Professional Psychology Software Tools, Inc. 2.0.0.74
Matlab Mathworks R2014A
MRI-Compatible Insert Earphones Sensimetrics S14
Praat Open source 5.4.12
Pro-audio condenser microphone Shure SM93
SPSS Statistics IBM 20
Statistical Parametric Mapping Wellcome Trust Centre for Neuroimaging 8

DOWNLOAD MATERIALS LIST

References

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061 (1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237 (2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Tags

행동 이슈 123 음악의 청각 및 부조화 신경 상관 음악 간격 식별 노래 기능적 자기 공명 영상 (fMRI) 음성 - 음성 통합
자음과 불요의 간격의 보컬 생성과 관련된 뇌 활동의 fMRI 맵핑
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

González-García, N.,More

González-García, N., Rendón, P. L. fMRI Mapping of Brain Activity Associated with the Vocal Production of Consonant and Dissonant Intervals. J. Vis. Exp. (123), e55419, doi:10.3791/55419 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter