Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Mapeo fMRI de la actividad cerebral asociada con la producción vocal de los intervalos consonante y disonante

Published: May 23, 2017 doi: 10.3791/55419

Summary

Los correlatos neuronales de escuchar intervalos consonantes y disonantes han sido ampliamente estudiados, pero los mecanismos neurales asociados con la producción de intervalos consonantes y disonantes son menos conocidos. En este artículo, las pruebas de comportamiento y fMRI se combinan con la identificación de intervalos y las tareas de canto para describir estos mecanismos.

Abstract

Los correlatos neurales de la consonancia y la disonancia percepción han sido ampliamente estudiados, pero no los correlatos neurales de la consonancia y disonancia de la producción. La forma más directa de la producción musical es el canto, pero, desde una perspectiva de imagen, todavía presenta más retos que escuchar porque involucra la actividad motora. El canto preciso de los intervalos musicales requiere la integración entre el procesamiento de realimentación auditiva y el control del motor vocal con el fin de producir correctamente cada nota. Este protocolo presenta un método que permite el seguimiento de las activaciones neuronales asociadas con la producción vocal de intervalos consonantes y disonantes. Cuatro intervalos musicales, dos consonantes y dos disonantes, se utilizan como estímulos, tanto para una prueba de discriminación auditiva como para una tarea que implica escuchar primero y luego reproducir intervalos dados. Los participantes, todos los estudiantes femeninos vocales en el nivel de invernadero, fueron estudiados utilizando funcional Magnetic Res(FMRI) durante la realización de la tarea de canto, con la tarea de escucha que sirve como una condición de control. De esta manera, se observó la actividad de los sistemas motor y auditivo, y también se obtuvo una medida de la precisión vocal durante la tarea de canto. Por lo tanto, el protocolo también se puede utilizar para realizar un seguimiento de las activaciones asociadas con el canto de diferentes tipos de intervalos o con cantar las notas requeridas con mayor precisión. Los resultados indican que el canto de los intervalos disonantes requiere una mayor participación de los mecanismos neuronales responsables de la integración de la retroalimentación externa de los sistemas auditivo y sensoriomotor que los intervalos consonantes cantantes.

Introduction

Ciertas combinaciones de notas musicales se reconocen generalmente consonantes, y se asocian típicamente con una sensación agradable. Otras combinaciones se denominan generalmente disonantes y están asociadas con un sentimiento desagradable o no resuelto 1 . Aunque parece razonable suponer que la enculturación y el entrenamiento juegan algún papel en la percepción de la consonancia 2 , se ha demostrado recientemente que las diferencias en la percepción de los intervalos y acordes consonantes y disonantes probablemente dependen menos de la cultura musical de lo que se pensaba anteriormente3 y pueden Incluso derivan de simples bases biológicas 4 , 5 , 6 . Con el fin de evitar una comprensión ambigua del término consonancia, Terhardt 7 introdujo la noción de consonancia sensorial, en contraposición a la consonancia en un contexto musical, Donde la armonía, por ejemplo, puede influir en la respuesta a un acorde o intervalo dado. En el presente protocolo, sólo aislados, de dos notas intervalos se utilizaron precisamente para seleccionar las activaciones exclusivamente relacionadas con la consonancia sensorial, sin interferencia de contexto dependiente de procesamiento [ 8] .

Los intentos de caracterizar la consonancia a través de medios puramente físicos comenzaron con Helmholtz 9 , quien atribuyó la aspereza percibida asociada con acordes disonantes a la pulsación entre componentes de frecuencia adyacentes. Más recientemente, sin embargo, se ha demostrado que la consonancia sensorial no sólo está asociada con la ausencia de rugosidad, sino también con la armonía, es decir, la alineación de los parciales de un tono o acorde dado con los de un tono inaudito de un Frecuencia inferior 10 , 11 . Los estudios conductuales confirman que la consonancia subjetiva es realmente afectada por puDependen de los parámetros físicos, como la distancia de frecuencia 12 , 13 , pero una gama más amplia de estudios han demostrado concluyentemente que los fenómenos físicos no pueden explicar únicamente las diferencias entre la consonancia percibida y la disonancia 14 , 15 , 16 , 17 . Todos estos estudios, sin embargo, reportan estas diferencias al escuchar una variedad de intervalos o acordes. Una variedad de estudios que utilizan la tomografía por emisión de positrones (PET) y la resonancia magnética funcional (IRMf) han revelado diferencias significativas en las regiones corticales que se activan al escuchar intervalos consonantes o disonantes y acordes 8 , 18 , 19 , 20 . El propósito del presente estudio es explorar las diferenciasEn la actividad cerebral al producir, en lugar de escuchar, intervalos consonantes y disonantes.

El estudio del control sensorio-motor durante la producción musical suele implicar el uso de instrumentos musicales y muy a menudo requiere la fabricación de instrumentos modificados específicamente para su uso durante la neuroimagen 21 . El canto, sin embargo, parece proporcionar desde el principio un mecanismo apropiado para el análisis de los procesos sensorio-motor durante la producción musical, ya que el instrumento es la voz humana en sí, y el aparato vocal no requiere ninguna modificación para ser adecuado durante Imágenes 22 . Aunque los mecanismos neuronales asociados con aspectos del canto, como el control de tono 23 , la imitación vocal 24 , los cambios adaptativos inducidos por el entrenamiento 25 , y la integración de la retroalimentación externa 25 , , 27 , 28 , 29 , han sido objeto de una serie de estudios en los últimos dos decenios, los correlatos neurales de cantando consonante y disonante intervalos fueron sólo recientemente descrito [ 30] . Para este propósito, el presente trabajo describe una prueba conductual diseñada para establecer el reconocimiento adecuado de los intervalos consonantes y disonantes por los participantes. Esto es seguido por un estudio fMRI de participantes cantando una variedad de intervalos consonantes y disonantes. El protocolo fMRI es relativamente sencillo, pero, como con todas las investigaciones de RM, se debe tener mucho cuidado de configurar correctamente los experimentos. En este caso, es particularmente importante minimizar el movimiento de la cabeza, la boca y los labios durante las tareas de canto, haciendo que la identificación de efectos no directamente relacionados con el acto físico de cantar sea más directo. Esta metodología puede utilizarse paraLos mecanismos neuronales asociados con una variedad de actividades que implican la producción musical cantando.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Este protocolo ha sido aprobado por el Comité de Investigación, Ética y Seguridad del Hospital Infantil de México "Federico Gómez".

1. Pretest conductual

  1. Realice una prueba audiométrica estándar de tono puro para confirmar que todos los participantes potenciales poseen audición normal (nivel de audición de 20 dB (HL) sobre frecuencias de octava de -8.000 Hz). Utilice el Edinburgh Handedness Inventory 31 para asegurarse de que todos los participantes son diestros.
  2. Generación de secuencias de intervalos.
    1. Produce tonos puros que abarcan dos octavas, G4-G6, utilizando un programa de edición de sonido.
      NOTA: Aquí se describe el software de edición de sonido libre, de código abierto Audacity. Otros paquetes pueden ser usados ​​para este propósito.
      1. Para cada tono, abra un nuevo proyecto en el software de edición de sonido.
      2. En el menú "Generar", seleccione "Tono". En la ventana que aparece, sElegir una forma de onda senoidal, una amplitud de 0,8 y una duración de 1 s. Introduzca el valor de la frecuencia que corresponda a la nota deseada ( por ejemplo, 440 Hz para A4). Haga clic en el botón "Aceptar".
      3. En el menú "Archivo", seleccione "Exportar audio". En la ventana que se abre, introduzca el nombre deseado para el archivo de audio y elija WAV como el tipo de archivo deseado. Clic en Guardar."
    2. Seleccione dos intervalos consonantes y dos disonantes, de acuerdo con la Tabla 1 , de tal manera que cada intervalo de consonantes esté cerca de un intervalo disonante.
      NOTA: Como ejemplo, considere los intervalos de consonante de un quinto perfecto y una octava y los intervalos disonantes de un cuarto aumentado (tritón) y un séptimo mayor. Estos son los intervalos elegidos para el estudio realizado por los autores.
    3. Generar todas las combinaciones posibles de notas correspondientes a estos cuatro intervalos en el rango entre G4 y G6.
      1. Para eacH, abra un nuevo proyecto en el software de edición de sonido y utilice "Importar audio" en el menú "Archivo" para importar los dos archivos WAV a concatenar.
      2. Coloque el cursor en cualquier punto del segundo tono y haga clic para seleccionarlo. Haga clic en "Seleccionar todo" en el menú "Editar". Bajo el mismo menú, haga clic en "Copiar".
      3. Coloque el cursor en cualquier punto sobre el primer tono y haga clic. Bajo el menú "Editar", haga clic en "Mover Cursor a Track End" y luego haga clic en "Pegar" en el mismo menú. Exporte el audio como se describe en el paso 1.2.1.3.
    4. Utilizar un generador de secuencia aleatoria para producir secuencias consistentes en 100 intervalos generados pseudo-aleatoriamente de tal manera que cada uno de los cuatro intervalos diferentes se produce exactamente 25 veces 30 . Para ello, utilice la función de permutación aleatoria en el software de análisis estadístico (véase la tabla de materiales ). Introduzca los cuatro intervalosAls como argumentos y crear un bucle que repita este proceso 25 veces.
    5. Utilice software de investigación conductual para generar dos ejecuciones distintas. Cargar una secuencia de 100 intervalos en formato WAV para cada ejecución y asociar la identificación de cada intervalo con un único ensayo [ 30] .
      NOTA: Aquí se utiliza el software de investigación de comportamiento E-Prime. Se puede utilizar otro software equivalente de investigación conductual.
  3. Explique a los participantes que escucharán dos secuencias de 100 intervalos cada una, donde cada secuencia está asociada con una tarea diferente y con su propio conjunto de instrucciones. Dígales a los participantes que, en ambas ejecuciones, el siguiente intervalo se reproducirá sólo cuando se presione una tecla válida.
    NOTA: Una vez iniciada la secuencia de reconocimiento de intervalos, no debe interrumpirse para que el curso de acción sea lo más claro posible para todos los participantes.
    1. Haga que los participantes se sienten delante de un ordenador portátilY usar los auriculares proporcionados. Utilice auriculares de buena calidad sobre el oído. Ajuste el nivel de sonido a un nivel cómodo para cada sujeto.
    2. Si utiliza el software de investigación de comportamiento descrito aquí, abra las tareas creadas en el paso 1.2.5 con E-Run. En la ventana que aparece, ingrese la sesión y el número de asunto y haga clic en "Aceptar". Utilice el número de sesión para distinguir entre ejecuciones para cada participante.
      NOTA: Las instrucciones para la tarea en cuestión aparecerán en la pantalla, seguido por el inicio de la tarea en sí.
      1. Primero, en una tarea de 2 alternativas de elección forzada, simplemente haga que los participantes identifiquen si los intervalos que escuchan son consonantes o disonantes. Haga que el participante presione "C" en el teclado del ordenador para consonante y "D" para disonante.
        NOTA: Dado que se espera que todos los participantes tengan formación musical en un nivel de conservatorio, se espera que todos sean capaces de distinguir entre patentemente consonante y patentemente dis.Intervalos sonoros. La primera tarea sirve, en cierto sentido, como confirmación de que este es realmente el caso.
      2. En segundo lugar, en una tarea de 4 alternativas de elección forzada, los participantes deben identificar los intervalos mismos. Pida a los participantes que presionen los números "4", "5", "7" y "8" en el teclado de la computadora para identificar los intervalos de una cuarta, quinta, quinta, séptima y octava respectivamente.
    3. Al final de cada tarea, presione "Aceptar" para guardar automáticamente los resultados de cada participante en un archivo individual de E-DataAid 2.0 etiquetado con el asunto y los números de sesión y con la extensión .edat2.
    4. Utilizar software de análisis estadístico ( por ejemplo, Matlab, SPSS Statistics o una alternativa de código abierto) para calcular las tasas de éxito de cada tarea ( es decir, el porcentaje de respuestas exitosas al identificar si los intervalos eran consonantes o disonantes y también cuando se identificaba el intErvales), tanto individualmente como en grupo 32 .

2. Experimento fMRI

  1. Preparación para la sesión de fMRI.
    1. Generar secuencias de los mismos intervalos que en el paso 1.2.3, nuevamente compuestas de dos tonos puros consecutivos con una duración de 1 s cada uno.
      NOTA: Ahora se debe tener en cuenta el rango vocal de los participantes y todas las notas deben caer cómodamente dentro del rango de canto de cada participante.
      1. Utilice un generador de secuencia aleatoria para crear una secuencia aleatoria de 30 intervalos para los ensayos sólo de escucha [ 30] . Para los ensayos de canto, cree una secuencia pseudo-aleatoria de 120 intervalos para que los participantes escuchen un intervalo específico y luego hagan coincidir este intervalo objetivo con sus voces cantoras. Para la secuencia seudorandomizada, utilice el mismo método que se describe en el paso 1.2.4, con los 4 intervalos como argumentos una vez más, pero nRepitiendo este proceso 30 veces.
      2. Siguiendo el mismo procedimiento que en el paso 1.2.5, utilice el software de investigación conductual para generar tres series distintas, cada una consistente inicialmente en 10 ensayos de línea de base silenciosos, seguidos por 10 ensayos consecutivos de escucha y finalmente en 40 ensayos consecutivos de canto.
        NOTA: Durante los ensayos de línea de base, los cuatro intervalos aparecen en orden aleatorio, mientras que durante los ensayos de canto, los cuatro intervalos aparecen en orden pseudo-ordenado, de tal manera que cada intervalo se presenta 10 veces. La duración de cada ensayo es de 10 s, por lo que una carrera completa dura 10 min. Dado que cada sujeto pasa por 3 pruebas experimentales, la duración total del experimento es de 30 min. Sin embargo, permitiendo a los participantes entrar y salir del escáner, tiempo para configurar y probar el micrófono, tiempo para obtener la exploración anatómica y tiempo entre funcionales, se asignará aproximadamente 1 hora de escáner a cada participante .
    2. Explique a los participantes las secuencias de los ensayos que se presentarán, como se describe en el paso 2.1.1.2, y responda a las dudas que pudieran tener. Instruya a los participantes a tararear las notas sin abrir la boca durante los ensayos de canto, manteniendo los labios quietos mientras producen un sonido "m".
    3. Conecte un auricular no magnético compatible con MR a un ordenador portátil. Ajuste el nivel de sonido a un nivel cómodo para cada sujeto.
    4. Conecte un pequeño micrófono de condensador a una interfaz de audio que a su vez esté conectada al ordenador portátil mediante un cable triplete trenzado apantallado.
      NOTA: La fuente de alimentación del micrófono, la interfaz de audio y la computadora portátil deben ubicarse fuera de la habitación que aloja el escáner.
    5. Compruebe la respuesta de frecuencia del micrófono.
      NOTA: El propósito de esta prueba es confirmar que el micrófono se comporta como se espera en el interior del escáner.
      1. Inicie un nuevo proyecto en el software de edición de sonido y seleccione el condensadorComo dispositivo de entrada.
      2. Genere un tono de prueba de 440 Hz con una duración de 10 s, tal como se describe en la sección 1.2.1, con los valores apropiados de frecuencia y duración.
      3. Utilizando el software de reproducción de sonido por defecto en el portátil, presione "Play" para enviar el tono de prueba a través de los auriculares en los lugares situados dentro (en la parte superior del reposacabezas) y fuera (en la sala de control) Del auricular en cada caso.
      4. Pulse "Grabar" en el software de edición de sonido para grabar aproximadamente 1 s del tono de prueba en cada ubicación.
      5. Seleccione "Plot Spectrum" en el menú "Analyze" para cada caso y compare la respuesta del micrófono al tono de prueba, tanto dentro como fuera del escáner, comprobando que la frecuencia fundamental de la señal recibida en cada ubicación es de 440 Hz.
    6. Tape el micrófono del condensador en el cuello del participante, justo debajo dellaringe.
    7. Haga que el participante use el auricular. Coloque al participante en un escáner de resonancia magnética (MR).
  2. Sesión de fMRI.
    1. Al comienzo de la sesión, abra el paquete de software de la interfaz de usuario de resonancia magnética (MRUI). Utilice el MRUI para programar el paradigma de adquisición.
      NOTA: Se puede esperar una variación en la interfaz entre diferentes modelos.
      1. Seleccione la opción "Paciente" en el menú en pantalla. Escriba el nombre, la edad y el peso del participante.
      2. Haga clic en el botón "Exam". En primer lugar, elija "Head" y luego "Brain" de las opciones disponibles.
      3. Seleccione "3D" y luego "T1 isométrico", con los siguientes valores para los parámetros relevantes: Tiempo de repetición (TR) = 10,2 ms, tiempo de eco (TE) = 4,2 ms, ángulo de vuelco = 90 ° y tamaño de voz = 1 x 1 x 1 mm 3 .
        NOTA: Para cada participante, un volumen anatómico ponderado T1 será bE adquirido utilizando una secuencia de pulso de eco de gradiente para referencia anatómica.
      4. Haga clic en "Programa" y seleccione EchoPlanaImage_diff_perf_bold (T2 *), con los valores de los parámetros relevantes como sigue: TE = 40 ms, TR = 10 s, Tiempo de adquisición (TA) = 3 s, Retardo TR = 7 s, Ángulo = 90 °, Campo de visión (FOV) = 256 mm2 y dimensiones de la matriz = 64 x 64. Utilice la opción "Dummy" para adquirir 5 volúmenes al introducir un valor de "55" para el número total de volúmenes.
        NOTA: Estos valores permiten la adquisición de gammagrafías de cabezas totales ponderadas T2 * funcionales de acuerdo con el paradigma de muestreo escaso ilustrado en la Figura 1 , en el que se adquiere y se descarta una exploración "simulada" de imagen de ecoplanar (EPI) para permitir la saturación de T1 Efectos. Obsérvese que en algunos MRUIs, el valor de TR debe ser 3 s, ya que se toma como el tiempo total durante el cual tiene lugar la adquisición.
      5. Haga clic en "Copiar" para hacer una copia de este archivo.La Coloque el cursor en la parte inferior de la lista de secuencias y luego haga clic en "Pegar" dos veces para configurar tres secuencias de muestreo dispersas consecutivas.
      6. Haga clic en "Inicio" para comenzar la adquisición de volumen anatómico ponderado T1.
      7. Presente tres carreras al participante, con las tiradas como se describe en el paso 2.1.1.2. Sincronice el inicio de las ejecuciones con la adquisición por el escáner utilizando la caja de disparo del escáner.
        1. Siga el mismo procedimiento que se describe en la sección 1.3.2 para comenzar cada una de las tres ejecuciones, diferenciando entre las ejecuciones usando el número de sesión. Guarde los resultados de tres ejecuciones completas utilizando el mismo procedimiento descrito en el paso 1.3.3.
          NOTA: La sincronización de las presentaciones del ensayo se agita sistemáticamente en ± 500 ms.

Figura 1
Figura 1: SParse-sampling Diseño. ( A ) Cronología de los eventos dentro de un ensayo que implica sólo escuchar un intervalo de dos tonos (2 s), sin posterior reproducción abierta. ( B ) Cronología de los eventos dentro de un ensayo que incluye tareas de escucha y canto. Haga clic aquí para ver una versión más grande de esta figura.

3. Análisis de datos

  1. Preprocesar los datos funcionales mediante el software diseñado para el análisis de las secuencias de datos de imágenes cerebrales siguiendo procedimientos estándar [ 33] .
    NOTA: Todo el procesamiento de datos se realiza utilizando el mismo software.
    1. Utilice la opción de menú proporcionada para realinear las imágenes al primer volumen, re-muestreadas y espacialmente normalizadas (tamaño final del voxel: 2 x 2 x 2 mm 3 ) al espacio estereotáctico estándar 34 del Instituto Neurológico de Montreal (MNI).
    2. Utilice la opción de menú proporcionada para suavizar la imagen utilizando un núcleo gaussiano isotrópico de 8 mm de ancho total a medio máximo (FWHM).
    3. Para modelar la respuesta BOLD, seleccione una respuesta de impulso finito (FIR) de una sola bandeja como función de base (orden 1) o función de carrocería, que abarca el tiempo de adquisición de volumen (3 s) 28 .
      NOTA: Los protocolos de muestreo disperso, como éste, generalmente no requieren que la FIR se convolucione con la función de respuesta hemodinámica, como es comúnmente el caso para la RMF relacionada con el evento.
    4. Aplique un filtro de paso alto a la respuesta BOLD para cada evento (1.000 s para la "red de canto" y 360 s en otro lugar).
      NOTA: El modelado de todas las tareas de canto en conjunto asciende a un bloque de 400 s 35 .

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Los 11 participantes en nuestro experimento fueron estudiantes vocales femeninas en el nivel de conservatorio, y se desempeñaron lo suficientemente bien en las tareas de reconocimiento de intervalo para ser seleccionado para el escaneo. La tasa de éxito de la tarea de identificación de intervalos fue de 65,72 ± 21,67%, lo que es, como se esperaba, menor que la tasa de éxito al identificar intervalos disonantes y consonantes, que fue 74,82 ± 14,15%.

Con el fin de validar el diseño básico del estudio, esperamos identificar la actividad neuronal durante el canto en las regiones conocidas como la "red de canto", tal como se definió en varios estudios anteriores 25 , 26 , 27 , 28 , 29 , 30 , 31 ,Asno = "xref"> 32 , 33 , 34 , 35 , 36 , 37 . El efecto del canto se observa por medio del contraste de interés lineal de primer nivel, que corresponde al canto en oposición a la escucha. Se utilizaron pruebas t de una muestra con clusters determinados por Z> 3 y un umbral de significación de cluster de p = 0,05, error de Family-Wise (FWE) corregido 38 . Para el etiquetado anatómico, el SPM Anatomy Toolbox [ 33] y la Harvard-Oxford cortical y subcortical atlas estructurales se utilizaron [ 39] . Las regiones cerebrales donde se observó una activación significativa fueron la corteza somatosensorial primaria (S1), la corteza somatosensorial secundaria (S2), la corteza motora primaria (M1), la zona motora suplementaria (SMA), la corteza premotora (PM), el área de Brodmann 44 (BA 44), la corteza auditiva primaria(PAC), el giro temporal superior (STG), el polo temporal, la ínsula anterior, el putamen, el tálamo y el cerebelo. Estas activaciones coinciden con las informadas en los estudios citados anteriormente con respecto a la "red de canto", y se ilustran en la Figura 2 . Obsérvese que en las figuras 2 y 3 ambas coordenadas x son perpendiculares al plano sagital, la coordenada y es perpendicular al plano coronal y la coordenada z es perpendicular al plano transversal u horizontal.

Una vez que se validó el diseño básico, se calcularon otros dos contrastes lineales de primer nivel para cada participante, correspondientes a intervalos disonantes de canto en oposición a intervalos de consonantes ya intervalos de consonante de canto en oposición a intervalos disonantes. Estos contrastes lineales se llevaron entonces a un modelo de efectos aleatorios de segundo nivel que implicaba un conjunto de análisis de medidas repetidas de 2 vías de variaNce (ANOVA), con los factores consonancia y disonancia. De esta manera, se examinaron las áreas activadas o desactivadas para posibles interacciones, con activaciones de interés determinadas según el umbral de voxel de significancia, p <0,001, sin corregir para comparaciones múltiples 28 , 29 . Para el contraste resultante del canto disonante en comparación con los intervalos consonantes, se observaron activaciones incrementadas en el S1 derecho, el PAC derecho, el mesencéfalo izquierdo, la insula posterior derecha, la amígdala izquierda y el putamen izquierdo. Estas activaciones se muestran en la Figura 3 . En cuanto al contraste complementario, no se detectaron cambios significativos en la activación durante el canto de los intervalos consonánticos.

Figura 2
Figura 2: Activación en las Regiones que constituyen la "Red de Canto". ActivarIon se presentan con un pico de significación de cluster de p = 0,05, error familiar (FWE) corregido. Las respuestas BOLD se informan en unidades arbitrarias. Haga clic aquí para ver una versión más grande de esta figura.

figura 3
Figura 3: Contraste entre el canto de los intervalos de disonante y consonante. Se presentan mapas de activación, no corregidos para comparaciones múltiples, con un umbral de significación de cluster de p = 0,001. Las respuestas BOLD se informan en unidades arbitrarias. Haga clic aquí para ver una versión más grande de esta figura.

Intervalo Número de semitonos Relación de fundamentos
Unísono 0 1: 1
Segundo menor 1 16:15
Segundo mayor 2 9: 8
Tercero menor 3 6: 5
Tercero mayor 4 5: 4
Cuarto perfecto 5 4: 3
Tritón 6 45:32
Quinto perfecto 7 3: 2
Menor sexto 8 8: 5
Sexto mayor 9 5: 3
Séptimo menor 10 16: 9
Séptimo mayor 11 15: 8
Octava 12 2: 1

Tabla 1: Intervalos musicales consonantes y disonantes. Los intervalos consonantes aparecen en negrita, mientras que los intervalos disonantes aparecen en cursiva. Observe que cuanto más consonante sea un intervalo, más pequeños son los enteros que aparecen en la relación de frecuencia utilizada para representarlo. Para una discusión en profundidad de la consonancia y la disonancia en función de las relaciones de frecuencia, véase Bidelman y Krishnan [ 40] .

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Este trabajo describe un protocolo en el que el canto se utiliza como un medio de estudiar la actividad cerebral durante la producción de los intervalos de consonante y disonante. A pesar de que el canto proporciona lo que es posiblemente el método más sencillo para la producción de intervalos musicales 22 , no permite la producción de acordes. Sin embargo, aunque la mayoría de las caracterizaciones físicas de la noción de consonancia dependen en cierta medida de la superposición de notas simultáneas, varios estudios han demostrado que los intervalos construidos con notas que corresponden a acordes consonantes o disonantes se perciben todavía como consonantes o disonantes, Respectivamente 4 , 6 , 15 , 41 , 42 .

La tarea de percepción del intervalo conductual se utiliza para establecer, antes de que los participantes puedan pasar a la exploración sSi son capaces de distinguir adecuadamente los intervalos. Por lo tanto, funcionan bien una vez dentro del resonador magnético. Los participantes que no pueden cumplir un umbral predeterminado al realizar estas tareas de identificación no deben proceder al experimento de fMRI. El propósito principal de este proceso de selección es asegurar que las diferencias en el desempeño entre los participantes no se deban a habilidades deficientes de percepción. Los participantes elegidos deben tener grados similares de entrenamiento vocal y musical, y también, si es posible, tessituras similares. Si tienen rangos vocales que varían significativamente, el intervalo de intervalos que se presenten durante las tareas de canto que deberán realizar debe ser personalizado.

La configuración del micrófono es fundamental para que la adquisición sea confiable y libre de artefactos. El tipo de micrófono en sí es muy importante, y aunque es posible utilizar óptico 28 o especialmente diseñado, MR-compatible 29 Sup>, se ha demostrado que la sensibilidad de los micrófonos de condensador no se ve afectada por la presencia de los intensos campos magnéticos en el entorno de imagen [ 43] . De hecho, se puede utilizar un pequeño micrófono de condensador Lavalier en este contexto, siempre y cuando se utilice un cable trillado triplete apantallado para conectar el micrófono al preamplificador, que debe colocarse fuera de la sala donde se encuentra el escáner MR. Esta disposición evitará la aparición de artefactos de formación de imágenes 44 , pero los investigadores también deben asegurarse de que el escáner no interfiera con el rendimiento del micrófono. Con este fin, se puede enviar un tono de prueba a través de los auriculares compatibles con MR al micrófono situado en el interior del escáner MR, y la señal obtenida de esta manera puede compararse con la obtenida enviando el mismo tono al micrófono ahora colocado fuera El escáner. Los niveles de presión sonora dentro del escáner MR pueden ser extremadamente altosXref "> 45, por lo que el micrófono debe colocarse lo más cerca posible de la fuente.Por pedir a los participantes a zumbar en lugar de cantar abiertamente notas, el movimiento en y alrededor de la zona de la boca se puede minimizar.Poniendo el micrófono justo debajo de la laringe , Cubierto por una cinta, es posible obtener una grabación fiel de la voz del cantante.La grabación será naturalmente muy ruidosa - esto no puede ser evitado - pero si los investigadores están principalmente interesados ​​en el tono y no en la articulación o enunciación de palabras, Una variedad de paquetes de software se puede utilizar para limpiar la señal suficiente para la detección de la frecuencia fundamental de cada nota cantada.Un método estándar sería el uso de software de edición de audio para filtrar las señales de tiempo a través de una ventana Hamming y luego utilizar la autocorrelación Algoritmos incorporados en ciertos paquetes de software de fonética y fonología para identificar los fundamentos cantados y la precisión vocal puede ser calculada para cada participante.Los datos obtenidos de las grabaciones incluyen la correlación de la precisión de tono o rítmica con el grado de entrenamiento o las distancias entre intervalos.

Las imágenes funcionales son adquiridas usando un diseño de muestreo escaso para minimizar el enmascaramiento BOLD o auditivo debido al ruido de exploración 25 , 28 , 29 , 46 , 47 . Cada sujeto experimenta 3 carreras experimentales, cada una durando 10 min. Durante cada prueba, se pide a los sujetos que permanezcan en silencio durante 10 ensayos de línea de base silenciosos, luego escuchen pasivamente a un bloque de 10 intervalos y finalmente escuchen y canten otra secuencia de 40 intervalos. Un propósito de mantener las tiradas individuales lo más cortas posible es evitar la fatiga del participante. No obstante, se ha llegado a la conclusión de que podría ser mejor en el futuro incluir el mismo número de ensayos dePueden entonces presentarse en bloques alternos. Esto tendría el efecto de aumentar el poder estadístico. Como ejemplo, una carrera podría consistir en 2 bloques de 5 ensayos de línea de base silenciosos, 4 bloques de 5 ensayos solo de escucha y 4 bloques de ensayos de canto. Los bloques se presentarían entonces a los participantes en alternancia, con una duración total de 500 s por carrera.

La razón principal para que los participantes escuchen pasivamente dentro del resonador es tener un medio de restar la actividad auditiva de la actividad motora. Por lo tanto, una comparación favorable de las activaciones de canto con la "red de canto" 25 , 27 , 28 , 29 , 36 , 37 es indispensable para la validación adecuada del estudio. Observe que las activaciones de la "red de canto" son muy robustas y bien establecidas yMediante una prueba de t de una muestra y un umbral de significación de clúster corregido de p = 0,05. Las activaciones correspondientes al contraste entre los intervalos disonante / consonante de canto y consonante / disonante se identifican típicamente mediante análisis de varianza de factores repetidos de 2 vías según el umbral de voxel de significación p <0,001, sin corregir para comparaciones múltiples 28 , 29 . Se espera que los participantes encuentren intervalos disonantes cantantes más desafiantes que cantando intervalos de consonantes 48 , 49 ; Por lo tanto, se anticipan diferentes activaciones para cada uno de los dos contrastes descritos anteriormente. Los resultados indican que el canto de los intervalos disonantes implica una reprogramación de los mecanismos neuronales reclutados para la producción de intervalos de consonantes. Durante el canto, el sonido producido se compara con el sonido deseado, y se hace entonces cualquier ajuste necesarioMediante la integración de retroalimentación externa e interna de las vías auditivas y somatosensoriales. En el artículo de González-García, González y Rendón se incluye un análisis detallado de estos resultados y de las conclusiones que se extraen de ellos.

Este protocolo proporciona un método razonablemente sencillo para el estudio de los correlatos neurales de la producción musical y para el seguimiento de la actividad de los sistemas motor y auditivo. Puede usarse para rastrear diferencias en la activación cerebral entre condiciones binarias, tales como cantar consonantes o intervalos disonantes, y cantar intervalos estrechos o amplios 30 . También es adecuado para estudiar el efecto del entrenamiento en una variedad de tareas asociadas con el canto de frecuencias específicas. Por otra parte, debido a la gran cantidad de ruido contenido en las grabaciones de la voz cantada obtenida durante la exploración, sería difícil emplear esta protOcol para analizar las tareas relacionadas con la calidad del tono o el timbre, sobre todo porque estas son cualidades que no se pueden calibrar correctamente mientras tararea.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Los autores declaran no tener conflictos de intereses.

Acknowledgments

Los autores reconocen el apoyo financiero a esta investigación de la Secretaría de Salud de México (HIM / 2011/058 SSA. 1009), CONACYT (SALUD-2012-01-182160) y DGAPA UNAM (PAPIIT IN109214).

Materials

Name Company Catalog Number Comments
Achieva 1.5-T magnetic resonance scanner Philips Release 6.4
Audacity Open source 2.0.5
Audio interface Tascam US-144MKII
Audiometer Brüel & Kjaer Type 1800
E-Prime Professional Psychology Software Tools, Inc. 2.0.0.74
Matlab Mathworks R2014A
MRI-Compatible Insert Earphones Sensimetrics S14
Praat Open source 5.4.12
Pro-audio condenser microphone Shure SM93
SPSS Statistics IBM 20
Statistical Parametric Mapping Wellcome Trust Centre for Neuroimaging 8

DOWNLOAD MATERIALS LIST

References

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061 (1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237 (2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Tags

Comportamiento Número 123 Consonancia y disonancia correlatos neuronales de la música identificación de intervalos musicales canto resonancia magnética funcional (IRMf) integración audio-vocal
Mapeo fMRI de la actividad cerebral asociada con la producción vocal de los intervalos consonante y disonante
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

González-García, N.,More

González-García, N., Rendón, P. L. fMRI Mapping of Brain Activity Associated with the Vocal Production of Consonant and Dissonant Intervals. J. Vis. Exp. (123), e55419, doi:10.3791/55419 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter