Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Mapeamento fMRI da atividade cerebral associada à produção vocal de intervalos de consonância e dissonante

Published: May 23, 2017 doi: 10.3791/55419

Summary

Os correlatos neurais de ouvir intervalos consonantais e dissonantes têm sido amplamente estudados, mas os mecanismos neurais associados à produção de intervalos consonantes e dissonantes são menos conhecidos. Neste artigo, testes comportamentais e fMRI são combinados com a identificação de intervalos e tarefas de canto para descrever esses mecanismos.

Abstract

Os correlatos neurais da percepção de consonância e dissonância têm sido amplamente estudados, mas não os correlatos neurais da consonância e da produção de dissonância. A maneira mais direta de produção musical é cantar, mas, do ponto de vista da imagem, ela ainda apresenta mais desafios do que ouvir porque envolve atividade motora. O canto exato de intervalos musicais requer integração entre o processamento de feedback auditivo e o controle de motor vocal para produzir corretamente cada nota. Este protocolo apresenta um método que permite o monitoramento de ativações neurais associadas à produção vocal de intervalos consoante e dissonante. Quatro intervalos musicais, dois consonantes e dois dissonantes, são usados ​​como estímulos, tanto para um teste de discriminação auditiva quanto para uma tarefa que envolve primeiro ouvir e depois reproduzir intervalos dados. Os participantes, todos os alunos vocais femininos no nível de conservatório, foram estudados usando funcional Magnetic Res(FMRI) durante o desempenho da tarefa de canto, com a tarefa de escuta servindo como uma condição de controle. Desta maneira, observou - se a atividade dos sistemas motor e auditivo e também obteve - se uma medida de precisão vocal durante a tarefa de canto. Assim, o protocolo também pode ser usado para controlar as ativações associadas ao canto de diferentes tipos de intervalos ou ao cantar as notas requeridas com mais precisão. Os resultados indicam que os intervalos dissonantes de canto requerem maior participação dos mecanismos neurais responsáveis ​​pela integração do feedback externo dos sistemas auditivo e sensório-motor do que os intervalos de consonância de canto.

Introduction

Certas combinações de sons musicais são geralmente reconhecidas como consoantes, e são tipicamente associadas a uma sensação agradável. Outras combinações são geralmente referidas como dissonantes e estão associadas a um sentimento desagradável ou não resolvido 1 . Embora pareça sensato supor que a enculturação e o treinamento desempenham algum papel na percepção da consonância 2 , tem sido recentemente demonstrado que as diferenças na percepção de intervalos e acordes consonantais e dissonantes provavelmente dependem menos da cultura musical do que se pensava anteriormente 3 e podem Derivam mesmo de bases biológicas simples 4 , 5 , 6 . Para evitar uma compreensão ambígua do termo consonância, Terhardt 7 introduziu a noção de consonância sensorial, ao contrário da consonância em um contexto musical, Onde a harmonia, por exemplo, pode muito bem influenciar a resposta a um dado acorde ou intervalo. No presente protocolo, apenas os intervalos isolados de duas notas foram utilizados precisamente para ativações únicas unicamente relacionadas à consonância sensorial, sem interferência do processamento dependente do contexto 8 .

As tentativas de caracterizar a consonância por meios puramente físicos começaram com Helmholtz 9 , que atribuiu a rugosidade percebida associada aos acordes dissonantes à batida entre componentes de freqüência adjacentes. Mais recentemente, no entanto, foi demonstrado que a consonância sensorial não está associada apenas à ausência de rugosidade, mas também à harmonicidade, ou seja, ao alinhamento das parciais de um dado tom ou corda com as de um tom inaudito de um Menor frequência 10 , 11 . Estudos comportamentais confirmam que a consonância subjetiva é realmente afetada por puDependem de parâmetros físicos, como a distância de freqüência 12 , 13 , mas uma gama mais ampla de estudos têm demonstrado conclusivamente que os fenômenos físicos não podem explicar apenas as diferenças entre consonância percebida e dissonância 14 , 15 , 16 , 17 . Todos estes estudos, no entanto, relatam essas diferenças ao ouvir uma variedade de intervalos ou acordes. Diversos estudos com Tomografia por Emissão de Pósitrons (PET) e Ressonância Magnética Funcional (IRMf) revelaram diferenças significativas nas regiões corticais que se tornam ativas quando se escutam intervalos consoantes ou dissonantes e acordes 8 , 18 , 19 , 20 . O objetivo do presente estudo é explorar as diferenças entreNa atividade cerebral ao produzir, ao invés de ouvir, intervalos consonantais e dissonantes.

O estudo do controle sensório-motor durante a produção musical envolve tipicamente o uso de instrumentos musicais e muitas vezes exige a fabricação de instrumentos modificados especificamente para seu uso durante a neuroimagem 21 . O canto, no entanto, parece fornecer desde o início um mecanismo adequado para a análise dos processos sensório-motor durante a produção musical, pois o instrumento é a própria voz humana eo aparelho vocal não requer qualquer modificação para ser adequado durante a Imagem 22 . Embora os mecanismos neurais associados aos aspectos do canto, como o controle de passo 23 , a imitação vocal 24 , as mudanças adaptativas induzidas pelo treinamento 25 ea integração do feedback externo 25 , , 27 , 28 , 29 , têm sido objeto de uma série de estudos ao longo das últimas duas décadas, os correlatos neurais de cantar consoante e dissonante intervalos foram apenas recentemente descrito [ 30] . Para tanto, o presente artigo descreve um teste comportamental destinado a estabelecer o adequado reconhecimento dos intervalos consoante e dissonante pelos participantes. Isto é seguido por um estudo fMRI dos participantes cantando uma variedade de intervalos consonantais e dissonantes. O protocolo fMRI é relativamente simples, mas, como em todas as pesquisas de ressonância magnética, grande cuidado deve ser tomado para configurar corretamente os experimentos. Neste caso, é particularmente importante minimizar o movimento da cabeça, boca e lábio durante as tarefas de canto, tornando a identificação de efeitos não diretamente relacionados ao ato físico de cantar mais direto. Esta metodologia pode ser utilizada paraVestigam os mecanismos neurais associados a uma variedade de atividades envolvendo produção musical por canto.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Este protocolo foi aprovado pelo Comitê de Pesquisa, Ética e Segurança do Hospital Infantil do México "Federico Gómez".

1. Pre-teste comportamental

  1. Realize um teste audiométrico padronizado de tons puros para confirmar que todos os participantes em potencial possuem audição normal (nível de audição de 20 dB em frequências de oitava de -8.000 Hz). Use o Edinburgh Handedness Inventory 31 para garantir que todos os participantes sejam destro.
  2. Geração de seqüências de intervalo.
    1. Produza sons puros que abrangem duas oitavas, G4-G6, usando um programa de edição de som.
      NOTA: Aqui, o software de edição de som open-source gratuito, Audacity, é descrito. Outros pacotes podem ser usados ​​para este fim.
      1. Para cada tom, abra um novo projeto no software de edição de som.
      2. No menu "Gerar", selecione "Tom". Na janela que aparece, sEleger uma forma de onda senoidal, uma amplitude de 0,8 e uma duração de 1 s. Introduza o valor da frequência que corresponde à nota desejada ( por exemplo, 440 Hz para A4). Clique no botão "OK".
      3. No menu "Arquivo", selecione "Exportar Áudio". Na janela que se abre, digite o nome desejado para o arquivo de áudio e escolha WAV como o tipo de arquivo desejado. Clique em "Salvar".
    2. Selecione dois intervalos consoante e dois dissonantes, de acordo com a Tabela 1 , de tal forma que cada intervalo consoante esteja próximo de um intervalo dissonante.
      NOTA: Como exemplo, considere os intervalos consoantes de um quinto perfeito e uma oitava e os intervalos dissonantes de um quarto aumentado (tritônio) e um sétimo maior. Estes são os intervalos escolhidos para o estudo realizado pelos autores.
    3. Gere todas as combinações possíveis de notas correspondentes a estes quatro intervalos no intervalo entre G4 e G6.
      1. Para eacH, abra um novo projeto no software de edição de som e use "Importar Áudio" no menu "Arquivo" para importar os dois arquivos WAV a serem concatenados.
      2. Coloque o cursor em qualquer ponto sobre o segundo tom e clique para selecionar. Clique em "Selecionar tudo" no menu "Editar". No mesmo menu, clique em "Copiar".
      3. Coloque o cursor em qualquer ponto sobre o primeiro tom e clique. No menu "Editar", clique em "Mover Cursor para Fim da Faixa" e clique em "Colar" no mesmo menu. Exporte o áudio conforme descrito na etapa 1.2.1.3.
    4. Use um gerador de seqüência aleatória para produzir seqüências consistindo em 100 intervalos gerados pseudo-aleatoriamente de tal forma que cada um dos quatro intervalos diferentes ocorre exatamente 25 vezes 30 . Para fazer isso, use a função de permutação aleatória no software de análise estatística (consulte a Tabela de Materiais ). Introduza os quatro intervComo argumentos e criar um loop que repete esse processo 25 vezes.
    5. Use software de pesquisa comportamental para gerar duas execuções distintas. Carregar uma seqüência de 100 intervalos no formato WAV para cada execução e associar a identificação de cada intervalo com um único julgamento [ 30] .
      NOTA: Aqui, o software de pesquisa comportamental E-Prime é usado. Outro software de pesquisa comportamental equivalente pode ser usado.
  3. Explique aos participantes que irão ouvir duas seqüências de 100 intervalos cada, onde cada seqüência está associada a uma tarefa diferente e com seu próprio conjunto de instruções. Diga aos participantes que, em ambas as corridas, o próximo intervalo será jogado somente quando uma tecla válida for pressionada.
    NOTA: Uma vez iniciada a seqüência de reconhecimento de intervalos, ela não deve ser interrompida para que o curso de ação seja o mais claro possível para todos os participantes.
    1. Peça aos participantes que se sentem na frente de um computador portátilE usar os fones de ouvido fornecidos. Use fones de ouvido de boa qualidade sobre a orelha. Ajuste o nível de som para um nível confortável para cada assunto.
    2. Se estiver usando o software de pesquisa comportamental descrito aqui, abra as tarefas criadas na etapa 1.2.5 com E-Run. Na janela que aparece, digite a sessão eo número do assunto e clique em "OK". Use o número de sessão para distinguir entre execuções para cada participante.
      NOTA: As instruções para a tarefa em mãos aparecerão na tela, seguido pelo início da tarefa em si.
      1. Primeiro, em uma tarefa de escolha forçada de 2 alternativas, basta que os participantes identifiquem se os intervalos ouvidos são consoantes ou dissonantes. Peça ao participante que pressione "C" no teclado do computador para consoante e "D" para dissonante.
        NOTA: Uma vez que todos os participantes são esperados para ter formação musical em um nível de conservatório, todos eles são esperados para ser capaz de distinguir entre patentemente consoante e manifestamente disIntervalos sonoros. A primeira tarefa serve, em certo sentido, como confirmação de que esse é realmente o caso.
      2. Em segundo lugar, em uma tarefa de 4 alternativas de escolha forçada, os participantes devem identificar os intervalos. Peça aos participantes que apertem os números "4", "5", "7" e "8" no teclado do computador para identificar os intervalos de um quinto aumentado, quinto perfeito, sétimo maior e oitava, respectivamente.
    3. Ao final de cada tarefa, pressione "OK" para salvar automaticamente os resultados de cada participante em um arquivo individual do E-DataAid 2.0 rotulado com o assunto e números de sessão e com a extensão .edat2.
    4. Utilize um software de análise estatística ( por exemplo, Matlab, SPSS Statistics ou uma alternativa de fonte aberta) para calcular as taxas de sucesso de cada tarefa ( ou seja, a percentagem de respostas bem-sucedidas ao identificar se os intervalos eram consonantes ou dissonantes e também quando se identificava o intErvais), tanto individualmente quanto como grupo 32 .

2. Experiência fMRI

  1. Preparação para a sessão fMRI.
    1. Gerar sequências dos mesmos intervalos que no passo 1.2.3, novamente composto de dois tons puros consecutivos com uma duração de 1 s cada.
      NOTA: A faixa vocal dos participantes deve agora ser levada em conta, e todas as notas devem cair confortavelmente dentro da faixa de canto de cada participante.
      1. Use um gerador de seqüência aleatória para criar uma seqüência aleatória de 30 intervalos para os ensaios apenas de escuta 30 . Para os ensaios de canto, crie uma seqüência pseudo-aleatória de 120 intervalos para que os participantes possam ouvir um intervalo específico e então combinar esse intervalo de destino com suas vozes de canto. Para a seqüência pseudo-randomizada, use o mesmo método descrito no passo 1.2.4, com os 4 intervalos como argumentos mais uma vez, mas nOw repetir este processo 30 vezes.
      2. Seguindo o mesmo procedimento descrito na etapa 1.2.5, use o software de pesquisa comportamental para gerar três corridas distintas, cada uma consistindo inicialmente de 10 testes de linha de base silenciosos, seguidos por 10 testes de escuta consecutivos e, finalmente, por 40 testes de canto consecutivos.
        NOTA: Durante os ensaios de linha de base, os quatro intervalos aparecem em ordem aleatória, enquanto que durante os ensaios de canto, os quatro intervalos aparecem em ordem pseudo-ordenada, de tal forma que cada intervalo é eventualmente apresentado exatamente 10 vezes. A duração de cada ensaio é de 10 s, pelo que uma duração total dura 10 min. Uma vez que cada sujeito passa por 3 experiências, a duração total da experiência é de 30 min. No entanto, permitindo que os participantes entrem e saem do scanner, tempo para configurar e testar o microfone, tempo para obter a varredura anatômica e tempo entre funcionais, aproximadamente 1 h de tempo do scanner deve ser atribuído a cada participante .
    2. Explique aos participantes as sequências de ensaios a serem apresentados, conforme descrito no passo 2.1.1.2, e responda a quaisquer dúvidas que possam ter. Instrua os participantes a zumbir as notas sem abrir a boca durante as provas de canto, mantendo os lábios ainda produzindo um som "m".
    3. Conecte um fone de ouvido não magnético compatível com MR a um laptop. Ajuste o nível de som para um nível confortável para cada assunto.
    4. Conecte um pequeno microfone condensador a uma interface de áudio que, por sua vez, é conectada ao laptop usando um cabo triplo blindado.
      NOTA: A fonte de alimentação do microfone, a interface de áudio e o laptop devem estar localizados fora da sala que abriga o scanner.
    5. Verifique a resposta de freqüência do microfone.
      NOTA: A finalidade deste teste é confirmar se o microfone se comporta como esperado dentro do scanner.
      1. Inicie um novo projeto no software de edição de som e selecione o condensadorMicrofone como o dispositivo de entrada.
      2. Gerar um tom de teste de 440 Hz com uma duração de 10 s, conforme descrito na secção 1.2.1, com os valores adequados para a frequência e duração.
      3. Utilizando o software de reprodução de som predefinido no portátil, prima "Play" para enviar o tom de teste através dos auscultadores nos locais internos (no topo do encosto de cabeça) e no exterior (na sala de controlo) com o microfone colocado entre os lados Do fone de ouvido em cada caso.
      4. Pressione "Gravar" no software de edição de som para gravar aproximadamente 1 s do tom de teste em cada local.
      5. Selecione "Plot Spectrum" no menu "Analyze" para cada caso e compare a resposta do microfone ao tom de teste, tanto dentro quanto fora do scanner, verificando se a freqüência fundamental do sinal recebido em cada local é de 440 Hz.
    6. Tape o microfone do condensador no pescoço do participante, logo abaixo dolaringe.
    7. Peça ao participante que use o fone de ouvido. Coloque o participante num scanner de ressonância magnética (RM).
  2. Sessão fMRI.
    1. No início da sessão, abra o pacote de software da interface de usuário de ressonância magnética (MRUI). Use o MRUI para programar o paradigma de aquisição.
      NOTA: Alguma variação na interface é esperada entre diferentes modelos.
      1. Selecione a opção "Paciente" no menu na tela. Digite o nome do participante, idade e peso.
      2. Clique no botão "Exame". Primeiro, escolha "Cabeça" e depois "Cérebro" a partir das opções disponíveis.
      3. Selecione "3D" e depois "T1 isométrico", com os seguintes valores para os parâmetros relevantes: Tempo de repetição (TR) = 10,2 ms, tempo de eco (TE) = 4,2 ms, ângulo de inclinação = 90 ° e tamanho do voxel = 1 x 1 x 1 mm 3 .
        NOTA: Para cada participante, um volume anatômico ponderado em T1 será bE adquirida utilizando uma sequência de pulso de eco de gradiente para referência anatômica.
      4. Clique em "Programa" e selecione EchoPlanaImage_diff_perf_bold (T2 *), com os valores dos parâmetros relevantes como segue: TE = 40 ms, TR = 10 s, Tempo de Aquisição (TA) = 3 s, Atraso em TR = 7 s, Flip Ângulo = 90 °, campo de visão (FOV) = 256 mm 2 e dimensões da matriz = 64 x 64. Use a opção "Manequim" para adquirir 5 volumes ao inserir um valor de "55" para o número total de volumes.
        NOTA: Estes valores permitem a aquisição de varreduras de cabeças inteiras ponderadas T2 * funcionais de acordo com o paradigma de amostragem esparsa ilustrado na Figura 1 , onde uma varredura "simulada" de imagem de ecoplanar (EPI) é adquirida e descartada para permitir a saturação de T1 Efeitos. Observe que em alguns MRUIs, o valor de TR deve ser 3 s, pois é considerado como o tempo total durante o qual a aquisição ocorre.
      5. Clique em "Copiar" para fazer uma cópia desta sequCação. Coloque o cursor na parte inferior da lista de sequências e clique em "Colar" duas vezes para configurar três sequências de amostragem esparsas consecutivas.
      6. Clique em "Iniciar" para iniciar a aquisição do volume anatômico ponderado em T1.
      7. Apresentar três corridas para o participante, com as execuções como descrito no passo 2.1.1.2. Sincronize o início das execuções com a aquisição pelo scanner usando a caixa de disparo do scanner.
        1. Siga o mesmo procedimento descrito na seção 1.3.2 para iniciar cada uma das três execuções, diferenciando entre execuções usando o número de sessão. Salve os resultados de três execuções completas usando o mesmo procedimento descrito na etapa 1.3.3.
          NOTA: O tempo das apresentações do ensaio é sistematicamente agitado por ± 500 ms.

figura 1
Figura 1: SParse-sampling Design. ( A ) Cronograma de eventos dentro de um julgamento envolvendo apenas ouvir um intervalo de dois tons (2 s), sem reprodução aberta subsequente. ( B ) Cronologia dos eventos dentro de um julgamento envolvendo tarefas de escuta e canto. Clique aqui para ver uma versão maior desta figura.

3. Análise de dados

  1. Pré-processar os dados funcionais usando um software projetado para a análise de seqüências de dados de imagem cerebral seguindo procedimentos padrão 33 .
    NOTA: Todo o processamento de dados é feito usando o mesmo software.
    1. Use a opção de menu fornecida para realinhar as imagens para o primeiro volume, reamostas e espacialmente normalizadas (tamanho do voxel final: 2 x 2 x 2 mm 3 ) ao espaço estereotáxico padrão do Instituto Neurológico de Montreal (MNI) 34 .
    2. Utilize a opção de menu fornecida para suavizar a imagem usando um kernel gaussiano de 8 mm, largura total a meio máximo (FWHM) isotrópico.
    3. Para modelar a resposta BOLD, selecione uma Resposta de Impulso Finito de uma única caixa (FIR) como uma função de base (ordem 1) ou função de vagão de caixa, cobrindo o tempo de aquisição de volume (3 s) 28 .
      NOTA: Os protocolos de amostragem esparsa, como este, geralmente não exigem que a FIR seja convolvida com a função de resposta hemodinâmica, como é comumente o caso da fMRI relacionada ao evento.
    4. Aplique um filtro passa-alto para a resposta BOLD para cada evento (1.000 s para a "rede de canto" e 360 ​​s em outro lugar).
      OBSERVAÇÃO: Modelar todas as tarefas de canto em conjunto equivalerá a um bloco de 400 s 35 .

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Todos os 11 participantes do nosso experimento foram estudantes vocais femininas no nível do conservatório, e eles realizaram bem o suficiente nas tarefas de reconhecimento de intervalo a serem selecionados para varredura. A taxa de sucesso para a tarefa de identificação do intervalo foi de 65,72 ± 21,67%, o que é, como esperado, menor que a taxa de sucesso na identificação dos intervalos dissonante e consoante, que foi de 74,82 ± 14,15%.

Para validar o desenho básico do estudo, esperamos identificar a atividade neural durante o canto nas regiões conhecidas como constituindo a "rede de canto", conforme definido em vários estudos anteriores 25 , 26 , 27 , 28 , 29 , 30 , 31 ,Ass = "xref"> 32 , 33 , 34 , 35 , 36 , 37 . O efeito do canto é observado por meio do contraste linear de primeiro nível de interesse, que corresponde ao canto em oposição à escuta. Testes t de uma amostra foram usados ​​com agrupamentos determinados por Z> 3 e um limiar de significância de cluster de p = 0,05, Erro Familiar-Sábio (FWE) corrigido 38 . Para a rotulagem anatômica, foram utilizados o SPM Anatomy Toolbox 33 eo atlas estrutural cortical e subcortical de Harvard-Oxford 39 . As regiões cerebrais onde a ativação significativa foi observada foram o córtex somatossensorial primário (S1), o córtex somatossensorial secundário (S2), o córtex motor primário (M1), a área motora suplementar (SMA), o córtex premotor (PM), a área de Brodmann 44 (BA 44), o córtex auditivo primário(PAC), o giro temporal superior (STG), o pólo temporal, a ínsula anterior, o putamen, o tálamo e o cerebelo. Essas ativações coincidem com as relatadas nos estudos citados acima em relação à "rede de canto", e estão ilustradas na Figura 2 . Observe que nas Figuras 2 e 3 ambos, a coordenada x é perpendicular ao plano sagital, a coordenada y é perpendicular ao plano coronal e a coordenada z é perpendicular ao plano transversal ou horizontal.

Uma vez validado o desenho básico, foram calculados mais dois contrastes lineares de primeiro nível para cada participante, correspondendo a intervalos dissonantes de canto em oposição aos intervalos de consoantes e aos intervalos de consoante de canto em oposição aos intervalos dissonantes. Estes contrastes lineares foram então levados para um modelo de efeitos aleatórios de segundo nível envolvendo um conjunto de análises de variáveis ​​bidireccionais de varia(ANOVA), com os fatores consonância e dissonância. Desta maneira, as áreas ativadas ou desativadas foram examinadas quanto a possíveis interações, com ativações de interesse determinadas de acordo com o limiar de voxel de significância, p <0,001, não corrigidas para comparações múltiplas 28,29. Para o contraste resultante do canto dissonante em oposição aos intervalos consoantes, foram observadas ativações aumentadas no direito S1, PAC direito, mesencéfalo esquerdo, ínsula posterior direita, amígdala esquerda e putamen esquerdo. Essas ativações são mostradas na Figura 3 . Em relação ao contraste complementar, não foram detectadas alterações significativas na ativação durante o canto de intervalos de consoantes.

Figura 2
Figura 2: Ativação em Regiões que Constituem a "Rede de Cantores". AtivarÍons são apresentados com um limiar de significância de cluster de p = 0,05, erro familiar (FWE) corrigido. As respostas BOLD são relatadas em unidades arbitrárias. Clique aqui para ver uma versão maior desta figura.

Figura 3
Figura 3: Contraste entre o canto dos intervalos de dissonante e de consoante. Os mapas de ativação são apresentados, não corrigidos para comparações múltiplas, com um limiar de significância de cluster de p = 0,001. As respostas BOLD são relatadas em unidades arbitrárias. Clique aqui para ver uma versão maior desta figura.

Intervalo Número de semitons Relação entre os fundamentos
Uníssono 0 1: 1
Segundo menor 1 16:15
Segundo maior 2 9: 8
Terceiro menor 3 6: 5
Terceiro maior 4 5: 4
Quarto perfeito 5 4: 3
Tritone 6 45:32
Quinto perfeito 7 3: 2
Menor sexto 8 8: 5
Sexta maior 9 5: 3
Sétima menor 10 16: 9
Sétima maior 11 15: 8
Oitava 12 2: 1

Tabela 1: Intervalos Musicais Consonantes e Dissonantes. Os intervalos consoantes aparecem em negrito, enquanto os intervalos dissonantes aparecem em itálico. Observe que quanto mais consoante um intervalo, menores os inteiros que aparecem na razão de freqüência usada para representá-la. Para uma discussão aprofundada da consonância e dissonância em função das razões de freqüência, ver Bidelman & Krishnan [ 40] .

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Este trabalho descreve um protocolo em que o canto é usado como um meio de estudar a atividade cerebral durante a produção de intervalos consonantais e dissonantes. Embora o canto forneça o que é possivelmente o método mais simples para a produção de intervalos musicais 22 , não permite a produção de acordes. No entanto, embora a maioria das caracterizações físicas da noção de consonância dependem, em certa medida, da superposição de notas simultâneas, vários estudos têm mostrado que os intervalos construídos com notas que correspondem a acordes consonantes ou dissonantes ainda são percebidos como consonantes ou dissonantes, Respectivamente 4 , 6 , 15 , 41 , 42 .

A tarefa de percepção do intervalo comportamental é usada para estabelecer, antes que os participantes possamEssência, se forem capazes de distinguir adequadamente os intervalos. Assim, eles funcionam bem uma vez dentro do ressonador magnético. Quaisquer participantes incapazes de atingir um limite predeterminado ao realizar essas tarefas de identificação não devem prosseguir para a experiência fMRI. O principal objetivo deste processo de seleção é assegurar que as diferenças de desempenho entre os participantes não sejam devidas a habilidades perceptivas deficiente. Os participantes escolhidos devem ter graus semelhantes de treinamento vocal e musical, e também, se possível, tessituras semelhantes. Se eles têm intervalos vocais que variam significativamente, o intervalo de intervalos apresentados durante as tarefas de canto que eles precisam executar devem ser personalizados.

A configuração do microfone é fundamental para que a aquisição seja confiável e sem artefatos. O tipo de microfone em si é muito importante, e embora seja possível usar 28 ópticos ou especialmente concebidos, MR-compatível 29 Sup>, tem sido demonstrado que a sensibilidade dos microfones condensadores não é afectada pela presença de campos magnéticos intensos no ambiente de imagem 43 . De facto, um pequeno microfone de condensador Lavalier pode ser utilizado neste contexto, desde que seja utilizado um cabo trançado blindado para ligar o microfone ao pré-amplificador, que deve ser colocado fora da sala onde o scanner MR está alojado. Este arranjo impedirá a aparência de artefatos de imagem 44 , mas os pesquisadores também devem garantir que o scanner não interfira com o desempenho do microfone. Para este fim, um tom de teste pode ser enviado através dos auscultadores compatíveis com MR para o microfone colocado no interior do scanner MR e o sinal assim obtido pode então ser comparado com o obtido pelo envio do mesmo tom para o microfone agora colocado fora O scanner. Os níveis de pressão sonora dentro do scanner MR podem ser extremamente altosXref "> 45, de modo que o microfone deve ser colocado o mais próximo possível da fonte.Por pedir aos participantes a zumbido, em vez de cantar abertamente notas, o movimento dentro e em torno da área da boca pode ser minimizada.Para colocar o microfone logo abaixo da laringe , Coberto por fita adesiva, é possível obter uma gravação fiel da voz do cantor.A gravação será naturalmente muito barulhenta - isso não pode ser evitado - mas se os pesquisadores estão principalmente interessados ​​em pitch e não na articulação ou enunciação de palavras, um Uma variedade de pacotes de software pode ser usado para limpar o sinal suficiente para a detecção da freqüência fundamental de cada nota cantada.Um método padrão seria usar software de edição de áudio para filtrar os sinais de tempo através de uma janela Hamming e, em seguida, usar a autocorrelação Algoritmos construídos em determinados pacotes de software de fonética e fonação para identificar os fundamentos cantados.A precisão vocal pode então ser calculada para cada participante.Os dados obtidos a partir das gravações incluem a correlação da precisão tonal ou rítmica com o grau de treinamento ou as distâncias de intervalo.

As imagens funcionais são adquiridas usando um projeto de amostragem esparsa de modo a minimizar a máscara BOLD ou auditiva devido ao ruído de varredura 25 , 28 , 29 , 46 , 47 . Cada sujeito passa por 3 corridas experimentais, cada uma com duração de 10 min. Durante cada corrida, os sujeitos são primeiro convidados a permanecer em silêncio durante 10 testes de linha de base silenciosos, em seguida, a ouvir passivamente para um bloco de 10 intervalos e, finalmente, ouvir e cantar de volta outro bloco de 40 intervalos. Uma finalidade de manter corridas individuais tão curto quanto possível é evitar a fadiga do participante. No entanto, desde então, concluiu-se que poderia ser melhor no futuro incluir o mesmo número de ensaios dePodem então ser apresentados em blocos alternados. Isso teria o efeito de aumentar o poder estatístico. Como exemplo, uma corrida poderia consistir de 2 blocos de 5 ensaios de linha de base silenciosos, 4 blocos de 5 ensaios apenas de escuta e 4 blocos de ensaios de canto. Os blocos seriam então apresentados aos participantes em alternância, com uma duração total de 500 s por corrida.

A principal razão para que os participantes escutem passivamente dentro do ressonador é ter um meio de subtrair a atividade auditiva da atividade motora. Assim, uma comparação favorável das ativações de canto com a "rede de canto" 25 , 27 , 28 , 29 , 36 , 37 é indispensável para a validação adequada do estudo. Note que as ativações de "rede de canto" são muito robustas e bem estabelecidas eAtravés de testes t de uma amostra e um limiar de significância de cluster corrigido de p = 0,05. As ativações correspondentes ao contraste entre os intervalos dissonante / consoante / consoante / dissonante são tipicamente identificadas por meio de análises de variância (ANOVA) de fatores repetitivos bidirecionais de acordo com o limiar de voxel de significância p <0,001, não corrigido para comparações múltiplas 28,29. Espera-se que os participantes encontrem intervalos dissonantes cantar mais desafiadores do que cantar intervalos consoantes 48 , 49 ; Assim, são antecipadas diferentes activações para cada um dos dois contrastes descritos acima. Os resultados indicam que os intervalos dissonantes de canto envolvem uma reprogramação dos mecanismos neurais recrutados para a produção de intervalos de consoantes. Durante o canto, o som produzido é comparado com o som pretendido e qualquer ajuste necessário é então alcançadoAtravés da integração do feedback externo e interno das vias auditivas e somatossensoriais. Uma discussão detalhada desses resultados e as conclusões deles extraídas está incluída no artigo de González-García, González e Rendón 30 .

Este protocolo fornece um método razoavelmente direto para o estudo dos correlatos neurais da produção musical e para monitorar a atividade tanto do sistema motor quanto auditivo. Pode ser usado para rastrear as diferenças na ativação do cérebro entre condições binárias, tais como cantar intervalos consonantes ou dissonantes e cantar intervalos estreitos ou largos 30 . Também é adequado para estudar o efeito do treinamento em uma variedade de tarefas associadas a cantar freqüências específicas. Por outro lado, por causa da grande quantidade de ruído contida nas gravações da voz cantada obtida durante a varredura, seria difícil empregar este protOcol para analisar tarefas relacionadas com a qualidade do tom ou timbre, especialmente porque estas são qualidades que não podem ser calibradas corretamente enquanto zumbem.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Os autores declaram não haver conflitos de interesse.

Acknowledgments

Os autores reconhecem o apoio financeiro para esta pesquisa do Ministério da Saúde (HIM / 2011/058 SSA. 1009), CONACYT (SALUD-2012-01-182160) e DGAPA UNAM (PAPIIT IN109214).

Materials

Name Company Catalog Number Comments
Achieva 1.5-T magnetic resonance scanner Philips Release 6.4
Audacity Open source 2.0.5
Audio interface Tascam US-144MKII
Audiometer Brüel & Kjaer Type 1800
E-Prime Professional Psychology Software Tools, Inc. 2.0.0.74
Matlab Mathworks R2014A
MRI-Compatible Insert Earphones Sensimetrics S14
Praat Open source 5.4.12
Pro-audio condenser microphone Shure SM93
SPSS Statistics IBM 20
Statistical Parametric Mapping Wellcome Trust Centre for Neuroimaging 8

DOWNLOAD MATERIALS LIST

References

  1. Burns, E. Intervals, scales, and tuning. The psychology of music. Deutsch, D. , Academic Press. London. 215-264 (1999).
  2. Lundin, R. W. Toward a cultural theory of consonance. J. Psychol. 23, 45-49 (1947).
  3. Fritz, T., Jentschke, S., et al. Universal recognition of three basic emotions in music. Curr. Biol. 19, 573-576 (2009).
  4. Schellenberg, E. G., Trehub, S. E. Frequency ratios and the discrimination of pure tone sequences. Percept. Psychophys. 56, 472-478 (1994).
  5. Trainor, L. J., Heinmiller, B. M. The development of evaluative responses to music. Infant Behav. Dev. 21 (1), 77-88 (1998).
  6. Zentner, M. R., Kagan, J. Infants' perception of consonance and dissonance in music. Infant Behav. Dev. 21 (1), 483-492 (1998).
  7. Terhardt, E. Pitch, consonance, and harmony. J. Acoust. Soc. America. 55, 1061 (1974).
  8. Minati, L., et al. Functional MRI/event-related potential study of sensory consonance and dissonance in musicians and nonmusicians. Neuroreport. 20, 87-92 (2009).
  9. Helmholtz, H. L. F. On the sensations of tone. , New York: Dover. (1954).
  10. McDermott, J. H., Lehr, A. J., Oxenham, A. J. Individual differences reveal the basis of consonance. Curr. Biol. 20, 1035-1041 (2010).
  11. Cousineau, M., McDermott, J. H., Peretz, I. The basis of musical consonance as revealed by congenital amusia. Proc. Natl. Acad. Sci. USA. 109, 19858-19863 (2012).
  12. Plomp, R., Levelt, W. J. M. Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am. 38, 548-560 (1965).
  13. Kameoka, A., Kuriyagawa, M. Consonance theory part I: Consonance of dyads. J. Acoust. Soc. Am. 45, 1451-1459 (1969).
  14. Tramo, M. J., Bharucha, J. J., Musiek, F. E. Music perception and cognition following bilateral lesions of auditory cortex. J. Cogn. Neurosci. 2, 195-212 (1990).
  15. Schellenberg, E. G., Trehub, S. E. Children's discrimination of melodic intervals. Dev. Psychol. 32 (6), 1039-1050 (1996).
  16. Peretz, I., Blood, A. J., Penhune, V., Zatorre, R. J. Cortical deafness to dissonance. Brain. 124, 928-940 (2001).
  17. Mcdermott, J. H., Schultz, A. F., Undurraga, E. A., Godoy, R. A. Indifference to dissonance in native Amazonians reveals cultural variation in music perception. Nature. 535, 547-550 (2016).
  18. Blood, A. J., Zatorre, R. J., Bermudez, P., Evans, A. C. Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nat. Neurosci. 2, 382-387 (1999).
  19. Pallesen, K. J., et al. Emotion processing of major, minor, and dissonant chords: A functional magnetic resonance imaging study. Ann. N. Y. Acad. Sci. 1060, 450-453 (2005).
  20. Foss, A. H., Altschuler, E. L., James, K. H. Neural correlates of the Pythagorean ratio rules. Neuroreport. 18, 1521-1525 (2007).
  21. Limb, C. J., Braun, A. R. Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation. PLoS ONE. 3, (2008).
  22. Zarate, J. M. The neural control of singing. Front. Hum. Neurosci. 7, 237 (2013).
  23. Larson, C. R., Altman, K. W., Liu, H., Hain, T. C. Interactions between auditory and somatosensory feedback for voice F0 control. Exp. Brain Res. 187, 613-621 (2008).
  24. Belyk, M., Pfordresher, P. Q., Liotti, M., Brown, S. The neural basis of vocal pitch imitation in humans. J. Cogn. Neurosci. 28, 621-635 (2016).
  25. Kleber, B., Veit, R., Birbaumer, N., Gruzelier, J., Lotze, M. The brain of opera singers: Experience-dependent changes in functional activation. Cereb. Cortex. 20, 1144-1152 (2010).
  26. Jürgens, U. Neural pathways underlying vocal control. Neurosci. Biobehav. Rev. 26, 235-258 (2002).
  27. Kleber, B., Birbaumer, N., Veit, R., Trevorrow, T., Lotze, M. Overt and imagined singing of an Italian aria. Neuroimage. 36, 889-900 (2007).
  28. Kleber, B., Zeitouni, A. G., Friberg, A., Zatorre, R. J. Experience-dependent modulation of feedback integration during singing: role of the right anterior insula. J. Neurosci. 33, 6070-6080 (2013).
  29. Zarate, J. M., Zatorre, R. J. Experience-dependent neural substrates involved in vocal pitch regulation during singing. Neuroimage. 40, 1871-1887 (2008).
  30. González-García, N., González, M. A., Rendón, P. L. Neural activity related to discrimination and vocal production of consonant and dissonant musical intervals. Brain Res. 1643, 59-69 (2016).
  31. Oldfield, R. C. The assessment and analysis of handedness: The Edinburgh inventory. Neuropsychologia. 9, 97-113 (1971).
  32. Samuels, M. L., Witmer, J. A., Schaffner, A. Statistics for the Life Sciences. , Pearson. Harlow. (2015).
  33. Eickhoff, S. B., et al. A new SPM toolbox for combining probabilistic cytoarchitectonic maps and functional imaging data. NeuroImage. 25, 1325-1335 (2005).
  34. Evans, A. C., Kamber, M., Collins, D. L., MacDonald, D. An MRI-based probabilistic atlas of neuroanatomy. Magnetic Resonance Scanning and Epilepsy. Shorvon, S. D., Fish, D. R., Andermann, F., Bydder, G. M., Stefan, H. 264, 263-274 (1994).
  35. Ashburner, J., et al. SPM8 Manual. , Wellcome Trust Centre for Neuroimaging. London. (2013).
  36. Özdemir, E., Norton, A., Schlaug, G. Shared and distinct neural correlates of singing and speaking. Neuroimage. 33, 628-635 (2006).
  37. Brown, S., Ngan, E., Liotti, M. A larynx area in the human motor cortex. Cereb. Cortex. 18, 837-845 (2008).
  38. Worsley, K. J. Statistical analysis of activation images. Functional MRI: An introduction to methods. , Oxford University Press. Oxford. 251-270 (2001).
  39. FSL Atlases. , Available from: https://fsl.fmrib.ox.ac.uk/fsl/fslwiki/Atlases (2015).
  40. Bidelman, G. M., Krishnan, A. Neural correlates of consonance, dissonance, and the hierarchy of musical pitch in the human brainstem. J. Neurosci. 29, 13165-13171 (2009).
  41. McLachlan, N., Marco, D., Light, M., Wilson, S. Consonance and pitch. J. Exp. Psychol. – Gen. 142, 1142-1158 (2013).
  42. Thompson, W. F. Intervals and scales. The psychology of music. Deutsch, D. , Academic Press. London. 107-140 (1999).
  43. Hurwitz, R., Lane, S. R., Bell, R. A., Brant-Zawadzki, M. N. Acoustic analysis of gradient-coil noise in MR imaging. Radiology. 173, 545-548 (1989).
  44. Ravicz, M. E., Melcher, J. R., Kiang, N. Y. -S. Acoustic noise during functional magnetic resonance imaging. J Acoust. Soc. Am. 108, 1683-1696 (2000).
  45. Cho, Z. H., et al. Analysis of acoustic noise in MRI. Magn. Reson. Imaging. 15, 815-822 (1997).
  46. Belin, P., Zatorre, R. J., Hoge, R., Evans, A. C., Pike, B. Event-related fMRI of the auditory cortex. Neuroimage. 429, 417-429 (1999).
  47. Hall, D. A., et al. "Sparse" temporal sampling in auditory fMRI. Hum. Brain Mapp. 7, 213-223 (1999).
  48. Ternström, S., Sundberg, J. Acoustical factors related to pitch precision in choir singing. Speech Music Hear. Q. Prog. Status Rep. 23, 76-90 (1982).
  49. Ternström, S., Sundberg, J. Intonation precision of choir singers. J. Acoust. Soc. Am. 84, 59-69 (1988).

Tags

Comportamento Edição 123 Consonância e dissonância correlação neural da música identificação do intervalo musical canto ressonância magnética funcional (fMRI) integração áudio-vocal
Mapeamento fMRI da atividade cerebral associada à produção vocal de intervalos de consonância e dissonante
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

González-García, N.,More

González-García, N., Rendón, P. L. fMRI Mapping of Brain Activity Associated with the Vocal Production of Consonant and Dissonant Intervals. J. Vis. Exp. (123), e55419, doi:10.3791/55419 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter