Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Usando a desigualdade de modelo de corrida para quantificar efeitos de integração multissensorial comportamental

Published: May 10, 2019 doi: 10.3791/59575

Summary

O presente estudo tem como objetivo fornecer um tutorial passo-a-passo para o cálculo da magnitude dos efeitos de integração multissensorial em um esforço para facilitar a produção de estudos de pesquisa translacionais em diversas populações clínicas.

Abstract

A pesquisa de integração multissensorial investiga como o cérebro processa informações sensoriais simultâneas. Pesquisas sobre animais (principalmente gatos e primatas) e humanos revelam que a integração multissensorial intacta é crucial para o funcionamento no mundo real, incluindo atividades cognitivas e físicas. Grande parte da pesquisa realizada ao longo das últimas décadas documenta efeitos de integração multissensorial usando diversas técnicas psicofísicas, eletrofisiológicas e de neuroimagem. Enquanto sua presença tem sido relatada, os métodos utilizados para determinar a magnitude dos efeitos de integração multissensorial varia e geralmente enfrenta muita crítica. No que se segue, as limitações dos estudos comportamentais anteriores são delineadas e um tutorial passo a passo para calcular a magnitude dos efeitos de integração multissensorial usando modelos de probabilidade robustos é fornecido.

Introduction

As interações entre os sistemas sensoriais são essenciais para as funções diárias. Embora os efeitos de integração multissensorial sejam medidos em uma ampla variedade de populações usando combinações sensoriais variadas e diferentes abordagens de neurociência [incluindo, mas não limitado ao psicofísico, eletrofisiológico e neuroimagem metodologias]1,2,3,4,5,6,7,8,9, atualmente um padrão ouro para quantificando a integração multissensorial. Dado que experimentos multissensoriais tipicamente contêm um componente comportamental, os dados do tempo de reação (RT) são freqüentemente examinados para determinar a existência de um fenômeno conhecido chamado efeito de sinais redundantes10. Como o próprio nome sugere, os sinais sensoriais simultâneos fornecem informações redundantes, que normalmente produzem RTs mais rápidos. modelos de raça e de coativação são usados para explicar o efeito de sinais redundantes acima mencionados11. modelos de corrida, o sinal unisensory que é processado o mais rápido é o vencedor da corrida e é responsável por produzir a resposta comportamental. No entanto, evidências de coativação ocorrem quando as respostas aos estímulos multissensoriais são mais rápidas do que os modelos de corrida preveem.

Versões anteriores do modelo de corrida são intrinsecamente controverso12,13 como eles são referidos por alguns como excessivamente conservador14,15 e supostamente conter limitações sobre a independência entre os tempos de detecção unisensory constituintes inerentes à condição multissensorial16. Em um esforço para abordar algumas dessas limitações, Colonius & Diederich16 desenvolveu um teste de modelo de corrida mais convencional:

Equation 1,

Quando as frequências de distribuição cumulativa (CDFs) das condições unisensory (por exemplo, A & B; com um limite superior de um) são comparadas com a CDF da condição multisensorial simultânea (por exemplo, AB) para qualquer latência (t)11, 16 anos de , 17. em geral, um CDF determina a frequência com que ocorre uma RT, dentro de um determinado intervalo de RTS, dividido pelo número total de apresentações de estímulos (ou seja, ensaios). Se o CDF da condição Equation 2 multisensorial real for menor ou igual ao CDF previsto derivado das condições unisensory

Equation 3,

Então o modelo da raça é aceitado e não há nenhuma evidência para a integração sensorial. No entanto, quando o CDF multisensorial é maior do que o CDF previsto derivado das condições unisensory, o modelo de corrida é rejeitado. A rejeição do modelo de raça indica que as interações multissensoriais de fontes sensoriais redundantes combinam de forma não linear, resultando em uma aceleração de RTs (por exemplo, facilitação de RT) para estímulos multisensoriais.

Um obstáculo principal que os investigadores multisensoriais enfrentam é como melhor quantificar os efeitos de integração. Por exemplo, no caso do paradigma multisensorial comportamental mais básico, onde os participantes são solicitados a realizar uma tarefa de tempo de reação simples, informações sobre precisão e velocidade são coletadas. Tais dados multissensoriais podem ser usados no face-valor ou manipulados usando várias aplicações matemáticas, incluindo mas não limitado a estimativa máxima de verossimilhança18,19, CDFs11, e várias outras estatísticas Abordagens. A maioria dos nossos estudos multisensoriais anteriores empregou abordagens quantitativas e probabilísticas em que os efeitos integrativos multissensoriais foram calculados por 1) subtraindo o tempo médio de reação (RT) a um evento multissensorial a partir do tempo médio de reação ( RT) ao evento unisensory mais curto, e 2) empregando CDFS para determinar se a facilitação de RT resultou das interações sinérgica facilitadas pela informação sensorial redundante8,20,21, 22 anos de , 23. no entanto, a metodologia anterior provavelmente não era sensível às diferenças individuais nos processos integrativos e os pesquisadores, desde então, postularam que a metodologia posterior (ou seja, CDFS) pode fornecer um melhor proxy para quantificar efeitos integrativos24.

Gondan e Minakata recentemente publicou um tutorial sobre como testar com precisão a raça modelo desigualdade (RMI), uma vez que os pesquisadores muitas vezes fazem inúmeros erros durante a aquisição e pré-processamento estágios de RT coleta de dados e preparação25. Primeiramente, os autores postular que é desfavorável para aplicar os procedimentos de aparamento de dados onde determinados a priori mínimos e máximos limites de RT são ajustados. Eles recomendam que respostas lentas e omitidas sejam definidas como infinito, em vez de excluídas. Em segundo lugar, dado que a RMI pode ser violada em qualquer latência, vários testes t são freqüentemente usados para testar a RMI em diferentes pontos de tempo (ou seja, quantis); Infelizmente, essa prática leva ao aumento do erro tipo I e reduziu substancialmente o poder estatístico. Para evitar esses problemas, é recomendável que o RMI seja testado em um intervalo de tempo específico. Alguns pesquisadores sugeriram que faz sentido testar o quartil mais rápido de respostas (0-25%)26 ou algumas janelas pré-identificadas (ou seja, 10-25%)24,27 como efeitos de integração multissensorial são tipicamente observados durante esse intervalo de tempo; no entanto, argumentamos que o intervalo de percentil a ser testado deve ser ditado pelo conjunto de dados real (consulte a seção de protocolo 5). O problema de depender de dados publicados de jovens adultos ou simulações de computador é que os adultos mais velhos manifestam distribuições RT muito diferentes, provavelmente devido aos declínios relacionados à idade em sistemas sensoriais. Teste de significância do modelo de corrida só deve ser testado sobre porções violadas (valores positivos) da onda de diferença de média de grupo entre CDFs reais e preditos da coorte de estudo.

Para tal, foi demonstrado um efeito protetor da integração multissensorial em idosos saudáveis, utilizando o teste convencional do modelo de corrida16 e os princípios estabelecidos por gondan e os colegas25 . De fato, a maior magnitude da RMI Visual-somatossensorial (um proxy para a integração multissensorial) foi encontrada para ser associada a um melhor desempenho do equilíbrio, menor probabilidade de quedas de incidentes e aumento do desempenho espacial da marcha28,29.

O objetivo do experimento atual é fornecer aos pesquisadores um tutorial passo a passo para calcular a magnitude dos efeitos de integração multissensorial usando a RMI, para facilitar o aumento da produção de diversos estudos translacionais de pesquisa em todo muitas populações clínicas diferentes. Note-se que os dados apresentados no presente estudo são de experimentos Visual-somatosensory recentemente publicados conduzidos em adultos mais velhos saudáveis28,29, mas esta metodologia pode ser aplicada a várias coortes em muitos diferentes experimentos experimentais, utilizando um vasto leque de combinações multissensoriais.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Todos os participantes forneceram consentimento informado por escrito aos procedimentos experimentais, que foram aprovados pelo Conselho de revisão institucional do colégio Albert Einstein de medicina.

1. recrutamento participante, critérios de inclusão e consentimento

  1. Recrute uma coorte relativamente grande de indivíduos de língua inglesa que podem deambular de forma independente e estão livres de perda sensorial significativa; transtornos neurológicos ou psiquiátricos ativos que interferem nas avaliações experimentais; e procedimentos médicos atuais/futuros que afetam a mobilidade.
  2. Assegure-se de que cada participante possa concluir com sucesso um exame de triagem sensorial, onde a acuidade visual, auditiva e somatossensorial são formalmente testadas para confirmar a adequação do estudo.
    1. Use a carta de olho de Snellen para assegurar-se de que a acuidade visual bilateral seja melhor do que ou igual a 20/100.
    2. Use um otoscópio emitindo Tom para assegurar-se de que os participantes estejam em um mínimo capaz de ouvir um tom de 2.000 hertz em 25 dB30.
    3. Determinar se os participantes mantêm um diagnóstico de neuropatia clínica e se interfere na capacidade de sentir a estimulação somatossensorial experimental21,28,29.
    4. Se o participante não conseguir cumprir estes requisitos sensoriais mínimos, não os inclua no estudo.
  3. Excluir idosos com demência por meio da implementação de escores de corte de instrumentos de triagem confiáveis, como o escore de corte da entrevista de AD8 demência ≥ 2 31,32; e a tela de imparidade de memória MIS; Pontuação de corte < 533.
  4. Os participantes fornecerão consentimento informado por escrito aos procedimentos experimentais (aprovados por um Comitê de revisão institucional local) se estiverem dispostos a participar.

2. projeto experimental

  1. Use o software de apresentação de estímulo para programar um experimento de tempo de reação simples com três condições experimentais: somente Visual (V), somatossensorial (S), e Visual-somatosensorial simultânea (VS). Informe os participantes para responder a cada estímulo sensorial, independentemente da condição, o mais rápido possível. Consulte arquivos suplementares para obter um exemplo de uma tarefa de RT simples do VS (arquivo complementar 1).
    1. Use um gerador de estímulo com três caixas de controle (30,48 mm × 20,32 mm × 12,70 mm) e carcaça de plástico para estimuladores. As caixas de controle esquerdo e direito contêm diodos emissores de luz azuis bilaterais (LEDs; 15,88 cm de diâmetro) que iluminam para estimulação visual e motores bilaterais com amplitude de vibração de 0,8 G que vibram para estimulação somatossensorial (equivalente a um vibração celular)22,23,28.
    2. Assegure-se de que os geradores do estímulo forneçam o unisensory (Visual ou somatosensory sozinho), assim como a estimulação multissensorial (Visual e somatosensory simultânea). Coloque uma caixa de controle do manequim central equidistante (28 cm) das caixas de controle esquerdas e direitas descritas em 2.1.1. e afixar uma etiqueta visual do alvo (círculo central do diâmetro de 0,4 cm) para serir como o ponto da fixação.
    3. Conecte o gerador do estímulo ao computador experimental através da porta paralela que permite o controle direto para cada stimulator.
    4. Programe o software da apresentação do estímulo para emitir pulsos do transistor-transistor-Logic (TTL, 5 V) aos geradores do estímulo do disparador sobre e fora diretamente através da porta paralela. Ajuste o tempo da apresentação do estímulo a 100 ms na duração.
  2. No software da apresentação do estímulo, programe um mínimo de 3 blocos experimentais cada um que consiste em 45 experimentações (15 experimentações de cada condição do estímulo apresentada na ordem aleatória) para um total de 135 apresentações do estímulo para esta experiência simples do tempo de reação.
  3. Varie o intervalo inter-estímulo aleatoriamente entre 1 e 3 s para evitar efeitos antecipatórios. Alternativamente, os testes da captura da inserção onde os parâmetros do estímulo são os mesmos que acima, mas o pulso do TTL não é emitido, assim nenhuma estimulação visual ou somatosensory ocorre e, conseqüentemente, nenhuma resposta é esperada.
  4. Permitir que os participantes até 2.000 MS para responder a qualquer condição de estímulo dado. Se nenhuma resposta for detectada dentro do período de resposta de 2.000 MS, assegure-se de que o software da apresentação do estímulo avance automaticamente à experimentação seguinte.
    Nota: este corte de janela de resposta é arbitrário, mas necessário para manter o tempo total experimental para um mínimo; Observe que o RTs mais longo será definido como infinito independentemente.
  5. Separe os três blocos experimentais programando quebras de 20 s no software de apresentação de estímulo para reduzir a fadiga potencial e aumentar a concentração. Assegure-se de que cada bloco subseqüente comece imediatamente depois que a ruptura 20-s termina.
  6. Programe instruções escritas para aparecer na exibição Visual (monitor do computador experimental). As instruções exatas são fornecidas no material suplementar. Peça ao participante para iniciar o experimento empurrando a almofada de resposta com o pé direito quando estiver pronto para começar. Uma vez que os parâmetros de estímulo são programados, o software de apresentação de estímulo cria um script que deve ser executado em cada participante.
  7. Forneça o ID do participante e o número da sessão a fim executar o script experimental. Depois que o experimento for concluído, um log de dados comportamentais exclusivo é produzido para cada participante (consulte arquivo complementar 2 para um arquivo de saída eprime 2,0 de exemplo).

3. aparelho & tarefa

  1. Ter participantes sentar-se ereto e confortavelmente descansar as mãos sobre as caixas de controle esquerdo e direito.
    1. Posicione estrategicamente os dedos do índice sobre os motores vibratórios montados na parte de trás da caixa de controle, e os polegares na parte frontal da caixa de controle, o LED para não bloquear a luz (veja a Figura 1).
    2. Assegure-se de que os estímulos somatosensory sejam inaudíveis fornecendo participantes com os auscultadores sobre que o ruído branco contínuo é jogado em um nível confortável (tipicamente 65-75 dBs).
  2. Instrua os participantes a responder a todos os estímulos o mais rápido possível.
    1. Peça aos participantes que usem um pedal localizado o pé direito como a almofada de resposta, já que os dedos aceitarão estimulação somatossensorial (ver Figura 1).
  3. Calcule a exatidão do desempenho pela condição do estímulo.
    1. Instrua os participantes a responder a cada um dos estímulos experimentais (45 por condição) o mais rápido possível.
    2. Divida o número de estímulos detectados com precisão por condição acima de 45 (número total de ensaios por condição) para obter medidas de precisão de desempenho para condições visuais, somatossensoriais e VS, respectivamente.

4. raça modelo desigualdade preparação de dados (nível individual)

  1. Determine se o desempenho comportamental de um indivíduo é válido.
    1. Excluir os participantes que não são capazes de atingir uma precisão de 70% correto ou maior em qualquer condição de um estímulo como a precisão de desempenho do participante em uma tarefa de tempo de reação simples diminui, assim como a confiabilidade dos dados do indivíduo.
    2. Considere as provações imprecisas (omitidas) se um participante não responder a um estímulo dentro do período de tempo de resposta definido e definir o RT correspondente ao infinito em vez de excluir o teste da análise25,28.
      Nota: em estudos prévios, a detecção de estímulos em média (n = 289) foi de 96% em todas as condições, e mais de 90% da população apresentou taxas de detecção acima de 90% para todas as condições28.
    3. Não empregue os procedimentos de aparamento de dados que excluem RTs muito lentos, pois isso irá distorcê-los na distribuição de dados RT. 25 garantir RTS que são claramente Outliers são definidos para infinito. Ver arquivo complementar retratando alterações em CDFs com base em procedimentos de aparamento de dados e inclusão de RTs lentos (arquivo complementar 3).
  2. Organize os dados RT.
    1. Classifique dados RT em ordem crescente pela condição experimental. Coloque as condições visuais, somatossensoriais e VS em colunas separadas de dados RT classificados. Verifique se cada linha representa uma avaliação e cada célula representa o RT real (ou infinito no caso de tentativas omitidas ou lentas).
  3. Escaneie os dados RT.
    1. Identifique o RT mais rápido (para qualquer condição-elipse laranja) e o RT mais lento (para qualquer condição-elipse vermelha). Subtrair o RT mais lento do mais rápido (por exemplo, 740 MS – 237 MS) para calcular o intervalo RT do indivíduo (503ms; elipse azul) em todas as condições de teste. A tabela 1 demonstra como calcular o intervalo RT de um indivíduo e retrata as várias elipses de cores.
    2. Os dados do bin RT do 0% (RT mais rápido = 237 neste exemplo) para o 100% (ou mais lento RT = 740 neste exemplo) em incrementos de 5%, tomando o RT mais rápido e gradualmente adicionando 5% do intervalo RT identificado em 4.3.1 até 100% dos dados RT é contabilizado (ver tabela 2 ). Isso resultará em caixas de 21 horas.
      Nota: na tabela 2-1% Ile só está incluído na folha de cálculo apenas para fins ilustrativos.
  4. Calcule a frequência de distribuição cumulativa (CDF) para as condições experimentais.
    1. Usando o software de planilha, use uma função "FREQUENCY" onde Matriz1 é igual a RTs real para uma das condições experimentais e matriz2 é igual a 21 posições RTs quantizadas calculadas na etapa 4,3, dividido pelo número total de ensaios (45) por condição. Isso é ilustrado na Figura 2a.
    2. Repita esta função para as outras duas condições experimentais (Figura 2b-2C) de modo a preencher as frequências (ou probabilidade (P)) de uma RT ocorrendo dentro de cada uma das 21 caixas de tempo quantizadas, para cada uma das três condições experimentais.
    3. Em seguida, crie a frequência de distribuição cumulativa (CDF) somando o total de probabilidades em execução nas caixas quantizadas (0%, 0 + 5%, 0 + 5 + 10%, 0 + 5 + 10 + 15%, etc.) para cada uma das três condições experimentais. Por exemplo, na coluna de probabilidade cumulativa para a condição soma (coluna AE), a probabilidade cumulativa para o intervalo de 95% Ile (célula AE22) é a somatória dos valores de probabilidade nas células Z3: Z23 (consulte a Figura 3).
  5. CDFs reais vs. previstos.
    1. Assegure-se de que o CDF da condição multissensorial represente o CDF real (veja Figura 4 coluna AF e traço roxo plotado). Para calcular o CDF previsto (coluna AG), somar os dois CDFS unisensory (com um limite superior definido como 1) em cada um dos 21 compartimentos de tempo quantizados (consulte a Figura 5). Comece pelo percentil 0 (posição 1) e continue até o percentil 100ésimo (bin 21).
  6. Conduza o teste da desigualdade do modelo da raça (RMI).
    1. Subtrair o CDF previsto (calculado em 4.5.2.) do CDF real para cada um dos 21 compartimentos de tempo quantizados para obter os valores de diferença (coluna Ah; ver Figura 6).
    2. Plotar esses 21 valores como um gráfico de linhas, onde o eixo x representa cada um dos compartimentos de tempo quantizados (coluna AC) e o eixo y representa a diferença de probabilidade entre os CDFs reais e previstos (coluna AH; Figura 7 (traço preto).
    3. Verifique se há valores positivos em qualquer latência (ou seja, quantis) que indicam a integração dos estímulos unisensory e refletem uma violação da RMI (veja a porção verde destacada da onda de diferença de 0, 0 – 0,10 na Figura 7).

5. quantificação do efeito multissensorial (nível de grupo).

  1. Agrupe-a média dos dados individuais RMI (diferenças entre o CDF previsto e o CDF real para cada um dos 21 compartimentos de tempo; etapa 4.6.1-coluna Ah) em todos os participantes. Use um software de planilha para atribuir indivíduos a linhas e compartimentos de tempo como colunas. Em uma nova planilha, coloque os 21 valores calculados em 4.6.1 em linhas individuais (1 linha por participante) e valores médios dentro dos compartimentos de tempo para criar uma forma de onda de diferença de média de grupo.
  2. Plotar os valores médios do grupo 21 como um gráfico de linhas, onde o eixo x representa cada um dos compartimentos de tempo quantizados e o eixo y representa a diferença de probabilidade entre CDFs.
  3. Inspecione visualmente e documente a porção violada da onda de diferença de média de grupo (i.e., valores positivos).
  4. Executar o teste de permutação RMI de Gondan (script R disponível como download gratuito)26 para determinar se há uma violação estatisticamente significativa do RMI sobre os valores positivos identificados na etapa 5,3.
    1. Organize os dados em um arquivo de texto em que a primeira coluna é denominada "OBS" para observador (por exemplo, ID do participante), a segunda coluna é denominada "Cond" para condição de estímulo (V, S ou VS) e a terceira coluna é denominada "RT" para RT real ou "inf" se definido como infinito.
    2. Abra o software, identifique quais compartimentos de horário devem ser testados (com base nos compartimentos de tempo positivos identificados em 5,3) e insira o nome do arquivo de texto criado em 5.4.1.
    3. Execute o teste chamando o script. Os resultados fornecerão um valor tMax, um critério de 95% e um valor de p que será fundamental para determinar se uma violação significativa do modelo de corrida existe em toda a amostra do estudo.
  5. Calcule a área a curva (AUC) para cada indivíduo depois de estabelecer os compartimentos de percentis significativamente violados na etapa 5,3. A AUC servirá como a magnitude da integração multissensorial (ou da variável independente). Para calcular a AUC, use os dados do participante 1 como exemplo, para os compartimentos percentuais 0, 0-0,15 representados na figura 8a-d).
    1. Soma o valor da diferença CDF no tempo bin 1 (1St tempo valor positivo) com o valor de diferença CDF de tempo bin 2 (próximo valor positivo) e, em seguida, dividir por dois (ver figura 8a). Repita o passo 5.3.1. para cada par consecutivo de compartimentos de tempo que contenham valores positivos (ver Figura 8B-8C).
    2. Soma os resultados obtidos a partir das etapas 5.5.1-5.5.2. para gerar a AUC total da onda de diferença do CDF durante o intervalo de percentil violado (por exemplo, 0, 0 – 0,15 na Figura 8D).
      Nota: a AUC é uma medida contínua e um valor de AUC está presente para cada indivíduo para a porção violada da RMI (elipse vermelha daFigura 8D = auc do participante 1 = 0,13). A auc pode ser utilizada como uma variável independente que represente "magnitude da vs integração", que pode posteriormente ser testada para prever medidas clínicas importantes de desfecho (ver também28,29).
  6. Atribua grupos de classificação de integração multissensorial com base no número de compartimentos de percentis violados (valores maiores que zero destacados em cinza na tabela 3) durante o intervalo percentual significativamente violado identificado acima na etapa 5,3. Olhando para a tabela 3 (caixotes do percentil 0, 0 – 0,15): o participante 1 tem valores positivos para 2 de 4 compartimentos; O participante 2 tem valores positivos para 4 dos 4 compartimentos; e o participante 3 tem valores positivos para 0 de 4 compartimentos.
    1. Operacionalize um sistema de classificação com base no número de compartimentos de percentis violados (valores maiores que zero para 0, 1, 2 ou 3 compartimentos) durante o percentil 0-10th .
    2. A Figura 9 retrata uma definição de classificação potencial que é adaptada a partir de dados publicados recentemente apresentados por Mahoney e ver,29.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

O objetivo deste estudo foi fornecer um tutorial passo a passo de uma abordagem metódica para quantificar a magnitude dos efeitos da integração VS, para fomentar a publicação de novos estudos multissensoriais usando designs e configurações experimentais semelhantes (ver Figura 1 ). As capturas de tela de cada etapa e cálculo necessários para derivar a magnitude dos efeitos de integração multissensorial, conforme medido pela AUC da RMI, são delineadas acima e ilustrados nas figuras 2-8.

A Figura 9 demonstra uma violação de média de grupo (traço tracejado) que ocorre sobre o intervalo de percentil de 0-10% para uma amostra de 333 idosos (ver também29). Aqui, o número total de valores positivos (0, 1, 2 ou 3) para os 3 quantis (0, 0-0,10) determina qual grupo de classificação multisensorial uma pessoa é atribuída (deficiente, pobre, boa ou superior), respectivamente.

Conforme descrito na Figura 9, os resultados de média de grupo demonstram uma violação significativa do modelo de corrida ao longo do décimo mais rápido de todos os tempos de resposta26. Enquanto esta forma de onda diferença em grupo sugere que, em média, os adultos mais velhos demonstram violação do modelo de corrida significativa (ou seja, efeitos de integração multissensorial), argumentamos que este não é um tamanho único cabe todos os modelos. Em vez disso, a AUC do indivíduo o período de tempo violado (0-10% Ile) fornece um melhor proxy para avaliar a magnitude do indivíduo de integração VS, como padrões de integração diferencial foram documentados 20-23, 28, 29. Uma vez calculado, a magnitude individual da integração de VS pode servir como um preditor contínuo de resultados importantes em várias populações clínicas.

Recomendamos a implementação de um sistema de classificação, talvez com base no número de compartimentos de percentis violados (valores maiores que zero) durante o período de violação de RMI com média de grupo, como um meio de descrever padrões de integração diferencial inerentes. A classificação dos dados desta maneira revelará uma degradação desobstruída da violação do modelo da raça pelo grupo multissensorial da classificação da integração.

Figure 1
Figura 1: Aparelho experimental. Usando um pedal localizado o pé direito como uma almofada de resposta, os participantes foram convidados a responder aos estímulos unisensory e multissensorial o mais rapidamente possível. Esta figura foi reimpressa com permissão22,28,29. Por favor clique aqui para ver uma versão maior desta figura.

Figure 2
Figura 2: Calculando a frequência de um RT ocorrendo dentro de um intervalo especificado de RTS para cada condição experimental. a) Visual (V); b) somatossensorial (S); e c) Visual-somatosensorial (VS). Por favor clique aqui para ver uma versão maior desta figura.

Figure 3
Figura 3: Criar a frequência de distribuição cumulativa para as condições experimentais. Esta figura retrata a somatória da probabilidade cumulativa no escaninho de 95% Ile para a condição de soma (S). Por favor clique aqui para ver uma versão maior desta figura.

Figure 4
Figura 4: Traçando o CDF real (condição vs; traço roxo) como uma função de Quantil. Por favor clique aqui para ver uma versão maior desta figura.

Figure 5
Figura 5: Calculando o CDF previsto. Soma os CDFs dos dois CDFS unisensory ao incluir um limite superior = 1 para cada um dos quantis de 0, 0 a 1, 0. Por favor clique aqui para ver uma versão maior desta figura.

Figure 6
Figura 6: criar a desigualdade de modelo de corrida (RMI). Subtrair o CDF do CDF previsto do CDF real para cada Quantil. Por favor clique aqui para ver uma versão maior desta figura.

Figure 7
Figura 7: plotar os valores individuais de RMI. O eixo x representa cada um dos 21 quantis (coluna AC) e o eixo y representa a diferença de probabilidade entre CDFS (coluna Ah). A porção verde destacada da RMI retrata a porção positiva ou violada da forma de onda, indicativo de integração multissensorial. Por favor clique aqui para ver uma versão maior desta figura.

Figure 8
Figura 8: calculando a área a curva (AUC) de um indivíduo. a) somar o valor da diferença de CDF no Quantil 1 (0, 0) com o valor de diferença de CDF do Quantil 2 (0, 5) e, em seguida, dividir por dois para criar uma medida de AUC de 0, 0-0, 5. b-c) Repita a etapa a) para cada par consecutivo de quantis (por exemplo, 0, 5-0,10 e 0,10-0,15) para alcançar o auc para cada escala do Quantil. d) soma a AUC para cada intervalo de compartimento de tempo para obter a AUC total para toda a janela do compartimento de tempo identificada em 5,3. Observe que este exemplo inclui um intervalo de Quantil mais amplo (0, 0-0,15) apenas para fins ilustrativos. Por favor clique aqui para ver uma versão maior desta figura.

Figure 9
Figura 9: desigualdade de modelo de corrida: geral e por classificação de grupo. A diferença de média de grupo entre CDFs reais e previstos sobre a trajetória de todos os quantis é representada pelo traço tracejado. Os traços sólidos representam cada uma das quatro classificações de integração multissensorial definidas acima com base no número de escaninhos de Quantil violados. Esta figura adaptada foi reimpressa com permissão29. Por favor clique aqui para ver uma versão maior desta figura.

Arquivo complementar 1: amostra de tempo de reação simples paradigma programado em Eprime 2,0. Por favor, clique aqui para baixar este arquivo.

Arquivo complementar 2: Saída de dados comportamentais de dados RT de exemplo da Eprime 2,0. Por favor, clique aqui para baixar este arquivo.

Arquivo complementar 3: Dados de exemplo RMI com e sem exceções e testes omitidos. Por favor, clique aqui para baixar este arquivo.

Tabela 1. Estatística descritiva individual por condição e cálculo de intervalo RT. Por favor, clique aqui para baixar este arquivo.

Tabela 2. Exemplo de como Escaneie dados RT com base no intervalo RT. Por favor, clique aqui para baixar este arquivo.

Tabela 3. Exemplo de cálculo da AUC & identificação de n º de quantis violados (área sombreada cinzenta). Por favor, clique aqui para baixar este arquivo.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

O objetivo do estudo atual foi detalhar o processo por trás do estabelecimento de um fenótipo de integração multissensorial robusto. Aqui, fornecemos as etapas necessárias e críticas necessárias para adquirir efeitos de integração multissensorial que podem ser utilizados para prever importantes desfechos cognitivos e motores que dependem de circuitos neurais semelhantes. Nosso objetivo geral era fornecer um tutorial passo-a-passo para calcular a magnitude da integração multissensorial em um esforço para facilitar estudos inovadores e multissensoriais translacionais em diversas populações clínicas e faixas etárias.

Como mencionado acima e delineado por gondan e colegas, é muito importante preservar o conjunto de dados RT do indivíduo25,28. Ou seja, evite os procedimentos de aparamento de dados que omitem RTs muito lentos, dado seu viés inerente à distribuição RT; 25 em vez disso, defina o RTS omitido e lento para o infinito. Esta etapa é crítica e o fracasso em respeitar essas regras simples levará ao desenvolvimento de resultados de integração multissensorial imprecisos. Adicionalmente, o teste do significado do modelo da raça deve somente ser testado sobre as porções violadas grupo-médias do RMI identificados na coorte do estudo (isto é, não a priori especificou janelas).

Em termos de limitações, o desenho experimental atual foi baseado em dados de uma tarefa de tempo de reação simples para estímulos bilaterais que foram apresentados no mesmo local e precisamente ao mesmo tempo. Nós reconhecemos que diversas adaptações ao projeto experimental atual podem ser feitas dependendo em cima das várias hipóteses que os investigadores estão interessados em examinar. Utilizamos este estudo como um bloco de lançamento para documentar os efeitos robustos do MSI no envelhecimento, mas reconhecemos que a implementação de várias adaptações experimentais (por exemplo, diferentes combinações bi-e até mesmo Tri-sensoriais, tempos de início de apresentação de estímulos variados, e magnitude diferencial da intensidade do estímulo) fornecerá uma riqueza de informações incrementais sobre este fenômeno multissensorial.

Implementamos a abordagem acima para demonstrar associações significativas entre a magnitude da integração Visual-somatossensorial com o equilíbrio28 e o incidente cai28, onde idosos com maior integração multissensorial habilidades manifestam melhor desempenho de equilíbrio e menos quedas de incidentes. Da mesma forma, demonstramos que a magnitude da integração Visual-somatossensorial foi um forte preditor de aspectos espaciais da marcha29, onde indivíduos com pior integração Visual-somatossensorial demonstraram velocidade de marcha mais lenta, avanços mais curtos, e maior apoio duplo. No futuro, essa metodologia deve ser utilizada para desvendar a relação da MSI com outros desfechos clínicos importantes, como o estado cognitivo, e auxiliar na identificação de redes neurais integrativas multissensoriais funcionais e estruturais no envelhecimento e outras populações clínicas.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Não há conflitos de interesse para relatar e os autores não têm nada a divulgar.

Acknowledgments

O atual corpo de trabalho é apoiado pelo Instituto Nacional de envelhecimento no Instituto Nacional de saúde (K01AG049813 a JRM). O financiamento suplementar foi fornecido pelo centro de Gerontologia Resnick da faculdade de medicina Albert Einstein. Agradecimentos especiais a todos os voluntários e equipe de pesquisa para o apoio excepcional com este projeto.

Materials

Name Company Catalog Number Comments
stimulus generator Zenometrics, LLC; Peekskill, NY, USA n/a custom-built
Excel Microsoft Corporation spreadsheet program
Eprime Psychology Software Tools (PST) stimulus presentation software

DOWNLOAD MATERIALS LIST

References

  1. Foxe, J., et al. Auditory-somatosensory multisensory processing in auditory association cortex: an fMRI study. Journal of Neurophysiology. 88 (1), 540-543 (2002).
  2. Molholm, S., et al. Multisensory auditory-visual interactions during early sensory processing in humans: a high-density electrical mapping study. Brain Research: Cognitive Brain Research. 14 (1), 115-128 (2002).
  3. Murray, M. M., et al. Grabbing your ear: rapid auditory-somatosensory multisensory interactions in low-level sensory cortices are not constrained by stimulus alignment. Cerebral Cortex. 15 (7), 963-974 (2005).
  4. Molholm, S., et al. Audio-visual multisensory integration in superior parietal lobule revealed by human intracranial recordings. Journal of Neurophysiology. 96 (2), 721-729 (2006).
  5. Peiffer, A. M., Mozolic, J. L., Hugenschmidt, C. E., Laurienti, P. J. Age-related multisensory enhancement in a simple audiovisual detection task. Neuroreport. 18 (10), 1077-1081 (2007).
  6. Brandwein, A. B., et al. The development of audiovisual multisensory integration across childhood and early adolescence: a high-density electrical mapping study. Cerebral Cortex. 21 (5), 1042-1055 (2011).
  7. Girard, S., Collignon, O., Lepore, F. Multisensory gain within and across hemispaces in simple and choice reaction time paradigms. Experimental Brain Research. 214 (1), 1-8 (2011).
  8. Mahoney, J. R., Li, P. C., Oh-Park, M., Verghese, J., Holtzer, R. Multisensory integration across the senses in young and old adults. Brain Research. 1426, 43-53 (2011).
  9. Foxe, J. J., Ross, L. A., Molholm, S. Ch. 38. The New Handbook of Multisensory Processing. Stein, B. E. , The MIT Press. 691-706 (2012).
  10. Kinchla, R. Detecting target elements in multielement arrays: A confusability model. Perception and Psychophysics. 15, 149-158 (1974).
  11. Miller, J. Divided attention: Evidence for coactivation with redundant signals. Cognitive Psychology. 14 (2), 247-279 (1982).
  12. Eriksen, C. W., Goettl, B., St James, J. D., Fournier, L. R. Processing redundant signals: coactivation, divided attention, or what? Perception and Psychophysics. 45 (4), 356-370 (1989).
  13. Mordkoff, J. T., Yantis, S. An interactive race model of divided attention. Journal of Experimental Psychology: Human Perception and Performance. 17 (2), 520-538 (1991).
  14. Miller, J. Timecourse of coactivation in bimodal divided attention. Perception and Psychophysics. 40 (5), 331-343 (1986).
  15. Gondan, M., Lange, K., Rosler, F., Roder, B. The redundant target effect is affected by modality switch costs. Psychonomic Bulletin Review. 11 (2), 307-313 (2004).
  16. Colonius, H., Diederich, A. The race model inequality: interpreting a geometric measure of the amount of violation. Psychological Review. 113 (1), 148-154 (2006).
  17. Maris, G., Maris, E. Testing the race model inequality: A nonparametric approach. Journal of Mathematical Psychology. 47 (5-6), 507-514 (2003).
  18. Clark, J. J., Yuille, A. L. Data Fusion for Sensory Information Processing Systems. , Kluwer Academic. (1990).
  19. Ernst, M. O., Banks, M. S. Humans integrate visual and haptic information in a statistically optimal fashion. Nature. 415 (6870), 429-433 (2002).
  20. Mahoney, J. R., Verghese, J., Dumas, K., Wang, C., Holtzer, R. The effect of multisensory cues on attention in aging. Brain Research. 1472, 63-73 (2012).
  21. Mahoney, J. R., Holtzer, R., Verghese, J. Visual-somatosensory integration and balance: evidence for psychophysical integrative differences in aging. Multisensory Research. 27 (1), 17-42 (2014).
  22. Mahoney, J. R., Dumas, K., Holtzer, R. Visual-Somatosensory Integration is linked to Physical Activity Level in Older Adults. Multisensory Research. 28 (1-2), 11-29 (2015).
  23. Dumas, K., Holtzer, R., Mahoney, J. R. Visual-Somatosensory Integration in Older Adults: Links to Sensory Functioning. Multisensory Research. 29 (4-5), 397-420 (2016).
  24. Couth, S., Gowen, E., Poliakoff, E. Using race model violation to explore multisensory responses in older adults: Enhanced multisensory integration or slower unisensory processing. Multisensory Research. 31 (3-4), 151-174 (2017).
  25. Gondan, M., Minakata, K. A tutorial on testing the race model inequality. Attention, Perception & Psychophysics. 78 (3), 723-735 (2016).
  26. Gondan, M. A permutation test for the race model inequality. Behavior Research Methods. 42 (1), 23-28 (2010).
  27. Kiesel, A., Miller, J., Ulrich, R. Systematic biases and Type I error accumulation in tests of the race model inequality. Behavior Research Methods. 39 (3), 539-551 (2007).
  28. Mahoney, J., Cotton, K., Verghese, J. Multisensory Integration Predicts Balance and Falls in Older Adults. Journal of Gerontology: Medical Sciences. , Epub ahead of print (2018).
  29. Mahoney, J. R., Verghese, J. Visual-Somatosensory Integration and Quantitative Gait Performance in Aging. Frontiers in Aging Neuroscience. 10, 377 (2018).
  30. Yueh, B., et al. Long-term effectiveness of screening for hearing loss: the screening for auditory impairment--which hearing assessment test (SAI-WHAT) randomized trial. Journal of the American Geriatrics Society. 58 (3), 427-434 (2010).
  31. Galvin, J. E., et al. The AD8: a brief informant interview to detect dementia. Neurology. 65 (4), 559-564 (2005).
  32. Galvin, J. E., Roe, C. M., Xiong, C., Morris, J. C. Validity and reliability of the AD8 informant interview in dementia. Neurology. 67 (11), 1942-1948 (2006).
  33. Buschke, H., et al. Screening for dementia with the memory impairment screen. Neurology. 52 (2), 231-238 (1999).

Tags

Comportamento edição 147 integração multissensorial integração sensoriomotora desigualdade no modelo de raça efeito de sinais redundantes envelhecimento
Usando a desigualdade de modelo de corrida para quantificar efeitos de integração multissensorial comportamental
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Mahoney, J. R., Verghese, J. UsingMore

Mahoney, J. R., Verghese, J. Using the Race Model Inequality to Quantify Behavioral Multisensory Integration Effects. J. Vis. Exp. (147), e59575, doi:10.3791/59575 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter