Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Representações conscientes e não-conscientes de Faces emocionais na síndrome de Asperger

Published: July 31, 2016 doi: 10.3791/53962

Summary

Um protocolo experimental EEG é projetado para esclarecer a interação entre representações conscientes e não-conscientes das caras emocionais em pacientes com síndrome de Asperger. A técnica sugere que os pacientes com síndrome de Asperger têm déficits em representação não-consciente de faces emocionais, mas tem desempenho comparável em representação consciente com controles saudáveis.

Abstract

Vários estudos de neuroimagem sugerem que as frequências espaciais baixas em um cara emocional ativa principalmente a amígdala, pulvinar e colículo superior especialmente com rostos temerosos 1-3. Estas regiões constituem a estrutura límbico na percepção não-consciente de emoções e modular a atividade cortical direta ou indiretamente 2. Em contraste, a representação consciente das emoções é mais pronunciada no cingulado anterior, córtex pré-frontal e do córtex somatossensorial para dirigir a atenção voluntária aos detalhes nos rostos 3,4. A síndrome de Asperger (AS) 5,6 representa um distúrbio mental atípica que afeta habilidades sensoriais, afetivas e comunicativas, sem interferir com as competências linguísticas normais e capacidade intelectual. Vários estudos descobriram que os déficits funcionais no circuito neural importantes para o reconhecimento de emoções faciais pode explicar em parte a falha de comunicação socialpacientes com AS 7-9. A fim de esclarecer a interação entre representações conscientes e não-conscientes das caras emocionais na AS, um protocolo experimental EEG é projetado com duas tarefas que envolvem a avaliação emocionalidade de qualquer fotografia ou rostos de desenho de linha. Um estudo piloto é introduzido para a seleção de estímulos cara que minimizem as diferenças de tempos de reação e notas atribuídas às emoções faciais entre os pacientes pré-testados com AS e QI / controles saudáveis ​​pareados por sexo. As informações dos pacientes pré-testados foi utilizada para desenvolver o sistema de pontuação utilizado para a avaliação emocionalidade. A investigação sobre as emoções faciais e estímulos visuais contendo frequências diferentes espacial chegou a conclusões discrepantes, dependendo das características demográficas dos participantes e tarefa exige 2. O protocolo experimental visa clarificar déficits em pacientes com EA em processar rostos emocionais quando comparados com controles saudáveis, controlando para o fatoré relacionada com o reconhecimento de emoções faciais, tais como dificuldade da tarefa, IQ e sexo.

Introduction

Facial reconhecimento de emoções é um dos processos mais importantes do cérebro envolvidas na comunicação social. Uma variedade de distúrbios mentais estão relacionados com problemas com a detecção de emoções explícita faciais 4-6. Uma fotografia de um rosto contém um espectro de informações espaciais que podem ser filtrados nem para a alta frequência espacial (HSF) ou baixo teor de frequência espacial (LSF). HSF é relativa a elementos extremamente detalhadas de uma imagem, tal como as arestas de uma face, enquanto que LSF é relativa a mais grosseira ou menos partes bem definidas, tais como uma face integral com conteúdos LSF 7. Qualquer tarefa de reconhecimento de face induz simultaneamente processos conscientes e não-conscientes 8-12, ea participação do processo não-consciente ocorre no 150-250 ms pós intervalo de início ou mesmo antes 13. Em controlos saudáveis, o processo não-consciente é geralmente mais rápido do que o 14,15 processo consciente. Vários estudos de neuroimagem sugerem queo LSF em um estímulo facial (ou estímulo motivationally significativa) ativa principalmente a amígdala, pulvinar e colículo superior especialmente com rostos temerosos 3,16. Estas regiões constituem a estrutura límbico na percepção não-consciente de emoções e modular a atividade cortical direta ou indiretamente 1. Em contraste, a representação consciente das emoções é mais pronunciada no cingulado anterior, córtex pré-frontal e do córtex somatossensorial para dirigir a atenção voluntária aos detalhes na cara 9,17,18.

A síndrome de Asperger (AS) 19,20 representa um distúrbio mental atípica que afeta habilidades sensoriais, afetivas e comunicativas, sem interferir com as competências linguísticas normais e capacidade intelectual. Vários estudos descobriram que os déficits funcionais no circuito neural importantes para o reconhecimento de emoções faciais pode explicar em parte a falha de comunicação social na AS 21-25.Distúrbios comportamentais observadas em crianças com AS podem ser diagnosticados nos primeiros três anos de vida de 26 anos, período durante o qual o seu controle voluntário (ou consciente) sobre comportamentos não está totalmente desenvolvido 27. Em adultos com AS, os distúrbios comportamentais podem ser compensadas através da regulação de atenção 28. Dificuldade em detalhes de processamento dentro de uma determinada faixa de frequência espacial pode indicar uma interrupção em diferentes estágios de processamento de informações. Até agora, nenhum estudo abordou directamente potenciais evocados e atividade oscilatório em pacientes com EA durante o reconhecimento emoção facial envolvendo estímulos de face em intervalos específicos de frequências espaciais. É importante analisar a trajetória funcional em pacientes com AS, quando comparados com controles saudáveis ​​durante o processamento de estímulos faciais com diferentes teores de frequência espacial por meio do controle de demandas da tarefa e os efeitos demográficos como sexo e QI.

De modo a clarificar as interjogar entre as representações conscientes e não-conscientes das caras emocionais, um protocolo experimental EEG é projetado para comparar cerebral potenciais evocados e atividade oscilatório entre pacientes com EA e QI / controles saudáveis ​​pareados por sexo. Um grupo de participantes do piloto foi recrutado antes do experimento EEG para assistência com a seleção dos estímulos experimentais e desenvolvimento de um sistema de pontuação, a fim de facilitar a avaliação do desempenho em pacientes com EA. O protocolo consiste em duas tarefas que envolvem a avaliação emocionalidade de qualquer fotografia ou rostos de desenho de linha. As diferenças entre os dois grupos pode ser avaliada por computação ERPs e perturbações do espectro relacionados a eventos (ERSPs). Na secção seguinte, os detalhes do protocolo experimental são elaboradas, incluindo o estudo piloto e os métodos de processamento / análise de dados de EEG, seguidas pelas principais resultados da análise. Finalmente, os passos críticos no Protocolo e seu significado em relação ao existentemétodos são discutidos. A limitação ea possível extensão do protocolo a ser usado em pacientes com outros distúrbios emocionais também são apontados.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Declaração de Ética: Procedimentos envolvendo participantes humanos foram aprovados pelo Comitê de Ética participante humanos comitê / Institutional Review Board na Academia Sinica, Taiwan.

1. Estímulos e Programa Experimental Preparação

  1. Preparar um conjunto de mais de 60 fotografias de rosto emocionais 29 categorizados em três expressões faciais (irritados, felizes e neutro). Use software de gráficos para mascarar cabelo e da orelha partes nas fotografias com fundo preto como mostrado na Figura 1A, para que os participantes possam concentrar-se nas características faciais nas fotografias.
    1. Abra uma fotografia no software gráficos. Use a caixa de ferramentas de seleção para desenhar uma região elíptica e ajustar o tamanho da região de modo que as orelhas e mais cabelos não caem na elipse.
    2. Inverta a região selecionada. Clique em "Excluir" para remover a região indesejada da fotografia e substituí-lo com a cor de fundo preto.

figura 1
Figura 1. Exemplos de estímulos emocional face. (A) rostos fotografia onde o cabelo e as orelhas foram mascarados na cor de fundo preto, e (B)-line desenhar rostos que são editados a partir de (A) por softwares gráficos. Os rostos mostrar emoções neutras, felizes e irritados, respectivamente, de alto a linhas inferiores. Por favor clique aqui para ver uma versão maior desta figura.

  1. Criar um estudo piloto. Recrutar participantes do piloto para a seleção de estímulos adequados a partir da piscina fotografia.
    Nota: Os participantes do piloto não deve participar na experiência EEG.
    1. Configurar o programa de apresentação do estímulo começando com o primeiro ecrã de computador apresentando a instrução tarefa, seguido por 5 familensaios iarization. Comece cada ensaio com uma cruz fixação, seguido por um estímulo cara, e por uma tarefa de avaliação emotividade. Veja arquivo de código suplementar para um programa de exemplo.
      Nota: Os testes piloto reais seguem imediatamente os ensaios de familiarização, selecionando fotografias de rosto em uma ordem aleatória da piscina.
      1. Criar um programa experimental, incluindo as telas de instruções e uma tela de olho-de fixação central. Criar tela de estímulo a face como ilustrado na figura 2, configurando o tamanho fotografia a ser 18,3 x 24,4 cm2 (largura x altura) com a cor de fundo preto, dado um tamanho de tela de computador 41 x 25,6 cm2 com resolução de 1.680 x 1.050. Veja arquivo de código suplementar para um programa de exemplo.
      2. Criar um sistema de pontuação para avaliação emocionalidade no programa, tal como ilustrado na Figura 3. Coloque uma linha horizontal que varia de -100 a +100 em escala contínua no centro da tela without nenhum carrapato-marcas, exceto para a central e endpoints. Preparar o programa de tal forma que os participantes possam avaliar livremente a emotividade de um rosto fotografia, arrastando o cursor de pontuação para a esquerda por muito irritado (-100) e à direita para muito feliz (+100), e pressione o botão GO.
        Nota: A linha de pontuação que é projetado sem qualquer tique-marcas porque os pacientes com AS podem facilmente ficar preso em colocar o cursor entre os carrapatos durante a avaliação emocionalidade. Portanto, numa escala contínua é a preferida para os pacientes.
      3. Certifique-se o programa registra resultados comportamentais de um participante (por exemplo, tempo de reação e scores de emocionalidade), que são utilizados como critérios para a escolha de fotografias da piscina (consulte a etapa 1.3.1).
    2. participantes do piloto recruta (5 controlo e 5 participantes AS-piloto). Diagnosticar pacientes clínicos de acordo com Gillberg 30 e DSM-IV 26 e administrar o curto-forma clínica derivada da Wechsler Adult Escala de Inteligência (WAIS-III) 31. Combinar os controles para os seus homólogos AS, tanto quanto possível no gênero, e sobre as pontuações de QI verbal / desempenho.
    3. Execute o procedimento experimental no estudo piloto para cada participante individual. Depois de completar a tarefa de reconhecimento de face emocional, entrevistar cada piloto AS participante da duração razoável dos prazos de fixação-olho central e apresentação de estímulo, dificuldade da tarefa, facilidade de usar o sistema de pontuação eo número máximo de tentativas para manter seu / sua concentração, com base no qual o programa pode ser reconfigurado para o experimento de EEG (ver o passo 1.3.2)

Figura 2
Figura 2. Uma imagem de um rosto estímulo no programa. O tamanho da face está configurado para se ajustar a altura do ecrã. A área vazia é preenchida com a cor preta.carregar 53962 / 53962fig2large.jpg "target =" / _ blank "> Clique aqui para ver uma versão maior desta figura.

Figura 3
Figura 3. Uma captura de tela do sistema de pontuação para avaliação emocionalidade. A barra de pontuação é projetado para ter nenhuma marca de escala. O participante tem de arrastar o mouse para selecionar a pontuação atribuída a um rosto e pressione o botão GO para terminar a tarefa. Por favor clique aqui para ver uma versão maior desta figura.

  1. Programa de Tarefa 1: Fotografia Session.
    1. Selecione a partir do conjunto de 30 fotografias, que compreende 10 cada uma para expressões faciais feliz, irritado, e neutros (5 do sexo masculino e 5 do sexo feminino enfrenta para cada tipo de expressões), que dão os tempos de reacção médios mais comparáveis ​​e os escores médios de emocionalidade entre o 5 AS e 5 participantes do piloto de controle. Atualizar as configurações programa experimental através da incorporação de feedback dos pacientes piloto, tais como o período de olho-fixação central ideal (ou seja, 1000 mseg), a duração da apresentação de estímulo (isto é, 1000 mseg), intervalo inter-estímulos (isto é, distribuídos aleatoriamente em -entre 4 e 7 seg), ea escala do sistema de pontuação (ou seja, -100 a 100). Adicionar cinco ensaios de familiarização antes das 30 ensaios experimentais no programa.
      1. Alterar o número de estímulos e intervalos de tempo em um arquivo de texto de configuração externo associado ao programa experimental.
        Nota: O arquivo de texto pode ser modificado para atender diferentes condições experimentais, sem intervenção de engenheiros de software.
      2. Não conte os cinco fotografias para ensaios de familiarização com as 30 fotografias seleccionadas. Não use os EEG e os dados comportamentais gravadas em ensaios de familiarização na análise de dados.
  2. programa fou Tarefa 2: Linha de desenho Session.
    1. Criar imagens de desenho de linha dos 35 fotografias (5 para ensaios de familiarização, 30 para ensaios experimentais) utilizados na Tarefa 1, traçando as bordas de cada face. Use software gráfico para modificar as fotografias em escala de cinza na linha-desenhos em preto-e-branco como mostrado na Figura 1B.
      Nota: Os passos abaixo para edição de fotografia é uma das possíveis soluções para o line-drawings.
      1. No software gráficos, ajustar o brilho / contraste da fotografia de modo que a intensidade original escala de cinza nos pixels maioria cai em preto ou branco.
      2. Aplicar "efeito do esboço" no "efeito" ou menu "Filtro" do software a uma fotografia em tons de cinza de modo que apenas o contorno da parte alta frequência espacial é preservada, e aplicar "efeito de angústia" para aumentar a dilatação das linhas de contorno .
      3. Use qualquer ferramenta pincel para melhorar os contornos e usar uma ferramenta borracha paralimpar as partes indesejadas. Certifique-se manter as características faciais importantes, verificando frente e para trás entre o seu homólogo de desenho de linha fotografia original e.
    2. Faça uma cópia do programa de Tarefa 1 no passo 1.3 para criar um programa para Tarefa 2 e substituir as 35 fotografias em Tarefa 1 com a linha-desenhos correspondentes.

2. Procedimento de gravação EEG

  1. preparativos
    1. Recrutar 10 controles saudáveis ​​e 10 pacientes com EA para experimentos de EEG com base nas diretrizes da ética de pesquisa participante humano locais comissão / Institutional Review Board.
    2. Administrar a curto forma de WAIS-III 31 às pacientes com EA individualmente antes das experiências, e encontrar os controles que correspondem aos pacientes, tanto quanto possível sobre gênero e sobre as pontuações de QI verbais / desempenho.
  2. Gravação de EEG
    1. Assentar o participante em uma cadeira confortável em um insulate somd (mal iluminado) de câmara e ajustar a posição da cadeira para que a tela do computador é de 60 cm na frente do participante. Depois de um tutorial sobre o procedimento experimental, tem o participante preencher os formulários de consentimento junto com algumas perguntas sobre seu / sua destreza manual.
    2. Use uma tampa de EEG com 132 eletrodos Ag / AgCl (incluindo 122 10-10 sistema de EEG, eo VEOG bipolar, HEOG, ECG, eletrodos EMG, juntamente com seis canais facial-musculares) para gravar EEGs. Conectar-se a tampa para dois amplificadores de 64 canais com 0,1-100 Hz analógico filtro passa-banda para digitalizar EEGs matérias a 1.000 Hz taxa de amostragem.
    3. Encaixe a 128 canais cap padrão EEG para a cabeça de cada participante. Ajustar a tampa de modo que o eléctrodo rotulado de "referência" é colocado na posição "Cz", que está situado em relação aos pontos de referência da linha média anterior / posterior (ou seja, meio do násio a distância ínion), e para os / marcos direita e esquerda (ou seja, o meio de tragis esquerda / direita), de acordo com o EEG sistema de 10/10 internacional.
    4. Gentilmente usar uma agulha romba para injetar gel condutor em todos os eletrodos. Mexa com a agulha lentamente dentro do eletrodo para assegurar um bom contacto gel entre o couro cabeludo e o eletrodo (ou seja, para manter a impedância abaixo de 5 kW). verificar constantemente a condição de contato gel nos eléctrodos rotulados como "referência" e "terra" na tampa EEG para garantir que a medição da impedância é correto.
      1. Observe a impedância dos eletrodos através da visualização da tela de impedância dos eletrodos suportado pelo software de gravação de EEG (por exemplo SCAN 4,5 neste estudo), que geralmente vai com o sistema de EEG. No ecrã, os eléctrodos são mostrados em cores, e diferentes cores indicam os níveis de impedância.
    5. Coloque um eléctrodo HEOG no canto do olho de um olho (local positivo), e o segundo eléctrodo no canto do olho do outro olho (site negativo), um eléctrodo VEOG acima e o outro abaixo do Lolho eft, eletrodos de ECG bipolar na parte de trás do eletrodos EMG bipolares mãos esquerda e direita, e na área entre o polegar eo dedo indicador da mão direita, e os seis eletrodos faciais em torno da sobrancelha e bochecha.
    6. Gravar em um caderno os canais ruins em que a impedância for superior a 5 kW, ou salvar diretamente da tela mostrando impedância em todos os pólos. Utilize esta referência como futuro para descartar canais ruins na fase de processamento de dados de EEG.
    7. Grave EEGs de descanso estado depois instruir o participante para fechar os olhos por 12 min. Durante este tempo, verificar duplamente a qualidade do fluxo de EEG instantânea mostrada na tela suportada pelo software de gravação de EEG.
      Nota: Não deve haver ondas alfa claras distribuídas nos canais occipital durante a condição de olhos fechados, quando comparada com a condição de olhos abertos. Se as ondas alfa são muito barulhento (ignorando os canais maus) ou distorcida, volte para o passo 2.2.4 e ajustar o contato gel.
    8. Comece as duas tarefas experimentais em uma ordem contra-equilibrada entre participantes. EEGs registro clicando no ícone de gravação na tela suportada pelo software de gravação.
      1. Depois de ler as instruções tarefa mostrado na tela, tem cada participante realizar os ensaios 5 de familiarização, seguidos dos 30 ensaios de tarefas. Use o mesmo procedimento para ambas as tarefas de desenho de linha fotografia e. Na instrução de tarefas, incentivar os participantes a atribuir uma pontuação para a emotividade de um estímulo rosto tão rapidamente quanto possível.
      2. IMPORTANTE: Verifique programas elaborados nos passos 1.3.2 e 1.4.2 para corretamente o envio de eventos de tempo bloqueado para o aparecimento de olho-de fixação central, apresentação do estímulo rosto, e pressionar o botão GO para o software de gravação durante a avaliação emocionalidade. Esses tempos de início são codificados como numérico e pode ser verificado no ecrã suportado pelo software de gravação.
        Nota: O participante pode fazer uma pausa entre as duas tarefas. Não há EEG recordões durante o intervalo.
    9. Use um digitalizador (por exemplo, o digitalizador Polhemus FASTRAK 3D neste estudo) para gravar as posições 3D de eletrodos e guardá-lo em um arquivo (por exemplo .3dd ou .dat) para tampas de EEG co-registrar entre os participantes na análise de dados.
    10. Após a experiência EEG, têm o participante preencher um inventário de 35 perguntas em sua / seu comportamento e sentimentos durante o experimento EEG (por exemplo, ter emoções negativas, quase caiu no sono), e proporcionar-lhes o pagamento para a participação no experimento.
    11. Traga o participante para o banheiro para limpar / secar sua / seu cabelo.
    12. Limpar e esterilizar a tampa EEG acordo com as instruções clínicos.

3. Processamento de Dados EEG

Nota: Os comandos de software fornecidos nesta seção são específicos para EEGLAB.

  1. Filtrar os sinais EEG usando um filtro passa-alta de 1 Hz e um filtro low-pass de 50 Hz, chamando ofunção pop_eegfilt.m 32.
    Nota: Use um filtro low-pass de 40 Hz para alguns países que têm 50 Hz frequência da rede elétrica
  2. Descarte canais ruins com impedância superior a 5 kW após a verificação da impedância do eletrodo registrou na etapa 2.2.6. Descarte os maus canais com muito diferente espectro de potência em comparação com os canais vizinhos por inspeção visual das características do espectro de energia (por exemplo, o valor máximo, a curvatura, etc.) em cada canal.
    1. Calcular e traçar o espectro de potência do sinal EEG chamando a função pop_spectopo.m 32.
  3. Re-referenciar os sinais de EEG com a média dos canais do cérebro sem os canais de maus chamando a função pop_reref.m.
  4. EEGs segmento em épocas locked-estímulo, cada um que varia de -2,0 seg pré para 1,5 seg pós-estímulo início. Correto para linha de base (-2,0 para -1,2 seg antes do início do estímulo), removendo a média de Valu linha de basees de cada época.
    1. Chamar as funções pop_epoch.m e pop_rmbase.m, respectivamente. Escolha o intervalo de linha de base antes do período de olho-de fixação central e o início do estímulo cara.
  5. Marcar maus épocas que aparecem para conter artefatos. Descarte as épocas ruins, reservando as épocas contaminados por piscar de olhos. As épocas com artefatos costumam olhar barulhento ou ter extremamente alto valor de pico (por exemplo, superior a 100 mV) em comparação com épocas típicas.
    1. Chamar a função pop_rejmenu.m de lançar um procedimento semi-automático. Uma janela de interação vai sair para re-confirmar-selecionados auto épocas ruins pelo usuário através de inspeção visual. Embora a maioria das épocas estão contaminados por piscar de olhos, essas épocas pode ser provisoriamente reservada para posterior remoção por meio de análise de componentes independentes (ICA) 33 no passo 3.8.
  6. Depois de descartar canais ruins e maus épocas, executar ICA nos dados de EEG podadas usando o pop_runifunção ca.m.
  7. Entre os componentes independentes estimados (ICs), identificar os artefatos resultantes de movimento dos olhos / piscar de olhos, a atividade muscular, batimentos cardíacos, e ruído na linha 32.
    Nota: A significativamente alta correlação (R 2> 0,9) entre os escores de IC de um componente e os de todos os canais de referência (VEOG, HEOG, ECG, e canais faciais) indica que este componente é contribuiu principalmente por artefatos. As pontuações estimados IC explicadas pelos artefatos podem ser limpos usando análise de regressão múltipla.
  8. Remover ICs artefato e estimar os EEGs limpas que são derivados do produto do ICA mistura da matriz e da matriz pontuação IC limpa-artefato. Salvar os EEGs limpas para posterior análise.
    1. Mantenha os resíduos de prever ICs artefato (R 2> 0,9) a partir da referência VEOG, HEOG, eletrocardiograma e canais faciais na matriz de pontuação IC. Remover outros ICs artefato pela função pop_subcomp.m. A função retorna os EEGs limpa-artefato.

    4. Análise estatística

    1. Partição canais de EEG em regiões homogéneas onze para reduzir o número de comparações estatísticas em ERP e analisa ERSP, isto é, esquerda (10 canais), midline- (14), e-frontal direito (10); esquerdo (13) e-temporal direita (13); esquerda (9), midline- (14) e centro-direita (9); esquerda (9), midline- (12) e parietal e occipital direito (9) conforme mostrado na Figura 4. Estas regiões são definidas de acordo com a anatomia funcional do córtex 34. Homogeneidade funcional dos sinais de EEG nessas regiões foi validado em diferentes experimentos 13,35,36.

    Figura 4
    Figura 4. A partição do canal. Os canais são divididos em onze regiões. LF:-frontal esquerda (10 canais), MF: linha média-frontal (14), RF:-frontal direita (10), LT: esquerda-temporal (13), RT: right-temporal (13), LC: esquerda-central (9), MC: linha média-central (14), RC: right-central (9), LP: parietal esquerdo-occipital (9), MP: parietal linha média-occipital (12), RP :. parietal direito-occipital (9) por favor clique aqui para ver uma versão maior desta figura.

    1. Coloque os EEGs limpas no passo 3.8. Calcule o ERP canal pela média de sinais através épocas em cada canal, e ERP regional, pela média ERPs dentro da mesma região.
      Nota: Quando EEG são carregados usando a função pop_loadset.m em EEGLAB, os sinais são armazenados na variável de estrutura "EEG.data" em uma matriz de canal-por-tempo-de-epoch.
      1. Na janela de comando do Matlab, calcular o ERP canal pela média EEG.data através épocas para cada canal (por exemplo, channelERP = média (EEG.dat, 3)). Calcule o ERP regional, pela média dos ERPs de canais dentro de cada região de acordo com a partição em 4.1 (por exemplo, regionalERP = média (channelERP (index, :), 1), onde "index" representa os índices de canal em uma determinada região).
    2. Calcule as ERSPs canal através da aplicação de uma transformação de tempo-frequência (por exemplo, transformada Wavelet) para epoch sinais em cada canal, e ERSPs regionais pela média canal ERSPs na mesma região.
      1. Execute o tempo de frequência transformar chamando a função pop_newtimef.m.
        Nota: Neste estudo, a entrada "ciclos wavelet" está definido para [1, 0,5] e "base" está definido para [-2.000--1.200] ms. Os ERSPs canal resultante será armazenado em uma matriz de frequência-a-hora-a-canal.
      2. Na janela de comando do Matlab, calcular o ERSP regional, pela média ERSPs em todos os canais dentro de cada região de acordo com a partição em 4.1 (por exemplo, regionalERSP = média (channelERSP (:,:, index), 3), onde "channelERSP" é a saída da função pop_newtimef.m, e "índice" está para os índices de canal em agregião Iven).
    3. Calcular os valores médios em intervalos de tempo diferentes (por exemplo, 50-150, 150-250, 250-350, 350-450 ms) para ERPs regional. Calcular os valores médios em intervalos de tempo-frequência diferentes (por exemplo, 50-150, 150-250, 250-350, 350-450, 450-800 ms em 1-7 Hz e 200-800 ms em 30/08 Hz) para a região ERSPs.
    4. Aplicar MANOVA em software de estatística (por exemplo, IBM SPSS) para os valores médios de ERPs e ERSPs regionais para avaliar os efeitos principais para a tarefa (fotografia vs. linha-desenho), região (onze regiões do couro cabeludo) e grupo (AS vs controle) , bem como os efeitos de interacção entre a tarefa, região, e grupo.
      1. Na análise estatística, considere sexo (masculino versus feminino) como covariável, e estimar os principais efeitos e interacções, mantendo a constante efeito de gênero.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

As pontuações médias verbal e desempenho de QI estão listadas na Tabela 1 para o controle e como grupos, juntamente com os tempos médios de reação e pontuações médias atribuídas a emocionalidade dos rostos dos dois grupos. Na tabela, nenhuma das diferenças entre os grupos alcança significância estatística excepto para as faces neutras na tarefa de desenho de linha, em que o grupo como tem um valor médio próximo de zero (P <0,001) 13. Curiosamente, o grupo AS ainda tem vezes ligeiramente mais longos reação do que o grupo controle em responder às caras irritadas e felizes, e os tempos de reacção mais curtos na resposta às faces neutras, mesmo sob o controle experimental de gênero, QI e rosto estímulos. Síndroma de Asperger é encontrado com deficiências na amígdala e as suas estruturas límbicas associados 37-39, os quais são conhecidos por estarem envolvidos na memória de emoções excepto para a emoção neutro 40,41. Estes struct límbicomentos associados com o processo de não-consciente pode desempenhar um papel importante na interpretação das respostas comportamentais em pacientes com EA.

tabela 1
Tabela 1. Os dados comportamentais das pontuações no Wechsler Adult Intelligence Scale-III, tempos de reação, e as pontuações médias de emocionalidade atribuídos a enfrentar estímulos nas tarefas de fotografia e linha-desenho. Essa tabela é uma versão modificada da Tabela 1 em Tseng et al . 13

Como mostrado na Figura 5, o componente N400 no grupo de controlo é pronunciada nas regiões frontal, temporal e occipital-parietais em ambas as tarefas de fotografia e de desenho de linha, mas a amplitude deste componente é menor na tarefa de desenho de linha. No grupo AS, o N400 é visível na região frontal da linha média, mas invisível em outras regiões na tarefa de fotografia, e becomes visíveis em todas as regiões frontais na tarefa de desenho de linha. A tarefa por grupo efeito de interação MANOVA é significativo no intervalo início 350-450 ms pós (p = 0,019). Os dois grupos também apresentaram diferenças significativas na percepção no início da tarefa de fotografia 42, e têm padrões de ERP comparáveis ​​na tarefa de desenho de linha; isto é, o efeito de interacção tarefa-por-grupo é também significativo no intervalo de 50-150 mseg início pós (p = 0,035). Fotografia e rostos de desenho de linha atingir o maior diferença ERP nas regiões temporal e occipital-parietal no intervalo ms 250-550.

Figura 5
Figura 5. parcelas ERP. Parcelas ERP na frontal direito, as regiões occipital-parietal e temporal direita direita no controle (azul) e grupos como (vermelho) no (A) fotografia e tarefas (B) linha-desenho. Locais de canais de EEG sãomostrado no canto superior esquerdo de cada parcela. O eixo vertical mostra a tensão de ERP (mV) e o eixo horizontal mostra o tempo em ms. Esta figura é uma versão modificada da Figura 2 em Tseng et al. 13 Por favor, clique aqui para ver uma versão maior desta figura.

Como mostrado nas Figuras 6 e 7, a sincronização delta / theta no grupo controle é pronunciado no intervalo 50-800 ms pós aparecimento em ambas as tarefas. As regiões occipital-parietal exibir sincronização mais forte, seguida pelas regiões centrais e temporais e depois pelos regiões frontais no início 50-350 intervalo de milissegundos, e as diferenças regionais desaparecem após 350 ms. As regiões occipital-parietal demonstram também o mais forte dessincronização alpha / beta no intervalo ms 200-800. em general, as fotografias têm um efeito aditivo sobre a linha-desenhos em sincronização delta / theta, mas a linha-desenhos induzir mais forte dessincronização alpha / beta. O grupo como tem sincronização delta / theta mais comparáveis ​​ao grupo controle na tarefa de desenho de linha, e nenhum efeito aditivo aparente associada com as faces fotografia. A tarefa por grupo efeito de interação MANOVA é significativa nos intervalos início 50-150, 250-350 e 350-450 pós ms (p = 0,043, 0,003 e 0,015, respectivamente). O efeito de grupo é também significativa nos intervalos 150-250, 250-350 e 350-450 ms (p = 0,033, 0,011 e 0,022, respectivamente). O grupo como mostra a sincronização delta / teta mais forte nas regiões occipital-parietal no intervalo de 150-250 ms, bem como as regiões da linha média no intervalo de 350-450 ms, quando comparado com outras regiões do couro cabeludo. A dessincronização alfa / beta no grupo como é semelhante ao do grupo de controlo (e um pouco mais forte) emambas as tarefas, mas as diferenças entre as duas tarefas tendem a ser menores no grupo AS. O grupo MANOVA e tarefa por grupo efeitos são estatisticamente insignificante em oscilações de alta frequência.

Figura 6
Figura 6. parcelas ERSP na tarefa fotografia. Parcelas ERSP para o controle (A) e (B) como grupos na tarefa de fotografia. A cor vermelha indica aumento de potência (sincronização) e a cor azul indica a diminuição de potência (dessincronização) em comparação com a linha de base. Esta figura é uma versão modificada da Figura 3 em Tseng et al. 13 Por favor, clique aqui para ver uma versão maior desta figura.

Figura 7
Figura 7. parcelas ERSP em tele tarefa linha de desenho. parcelas ERSP para o controle (A) e (B) como grupos na tarefa de desenho de linha. Esta figura é uma versão modificada da Figura 3 em Tseng et al. 13 Por favor, clique aqui para ver uma versão maior desta figura.

Os resultados ERP sugerem uma diferença grupo na percepção precoce (50-150 ms) e reconhecimento semântico mais tarde (350-450 ms) das faces emocionais na tarefa fotografia. O grupo AS tem uma amplitude P1 menor na tarefa fotografia e uma amplitude P1 ligeiramente maior na tarefa de desenho de linha quando comparado com o grupo controle. As diferenças de amplitude no P1 entre as duas tarefas pode refletir a singularidade de pacientes com EA na percepção de fotografias e desenhos linha-43. O N400 é mostrado a ser fortemente afetada pelao conteúdo emocional, familiaridade e recursos globais / locais nos rostos 44. Em nosso estudo, o N400 (350-450 ms) nas regiões frontal e temporal é altamente visível no grupo de controle, mas quase invisível no grupo como na tarefa de fotografia. Em reconhecimento de emoções faciais, o N400 pode ser interpretado como um processo de busca de uma ligação entre um rosto e sua interpretação semântica (raiva, neutro e feliz). No grupo controle, a diferença ERP entre as duas tarefas no intervalo ms 350-450 é consistente com os achados de outros. A amígdala é mais ativo aos rostos temerosos intactos ou rostos temerosos contendo apenas conteúdos LSF 3,45. Como a maioria dos conteúdos LSF são removidos a partir da linha-desenhos, estes resultados do grupo de controlo indicam que o N400 é muito menor na região occipital-parietal e quase invisível nas regiões temporal em comparação com os do tarefa fotografia.

because processamento de informações de linha-desenhos depende menos da função não-consciente na amígdala, os pacientes com AS mostram padrões de ERP mais comparáveis ​​os controles saudáveis ​​nas fases posteriores (350-450 ms) durante o reconhecimento emocional face. Curiosamente, o grupo AS pode realizar as tarefas de avaliação emocionalidade corretamente sem o N400 visível na tarefa fotografia. É razoável supor que o processamento de informação através da amígdala e as suas estruturas límbicas associadas desempenham um papel crucial no desencadeamento da amplitude do N400, que podem afectar a eficiência do processamento da informação nos pacientes com AS, mas não tem efeito sobre a sua exactidão resposta.

Tem sido demonstrado que o reconhecimento emocional face engata iniciais e posteriores alterações em delta oscilações / teta 8, que são considerados a actividade cerebral associado com projecções córtico-límbicas durante a estimativa do estímulo 46-48. desincronização / theta lta está mais associado à não-consciente do que com reconhecimento de face consciente 46. As conclusões sobre ERSPs indicam ainda que o grupo como tem sincronização muito mais fraco em ritmos delta / teta nos estágios iniciais e posteriores do reconhecimento facial emocional. É razoável supor que a sincronização delta / theta mais fraca reflete um distúrbio no processamento não consciente das expressões emocionais e uma falha na projeção límbico-cortical em pacientes com AS. sincronização / theta Delta é ligeiramente mais pronunciada no frontal da linha média, linha média regiões occipital-parietal central e da linha média relativamente a outras regiões do couro cabeludo no grupo como no intervalo 350-450 ms pós aparecimento em ambas as tarefas. Estas regiões medianas estão intimamente relacionados com a estrutura cortical de representação consciente do significado emocional 18.

Uma vez que a via cognitiva ou consciente ainda é mediadapela estrutura límbico, tal como o tálamo, que pode-se supor que o grupo, baseia-se na via consciente mais do que a via não-consciente em resposta às fotografias e-traço. No grupo controle, o poder delta / theta atinge o mais forte nas regiões parietal-occipital em tempo bloqueado a estímulos início e aumenta nas regiões frontais, numa fase posterior na tarefa de fotografia. A distribuição espacial do poder delta / theta na tarefa de linha de desenho torna-se mais perto do que a do grupo AS. Nossa hipótese é que o grupo de controle envolve as vias conscientes e não conscientes na tarefa fotografia, e baseia-se no caminho consciente na tarefa de desenho de linha.

Ao comparar ERSPs entre as duas tarefas, o grupo de controlo sugere adicionalmente um efeito aditivo dos conteúdos LSF em sincronização delta / teta no intervalo de 250-450 ms pós aparecimento, independente de regiões do cérebro e dos mecanismos elicited por emoções faciais. O teor em LSF uma face parece colocar uma carga constante sobre o fluxo de informação, que pode ser facilmente ultrapassado por meio da atenção aos detalhes voluntário em uma cara, como é sugerido pelos pacientes com AS que pode avaliar as emoções faciais com sucesso a tarefa em fotografia. Fortes oscilações alfa e beta têm sido referidos como indicadores de processos funcionais no neocórtex associado com atenção, memória semântica de longo prazo, e a estimativa cognitiva de estímulos 49,50. Em uma tarefa de reconhecimento de face, alpha / beta dessincronização reflete o nível de atenção voluntária a estímulos visuais e está associada a avaliação cognitiva de emoções faciais 15,18,51. Neste estudo, não há evidências que suportam um efeito tarefa ou grupo de oscilações de frequência mais alta (alfa e beta), exceto para as diferenças regionais, ao comparar a diferença entre a região parietal-occipital e outras regiões. Alpha dessincronização reflete atenção euma liberação de processos inibidos em tarefas complicadas 52, enquanto que a oscilação beta é raramente observada em tarefas relacionadas com a emoção 53,54. dessincronização Beta no grupo como é geralmente mais forte do que no grupo controle em ambas as tarefas, mas a diferença é insignificante grupo. Os ERSPs sugerem que o grupo como tem muito mais fraco poder delta / theta, mas ligeiramente mais forte poder alpha / beta quando comparado com o grupo controle. Nossa hipótese é que os pacientes com SA podem dirigir sua atenção a alguns detalhes importantes rostos por uso de avaliação cognitiva de estímulos visuais para compensar déficits sensoriais e afetivos.

Em resumo, o reconhecimento das emoções faciais nos controles saudáveis ​​induz ambos os processos conscientes e não conscientes 9,18,51. As diferenças de tempo de reacção entre as duas tarefas tendem a ser maiores no grupo de controlo do que aqueles no grupo AS. Nossa hipótese é que os saudáveiscontroles envolver o processo consciente mais do que o não-consciente para responder aos linha-desenhos e exercer ambos os processos na resposta às fotografias, enquanto os pacientes com AS confiar apenas no processo consciente na resposta a ambos os tipos de rostos.

Suplementar arquivo de código:. Exemplo Programa Por favor clique aqui para baixar esse arquivo.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

A literatura apresenta estudos sobre o reconhecimento das emoções faciais em pacientes com autismo por meio de análise de reações EEG 44, e no reconhecimento de conteúdos de alta e baixa frequência espaciais utilizando estímulos visuais 43. Para o melhor de nosso conhecimento, no entanto, há uma falta de trabalho existente sobre a atividade oscilatório cérebro que combina reconhecimento de emoções com o conteúdo de frequências espaciais distintas. Nosso protocolo é um primeiro passo para estimar a influência da emocionalidade (rostos positivos, neutros e negativos) e informações de frequência espacial (fotografias e-desenhos de linha) no reconhecimento de emoções em pacientes com EA em comparação com controles saudáveis. Nossa análise de reações de EEG nos domínios espaciais, temporais e de freqüência permite a separação das funções afetivas e cognitivas a um grau para a compreensão científica da doença AS. Neste estudo, o protocolo experimental fornece uma abordagem para factores não relacionados minimizando ao the reconhecimento de emoções; ou seja, os tempos de reacção e pontuações atribuídas a emotividade de faces são mantidos tão semelhantes quanto possível entre os dois grupos por um estudo piloto cuidadosamente concebidos. Os participantes também são correspondidos no QI e sexo, tanto no estudo piloto e experiência EEG. Embora os estudos de EEG anteriores sobre AS concentraram-se na P1 e N170 55, o protocolo neste estudo faz uma contribuição para demonstrar uma diferença significativa no componente N400 entre a AS e grupos de controle.

Rostos emocionais de Ekman provocar oscilações de baixa frequência mais fortes nos controles saudáveis ​​em comparação com os rostos em outros bancos de dados (por exemplo, as faces emocionais alguns bem validado de Taiwan). É altamente recomendável para conduzir um estudo de EEG-piloto para validar estímulos emocional face utilizados em pacientes e controles saudáveis ​​antes do experimento EEG. Os pacientes com EA teve dificuldade em utilizar informações HSF nas regiões oculares 56. Nesta razão, oselecionados estímulos rosto de Ekman conter expressões emocionais identificável pela expostas dentes / não expostos ou franzidas / sobrancelhas suavizadas. Estudos sobre outros tipos de pacientes pode considerar outras características do rosto, enquanto a substituição estímulos utilizados no protocolo. O sistema de pontuação devem ser concebidos para facilitar pacientes que executam a tarefa de avaliação emocionalidade, que pode ser resolvido através de entrevistas com pacientes recrutados no estudo piloto; isto é, o continuum ordenado sem quaisquer marcas de escala, exceto para os pontos centrais e finais é projetado de acordo com o feedback dos pacientes piloto. As etiquetas nos pontos extremos do sistema de pontuação pode ser modificado, por exemplo, contra simpática hostil, que deve ser escolhido para maximizar as respostas emocionais especialmente nos controlos.

Na literatura, como é encontrado com deficiência na amígdala e suas estruturas límbicas relacionadas 37-39, que estão envolvidos na memória e recuperação de informações relevantes para as emoções, exCEPT para a emoção neutra 40,41. Além disso, a amígdala é sensível ao conteúdo em LSF uma cara 3 fotografada. As duas tarefas no protocolo são projetados de acordo com os resultados existentes sobre déficits em adultos com AS, e os estímulos e sistema de pontuação foram adicionalmente projetado para uso com esta população de pacientes. Aplicações clínicas do protocolo a outros pacientes adultos com um tipo semelhante de deficiência, tais como transtornos do espectro autista 57, pode ser realizado com uma pequena modificação nos estímulos rosto e o sistema de pontuação.

Note-se que o protocolo não se destina ao diagnóstico clínico de crianças com menos de 7 anos de idade, cujo controle consciente (ou voluntário) sobre comportamentos podem não ser totalmente desenvolvido 26. Além disso, a técnica não produzir resultados diagnósticos claros em pacientes com comorbidade psiquiátrica seguintes lesões cerebrais, tumores ou outras violações da hemodinâmica cerebral.Vários estudos têm encontrado uma relação entre agressividade e mudanças hormonais nas mulheres durante a 58,59 ciclo menstrual. É também bem conhecido que a administração de etanol ou de estupefacientes altera as reacções emocionais 60. Estes tipos de alterações podem causar flutuações nas reações de EEG a estímulos emocionais em ambos os controles saudáveis ​​e pacientes com EA. Portanto, não é recomendado para aplicar o protocolo às mulheres durante a menstruação ou quando sofrem síndromes pré-menstruais, ou para pacientes com menos de intoxicação por álcool ou drogas. Estudos de neuroimagem em vias conscientes e não-conscientes das emoções podem aplicar o protocolo a ser correspondida demograficamente controles saudáveis ​​e pacientes com EA, variando os graus de aspereza e de neutralidade em estímulos emocional face.

Os pacientes com AS pertencer a um grupo relativamente elevada ansiedade-traço 13,36 e os seus olhos piscando e artefatos de movimento podem ser graves. É desejável Have processadores de dados experiente e algoritmos eficientes para a remoção de artefatos de EEG antes de abordar quaisquer questões científicas ou clínicos. O protocolo experimental representa um esforço em direção a investigação sobre as representações conscientes e não-conscientes das emoções no cérebro. O protocolo foi validado através do recrutamento de controles e pacientes IQ / pareados por sexo com como no experimento EEG. O tempo de reação e precisão de resposta são suplementos adicionais para os diagnósticos psicológicos e comportamentais. A técnica é independente do estado subjetivo do participante durante o experimento, e, portanto, permite o rastreamento dinâmica do estado do paciente durante e após a terapia psicológica ou farmacológica. A técnica pode ser aplicada a pacientes que sofrem de outros tipos de patologia afectiva, tais como o distúrbio de ansiedade, depressão, síndroma de esgotamento, e emocional em violação de stress pós-traumático. Outras modificações no protocolo são encorajados para uso em outrr grupos de desordem social e emocional. Um estudo piloto bem-projetado com entrevista de controles e pacientes ajudaria com a validação de uma versão modificada do protocolo.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
Synamps 2/RT 128-channel EEG/EP/ERP Neuroscan
Quik-CapEEG 128 electrodes Neuroscan
Gel Quik-Gel
FASTRAK 3D digitizer Polhemus 

DOWNLOAD MATERIALS LIST

References

  1. Tamietto, M., De Gelder, B. Neural bases of the non-conscious perception of emotional signals. Nat Rev Neurosci. 11, 697-709 (2010).
  2. Harms, M. B., Martin, A., Wallace, G. L. Facial Emotion Recognition in Autism Spectrum Disorders: A Review of Behavioral and Neuroimaging Studies. Neuropsychol Rev. 20, 290-322 (2010).
  3. Vuilleumier, P., Armony, J. L., Driver, J., Dolan, R. J. Distinct spatial frequency sensitivities for processing faces and emotional expressions. Nat Neurosci. 6, 624-631 (2003).
  4. Phan, K. L., Wager, T., Taylor, S. F., Liberzon, I. Functional neuroanatomy of emotion: A meta-analysis of emotion activation studies in PET and fMRI. Neuroimage. 16, 331-348 (2002).
  5. Kano, M., et al. Specific brain processing of facial expressions in people with alexithymia: an (H2O)-O-15-PET study. Brain. 126, 1474-1484 (2003).
  6. Williams, L. M., et al. Fronto-limbic and autonomic disjunctions to negative emotion distinguish schizophrenia subtypes. Psychiat Res-Neuroim. 155, 29-44 (2007).
  7. Goffaux, V., et al. From coarse to fine? Spatial and temporal dynamics of cortical face processing. Cereb Cortex. , (2010).
  8. Balconi, M., Lucchiari, C. EEG correlates (event-related desynchronization) of emotional face elaboration: A temporal analysis. Neurosci Lett. 392, 118-123 (2006).
  9. Balconi, M., Lucchiari, C. Consciousness and emotional facial expression recognition - Subliminal/Supraliminal stimulation effect on n200 and p300 ERPs. J Psychophysiol. 21, 100-108 (2007).
  10. Balconi, M., Pozzoli, U. Face-selective processing and the effect of pleasant and unpleasant emotional expressions on ERP correlates. Int J Psychophysiol. 49, 67-74 (2003).
  11. Balconi, M., Pozzoli, U. Event-related oscillations (EROs) and event-related potentials (ERPs) comparison in facial expression recognition. J Neuropsychol. 1, 283-294 (2007).
  12. Balconi, M., Pozzoli, U. Arousal effect on emotional face comprehension Frequency band changes in different time intervals. Physiol Behav. 97, 455-462 (2009).
  13. Tseng, Y. L., Yang, H. H., Savostyanov, A. N., Chien, V. S., Liou, M. Voluntary attention in Asperger's syndrome: Brain electrical oscillation and phase-synchronization during facial emotion recognition. Res Autism Spectr Disord. 13, 32-51 (2015).
  14. Goffaux, V., Rossion, B. Faces are" spatial"--holistic face perception is supported by low spatial frequencies. J Exp Psychol Hum Percept Perform. 32, 1023 (2006).
  15. Knyazev, G. G., Bocharov, A. V., Levin, E. A., Savostyanov, A. N., Slobodskoj-Plusnin, J. Y. Anxiety and oscillatory responses to emotional facial expressions. Brain Res. 1227, 174-188 (2008).
  16. Adolphs, R. Recognizing emotion from facial expressions: psychological and neurological mechanisms. Behav Cogn Neurosci Rev. 1, 21-62 (2002).
  17. Acar, Z. A., Makeig, S. Neuroelectromagnetic Forward Head Modeling Toolbox. J Neurosci Methods. 190, 258-270 (2010).
  18. Balconi, M. Neuropsychology of facial expressions. The role of consciousness in processing emotional faces. Neuropsychol Trends. 11, 19-40 (2012).
  19. Gross, T. F. The perception of four basic emotions in human and nonhuman faces by children with autism and other developmental disabilities. J Abnorm Child Psychol. 32, 469-480 (2004).
  20. Behrmann, M., Thomas, C., Humphreys, K. Seeing it differently: visual processing in autism. Trends in cognitive sciences. 10, 258-264 (2006).
  21. Holroyd, S., Baron-Cohen, S. Brief report: How far can people with autism go in developing a theory of mind? J Autism Dev Disord. 23, 379-385 (1993).
  22. Duverger, H., Da Fonseca, D., Bailly, D., Deruelle, C. Theory of mind in Asperger syndrome. Encephale. 33, 592-597 (2007).
  23. Wallace, S., Sebastian, C., Pellicano, E., Parr, J., Bailey, A. Face processing abilities in relatives of individuals with ASD. Autism Res. 3, 345-349 (2010).
  24. Weigelt, S., Koldewyn, K., Kanwisher, N. Face identity recognition in autism spectrum disorders: a review of behavioral studies. Neurosci Biobehav Rev. 36, 1060-1084 (2012).
  25. Wilson, C., Brock, J., Palermo, R. Attention to social stimuli and facial identity recognition skills in autism spectrum disorder. J Intellect Disabil Res. 54, 1104-1115 (2010).
  26. American_Psychiatric_Association. The Diagnostic and Statistical Manual of Mental Disorders: DSM 5. , bookpointUS. (2013).
  27. Dahlgee, S., Gilberg, C. Symptoms in the First two years of Life. A Priliminary. Population Study of Infantile Autism European archives of Psychiatry and Neurology. Sciences. , (1989).
  28. Basar-Eroglu, C., Kolev, V., Ritter, B., Aksu, F., Basar, E. EEG, auditory evoked potentials and evoked rhythmicities in three-year-old children. Int J Neurosci. 75, 239-255 (1994).
  29. Ekman, P., Friesen, W. V. Pictures of Facial Affect. , Consulting Psychologist Press. (1976).
  30. Gillberg, C. Autism and Asperger's Syndrome. , Cambridge University Press. 122-146 (1991).
  31. Chiang, S. K., Tam, W. C., Pan, N. C., Chang, C. C., Chen, Y. C., Pyng, L. Y., Lin, C. Y. The appropriateness of Blyler's and four subtests of the short form of the Wechsler Adult Intelligence Scale-III for chronic schizophrenia. Taiwanese J Psychiatr. 21, 26-36 (2007).
  32. Delorme, A., Makeig, S. EEGLAB: an open source toolbox for analysis of single-trial EEG dynamics including independent component analysis. J Neurosci Methods. 134, 9-21 (2004).
  33. Makeig, S., Bell, A. J., Jung, T. P., Sejnowski, T. J. Independent component analysis of electroencephalographic data. Adv Neural Inf Process Syst. 8, 145-151 (1996).
  34. Başar, E. Brain Function and Oscillations: Volume I: Brain Oscillations. Principles and Approaches. , Springer Science & Business Media. (2012).
  35. Tsai, A. C., et al. Recognizing syntactic errors in Chinese and English sentences: Brain electrical activity in Asperger's syndrome. Res Autism Spectr Disord. 7, 889-905 (2013).
  36. Savostyanov, A. N., et al. EEG-correlates of trait anxiety in the stop-signal paradigm. Neurosci Lett. 449, 112-116 (2009).
  37. Ashwin, C., Baron-Cohen, S., Wheelwright, S., O'Riordan, M., Bullmore, E. T. Differential activation of the amygdala and the 'social brain' during fearful face-processing in Asperger Syndrome. Neuropsychologia. 45, 2-14 (2007).
  38. Kevin, K. Y., Cheung, C., Chua, S. E., McAlonan, G. M. Can Asperger syndrome be distinguished from autism? An anatomic likelihood meta-analysis of MRI studies. J Psychiatry Neurosci. 36, 412 (2011).
  39. Piggot, J., et al. Emotional attribution in high-functioning individuals with autistic spectrum disorder: A functional imaging study. J Am Acad Child Adolesc Psychiatry. 43, 473-480 (2004).
  40. Ilyutchenok, R. Y. Emotions and conditioning mechanisms. Integr Physiol Behav Sci. 16, 194-203 (1981).
  41. Kleinhans, N. M., et al. fMRI evidence of neural abnormalities in the subcortical face processing system in ASD. Neuroimage. 54, 697-704 (2011).
  42. Toivonen, M., Rama, P. N400 during recognition of voice identity and vocal affect. Neuroreport. 20, 1245-1249 (2009).
  43. Deruelle, C., Rondan, C., Gepner, B., Tardif, C. Spatial frequency and face processing in children with autism and Asperger syndrome. J Autism Dev Disord. 34, 199-210 (2004).
  44. Bentin, S., Deouell, L. Y. Structural encoding and identification in face processing: ERP evidence for separate mechanisms. Cogn Neuropsychol. 17, 35-55 (2000).
  45. Vuilleumier, P., Pourtois, G. Distributed and interactive brain mechanisms during emotion face perception: evidence from functional neuroimaging. Neuropsychologia. 45, 174-194 (2007).
  46. Basar, E., Guntekin, B., Oniz, A. Principles of oscillatory brain dynamics and a treatise of recognition of faces and facial expressions. Prog Brain Res. 159, 43-62 (2006).
  47. Basar, E., Schmiedt-Fehr, C., Oniz, A., Basar-Eroglu, C. Brain oscillations evoked by the face of a loved person. Brain Res. 1214, 105-115 (2008).
  48. Başar, E. Brain Function and Oscillations: Volume II: Integrative Brain Function. Neurophysiology and Cognitive Processes. , Springer Science & Business Media. (2012).
  49. Anokhin, A., Vogel, F. EEG alpha rhythm frequency and intelligence in normal adults. Intelligence. 23, 1-14 (1996).
  50. Klimesch, W. EEG alpha and theta oscillations reflect cognitive and memory performance: a review and analysis. Brain Res Rev. 29, 169-195 (1999).
  51. Knyazev, G. G., Slobodskoj-Plusnin, J. Y., Bocharov, A. V. Event-Related Delta and Theta Synchronization during Explicit and Implicit Emotion Processing. Neuroscience. 164, 1588-1600 (2009).
  52. Klimesch, W., Sauseng, P., Hanslmayr, S. EEG alpha oscillations: The inhibition-timing hypothesis. Brain Res Rev. 53, 63-88 (2007).
  53. Knyazev, G. G., Slobodskoj-Plusnin, J. Y. Behavioural approach system as a moderator of emotional arousal elicited by reward and punishment cues. Pers Individ Dif. 42, 49-59 (2007).
  54. Balconi, M., Brambilla, E., Falbo, L. Appetitive vs. defensive responses to emotional cues. Autonomic measures and brain oscillation modulation. Brain Res. 1296, 72-74 (2009).
  55. Dakin, S., Frith, U. Vagaries of visual perception in autism. Neuron. 48, 497-507 (2005).
  56. Curby, K. M., Schyns, P. G., Gosselin, F., Gauthier, I. Face-selective fusiform activation in Asperger's Syndrome: A matter of tuning to the right (spatial) frequency. Poster presented at Cogn Neurosci, New York, , (2003).
  57. American_Psychiatric_Association. Diagnostic and statistical manual of mental disorders. , (1994).
  58. Dougherty, D. M., Bjork, J. M., Moeller, F. G., Swann, A. C. The influence of menstrual-cycle phase on the relationship between testosterone and aggression. Physiol Behav. 62, 431-435 (1997).
  59. Van Goozen, S. H., Wiegant, V. M., Endert, E., Helmond, F. A., Van de Poll, N. E. Psychoendocrinological assessment of the menstrual cycle: the relationship between hormones, sexuality, and mood. Arch Sex Behav. 26, 359-382 (1997).
  60. Winward, J. L., Bekman, N. M., Hanson, K. L., Lejuez, C. W., Brown, S. A. Changes in emotional reactivity and distress tolerance among heavy drinking adolescents during sustained abstinence. Alcohol Clin Exp Res. 38, 1761-1769 (2014).

Tags

Comportamento Edição 113 freqüência espacial síndrome de Asperger atividade elétrica cerebral potenciais relacionados a eventos perturbações do espectro relacionados a eventos facial reconhecimento de emoções,
Representações conscientes e não-conscientes de Faces emocionais na síndrome de Asperger
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Chien, V. S. C., Tsai, A. C., Yang,More

Chien, V. S. C., Tsai, A. C., Yang, H. H., Tseng, Y. L., Savostyanov, A. N., Liou, M. Conscious and Non-conscious Representations of Emotional Faces in Asperger's Syndrome. J. Vis. Exp. (113), e53962, doi:10.3791/53962 (2016).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter