Représentations conscientes et non conscientes de visages émotionnels dans le syndrome d'Asperger

JoVE Journal
Behavior

Your institution must subscribe to JoVE's Behavior section to access this content.

Fill out the form below to receive a free trial or learn more about access:

 

Summary

Un protocole expérimental EEG est conçu pour clarifier l'interaction entre les représentations conscientes et non conscientes de visages émotionnels chez les patients atteints du syndrome d'Asperger. La technique suggère que les patients atteints du syndrome d'Asperger ont des déficits dans la représentation non-consciente des visages émotionnels, mais ont des performances comparables dans la représentation consciente avec des témoins sains.

Cite this Article

Copy Citation | Download Citations | Reprints and Permissions

Chien, V. S. C., Tsai, A. C., Yang, H. H., Tseng, Y. L., Savostyanov, A. N., Liou, M. Conscious and Non-conscious Representations of Emotional Faces in Asperger's Syndrome. J. Vis. Exp. (113), e53962, doi:10.3791/53962 (2016).

Please note that all translations are automatically generated.

Click here for the english version. For other languages click here.

Abstract

Plusieurs études de neuroimagerie ont suggéré que la faible teneur en fréquence spatiale dans une face émotionnelle active principalement l'amygdale, pulvinar et colliculus supérieur en particulier avec des visages effrayants 1-3. Ces régions constituent la structure limbique dans la perception non consciente des émotions et modulent l' activité corticale directement ou indirectement 2. En revanche, la représentation consciente des émotions est plus prononcé dans le cortex cingulaire antérieur, le cortex préfrontal et le cortex somatosensoriel pour diriger l' attention volontaire aux détails dans les visages 3,4. Le syndrome d'Asperger (AS) 5,6 représente une perturbation mentale atypique qui affecte les capacités sensorielles, affectives et communicatives, sans interférer avec les compétences linguistiques normales et la capacité intellectuelle. Plusieurs études ont montré que les déficits fonctionnels dans les circuits neuronaux importants pour la reconnaissance des émotions faciales peuvent expliquer en partie l'échec de la communication socialepatients atteints de 7-9. Afin de clarifier l'interaction entre les représentations conscientes et non conscientes de visages émotionnels dans AS, un protocole expérimental EEG est conçu avec deux tâches impliquant l'évaluation de l'émotivité de l'une photographie ou des visages de ligne de dessin. Une étude pilote est introduit pour la sélection des stimuli faciaux qui minimisent les différences dans les temps de réaction et les scores attribués à des émotions faciales entre les patients prétestées avec AS et IQ / témoins sains appariés sur le sexe. L'information provenant des patients prétestées a été utilisé pour développer le système de notation utilisé pour l'évaluation de l'émotivité. La recherche sur les émotions du visage et des stimuli visuels avec des contenus différents de fréquence spatiale a atteint des résultats discordants selon les caractéristiques démographiques des participants et de la tâche exige 2. Le protocole expérimental vise à clarifier les déficits chez les patients avec AS dans le traitement des visages émotionnels par rapport aux témoins sains en contrôlant pour le facteurs sans rapport avec la reconnaissance des émotions faciales, comme difficulté de la tâche, le QI et le sexe.

Introduction

la reconnaissance des émotions du visage est l'un des processus du cerveau les plus importants dans le domaine des communications sociales. Une variété de troubles mentaux sont liés à des problèmes avec la détection explicite des émotions faciales 4-6. Une photographie d'un visage contient un spectre de l'information spatiale qui peut être filtrée soit pour la haute fréquence spatiale (HSF) ou basse fréquence spatiale (LSF) contenu. HSF est liée à des parties très détaillées d'une image, comme les bords d'un visage, tandis que LST est liée à plus grossier ou des parties moins bien définis, comme un visage holistique avec des teneurs en LSF 7. Toute tâche de reconnaissance de visage induit simultanément des processus conscients et non conscients 8-12, et la participation du processus non-conscient se produit dans le 150-250 après msec intervalle début ou même plus tôt 13. Dans les contrôles sains, le processus non-conscient est généralement plus rapide que le processus 14,15 conscient. Plusieurs études de neuroimagerie ont suggéré quela LSF dans un stimulus facial (ou stimulus motivationally significative) active principalement l'amygdale, pulvinar et colliculus supérieur en particulier avec des visages effrayants 3,16. Ces régions constituent la structure limbique dans la perception non consciente des émotions et modulent l' activité corticale directement ou indirectement 1. En revanche, la représentation consciente des émotions est plus prononcé dans le cortex cingulaire antérieur, le cortex préfrontal et le cortex somatosensoriel pour diriger l' attention volontaire aux détails dans le visage 9,17,18.

Le syndrome d'Asperger (AS) 19,20 représente une perturbation mentale atypique qui affecte les capacités sensorielles, affectives et communicatives, sans interférer avec les compétences linguistiques normales et la capacité intellectuelle. Plusieurs études ont montré que les déficits fonctionnels dans les circuits neuronaux importants pour la reconnaissance de l' émotion du visage peut expliquer en partie l'échec de la communication sociale dans AS 21-25.Les troubles du comportement observés chez les enfants atteints AS peuvent être diagnostiqués au cours des trois premières années de vie 26, une période au cours de laquelle leur contrôle volontaire (ou conscient) sur les comportements ne sont pas pleinement développé 27. Chez les adultes avec AS, les troubles du comportement peuvent être compensées par la réglementation de l' attention 28. Difficulté de détails de traitement dans une certaine plage de fréquences spatiales peut indiquer une perturbation dans les différentes étapes de traitement de l'information. Jusqu'à présent, aucune étude n'a abordé directement les potentiels évoqués et activité oscillatoire chez les patients avec AS lors de la reconnaissance de l'émotion faciale impliquant stimuli faciaux dans des gammes spécifiques de fréquences spatiales. Il est important d'examiner la trajectoire fonctionnelle chez les patients avec AS par rapport aux témoins en bonne santé au cours du traitement des stimuli faciaux avec des contenus différents de fréquence spatiale en contrôlant les exigences de la tâche et les effets démographiques tels que le sexe et le QI.

Afin de clarifier l'interjouer entre les représentations conscientes et non conscientes de visages émotionnels, un protocole expérimental EEG est conçu pour comparer le cerveau potentiels évoqués et activité oscillatoire entre les patients avec AS et IQ / témoins sains appariés sur le sexe. Une cohorte de participants au projet pilote a été recruté avant l'expérience EEG pour l'aide à la sélection des stimuli expérimentaux et le développement d'un système de notation afin de faciliter une évaluation des performances chez les patients avec AS. Le protocole se compose de deux tâches impliquant l'évaluation de l'émotivité de l'une photographie ou des visages de ligne de dessin. Les différences entre les deux groupes peuvent être évalués en calculant ERPs et perturbations spectrales liées à l'événement (ERSPs). Dans la section suivante, les détails du protocole expérimental sont élaborés, y compris l'étude pilote et de données EEG méthodes de traitement / analyse, suivi par les principaux résultats de l'analyse. Enfin, les étapes critiques dans le protocole et sa signification par rapport à existantméthodes sont discutées. La limitation et l'éventuelle extension du protocole à utiliser chez les patients atteints d'autres troubles émotionnels sont également signalés.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Déclaration d'éthique: Les procédures impliquant des participants humains ont été approuvés par les droits de l'éthique de la recherche des participants Comité / Conseil d'examen institutionnel à l'Academia Sinica, Taiwan.

1. Stimuli et Expérimentale Préparation du programme

  1. Préparer un bassin de plus de 60 photographies de face émotionnelles 29 classées en trois expressions faciales ( en colère, heureux, et neutre). Utilisez un logiciel graphique pour masquer les parties de cheveux et de l' oreille dans les photographies avec un fond noir comme le montre la figure 1A afin que les participants puissent se concentrer sur les traits du visage dans les photographies.
    1. Ouvrez une photo dans le logiciel graphique. Utilisez la boîte à outils de sélection pour dessiner une région elliptique et ajuster la taille de la région de sorte que les oreilles et les cheveux les plus ne tombent pas dans l'ellipse.
    2. Inverser la région sélectionnée. Cliquez sur "Supprimer" pour supprimer la région non désirée de la photographie et le remplacer par la couleur de fond noir.

Figure 1
Figure 1. Exemples de stimuli faciaux émotionnels. (A) faces photographie où les cheveux et les oreilles ont été masqués dans la couleur de fond noir, et (B) ligne dessin visages qui sont édités à partir de (A) par le logiciel graphique. Les visages montrent des émotions neutres, heureux, et en colère , respectivement de haut en rangées inférieures. S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

  1. Créer une étude pilote. Recruter les participants pilotes pour la sélection des stimuli appropriés à partir du pool de photographie.
    Note: Les participants pilotes ne devraient pas participer à l'expérience EEG.
    1. Configurer le programme de présentation du stimulus en commençant par le premier écran d'ordinateur présentant la tâche instruction, suivie par 5 familessais de iarization. Commencez chaque essai avec une croix de fixation, suivi par un stimulus de visage, et par une équipe d'évaluation de l'émotivité. Voir code supplémentaire Fichier pour un exemple de programme.
      Note: Les vrais essais pilotes suivent immédiatement les essais de familiarisation en sélectionnant des photos de visage dans un ordre aléatoire de la piscine.
      1. Créer un programme expérimental, y compris les écrans d'instruction et un écran central eye-fixation. Créer l'écran de stimulation de visage comme illustré sur la figure 2 en configurant la taille de la photo pour 18,3 x 24,4 cm 2 (largeur x hauteur) avec la couleur de fond noir, étant donné la taille de l' écran d'ordinateur 41 x 25,6 cm 2 avec une résolution 1680 x 1050. Voir code supplémentaire Fichier pour un exemple de programme.
      2. Créer un système de notation pour l' évaluation de l' émotivité dans le programme , comme illustré sur la figure 3. Placez une ligne horizontale allant de -100 à 100 dans une échelle continue dans le centre de l'écran without des graduations, sauf pour la centrale et les paramètres. Préparer le programme de telle sorte que les participants puissent évaluer librement l'émotion d'un visage de photographie en faisant glisser le curseur de pointage vers la gauche pour très en colère (-100) et à droite pour très heureux (+100), et appuyez sur le bouton GO.
        Note: La ligne de notation est conçu sans graduations parce que les patients avec AS peuvent facilement se coincer à placer le curseur entre les tiques lors de l'évaluation de l'émotivité. Par conséquent, une échelle continue est préférée pour les patients.
      3. Assurez - vous que le programme enregistre des résultats du comportement d'un participant (par exemple , le temps de réaction et les scores de émotionnalité), qui sont utilisés comme critères pour le choix des photographies de la piscine (voir étape 1.3.1).
    2. Recruter les participants pilotes (5 de contrôle et 5 participants AS pilotes). Diagnostiquer patients cliniques selon Gillberg 30 et les critères du DSM-IV 26 et administrer le court-forme clinique dérivé de Wechsler pour adultes Intelligence Scale (WAIS-III) 31. Faites correspondre les contrôles à leurs homologues AS aussi étroitement que possible sur le sexe, et verbale / performances scores de QI.
    3. Exécutez la procédure expérimentale dans l'étude pilote pour chaque participant. Après avoir terminé la tâche émotionnelle de reconnaissance de visage, interviewer chaque pilote AS participant sur la durée raisonnable des périodes de fixation des yeux central et la présentation du stimulus, de la difficulté de la tâche, la facilité d'utilisation du système de notation et le nombre maximum d'essais pour garder son / sa la concentration, sur la base desquelles le programme peut être reconfiguré pour l'expérience EEG (voir l'étape 1.3.2)

Figure 2
Figure 2. Une capture d' écran d'un stimulus de visage dans le programme. La taille de la face est configuré pour correspondre à la hauteur de l'écran. La zone vide est rempli avec la couleur noire.télécharger / 53962 / 53962fig2large.jpg "target =" _ blank "> S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 3
Figure 3. Une capture d' écran du système de notation pour l' évaluation de l' émotivité. La barre de notation est conçu pour avoir aucune coche. Le participant doit faire glisser la souris pour sélectionner la note attribuée à une face et appuyez sur le bouton GO pour terminer la tâche. S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

  1. Programme pour la tâche 1: Photograph session.
    1. Choisissez parmi la piscine 30 photographies, comprenant 10 chacun pour les expressions du visage heureux, en colère, et neutres (5 mâles et 5 femelles faces pour chaque type d'expressions), qui donnent les moments les plus comparables de réaction moyenne et moyenne des scores de émotionnalité entre le 5 AS et 5 participants au projet pilote de contrôle. Mettre à jour les configurations de programme expérimental en incorporant les réactions des patients pilotes, comme la période centrale oculaire fixation optimale ( par exemple, 1 000 ms), durée de l' impulsion de présentation ( par exemple 1000 ms), l' intervalle entre stimuli ( par exemple, répartis de façon aléatoire dans -entre 4 et 7 sec), et à l' échelle du système de notation (ie, -100 à 100). Ajouter cinq essais de familiarisation avant les 30 essais expérimentaux dans le programme.
      1. Modifier le nombre de stimuli et des intervalles de temps dans un fichier externe de texte de configuration associé au programme expérimental.
        Remarque: Le fichier texte peut être modifié pour adapter à différentes conditions expérimentales sans intervention des ingénieurs logiciels.
      2. Ne pas compter les cinq photographies pour les essais de familiarisation aux 30 photographies sélectionnées. Ne pas utiliser les électroencéphalogrammes et les données comportementales enregistrées dans les essais de familiarisation dans l'analyse des données.
  2. Programme fou Tâche 2: Ligne-dessin Session.
    1. Créer des images de ligne de dessin des 35 photographies (5 pour les essais de familiarisation, 30 pour les essais expérimentaux) utilisés dans la tâche 1 en traçant les bords de chaque face. Utilisez un logiciel graphique pour modifier les images d'échelle de gris en dessins au trait en noir et blanc comme le montre la figure 1B.
      Remarque: Les étapes ci-dessous pour l'édition de photo est l'une des solutions possibles pour la fabrication de dessins au trait.
      1. Dans le logiciel graphique, régler la luminosité / contraste de la photo de telle sorte que l'original intensité d'échelle de gris dans les pixels de la majorité tombe en noir ou blanc.
      2. Appliquer "effet sketch" dans l ' "effet" ou le menu "Filtre" du logiciel pour une photographie d'échelle de gris de sorte que seul le contour de la partie haute fréquence spatiale est préservée, et d'appliquer «l'effet de détresse" pour augmenter la dilatation des lignes de contour .
      3. Utilisez un outil pinceau pour rehausser les contours et d'utiliser un outil gomme pournettoyer les parties non désirées. Assurez-vous de garder les traits du visage importants en vérifiant et-vient entre la photographie originale et son homologue de la ligne de dessin.
    2. Faites une copie du programme de la tâche 1 dans l'étape 1.3 pour créer un programme pour la tâche 2 et remplacer les 35 photographies Tâche 1 avec les dessins au trait correspondants.

2. Procédure d'enregistrement EEG

  1. Les préparatifs
    1. Recruter 10 témoins sains et 10 patients avec AS pour des expériences EEG sur la base des lignes directrices de l'éthique de la recherche en participant humain comité local / Institutional Review Board.
    2. Administrer le court-forme de WAIS-III 31 aux patients avec AS individuellement avant les expériences, et de trouver les commandes qui correspondent aux patients aussi étroitement que possible sur le genre et sur ​​les scores de QI / performance verbale.
  2. enregistrement EEG
    1. Siège du participant dans un fauteuil confortable dans un insulate sond (faiblement éclairé) chambre et régler la position de la chaise de telle sorte que l'écran d'ordinateur est de 60 cm en face du participant. Après un tutoriel sur la procédure expérimentale, ont le participant de remplir les formulaires de consentement ainsi que quelques questions sur sa / son impartialité.
    2. Utilisez un bouchon EEG avec 132 électrodes Ag / AgCl (y compris 122 10-10 système EEG, et l'VEOG bipolaire, HEOG, ECG, électrodes EMG, ainsi que six canaux facial-musculaires) pour enregistrer EEGs. Branchez le bouchon à deux amplificateurs 64 canaux avec 0,1-100 Hz analogique filtre passe-bande pour numériser EEGs premières à 1000 le taux d'échantillonnage de Hz.
    3. Monter le 128-canal EEG bouchon standard à la tête de chaque participant. Ajuster le capot de telle sorte que l'électrode étiqueté "référence" est placé à la position "Cz", qui est situé par rapport aux repères de la ligne médiane antérieure / postérieure (c. -à- milieu de la nasion à distance de inion), et à gauche / repères droite (c. -à- milieu de la tragis gauche / droite), d' après le EEG système international 10/10.
    4. utiliser doucement une aiguille émoussée pour injecter un gel conducteur dans toutes les électrodes. Remuer avec l'aiguille lentement à l' intérieur de l'électrode pour assurer un bon contact de gel entre le cuir chevelu et l'électrode (ie, pour maintenir l'impédance inférieure à 5 kQ). vérifier en permanence la condition de contact de gel au niveau des électrodes étiquetés «de référence» et «terre» sur le bouchon EEG pour vous assurer que la mesure d'impédance est correcte.
      1. Observer l'impédance de l' électrode en regardant l'écran d'impédance d'électrode supportée par le logiciel d'enregistrement EEG (par exemple SCAN 4.5 dans cette étude) qui va généralement avec le système EEG. Sur l'écran, les électrodes sont représentées dans des couleurs et différentes couleurs indiquent les niveaux d'impédance.
    5. Placer une électrode de HEOG au niveau du canthus de l'œil (site positif), et la seconde électrode au niveau du canthus de l'autre oeil (site négatif), une électrode de VEOG ci-dessus et l'autre au-dessous du loeil auche, électrodes ECG bipolaires sur le dos des électrodes EMG bipolaires mains gauche et droite, et dans la zone située entre le pouce et l'index de la main droite, et les six électrodes du visage autour du sourcil et la joue.
    6. Enregistrer dans un cahier ces mauvais canaux dans lesquels l'impédance est supérieure à 5 kQ, ou directement enregistrer l'impédance d'écran montrant à toutes les électrodes. Utilisez cette référence future pour rejeter les mauvais canaux à l'étape du traitement des données EEG.
    7. Enregistrez EEGs d'état de repos après l'instruction au participant de fermer les yeux pendant 12 min. Pendant ce temps, vérifier doublement la qualité du flux d'EEG instant montré sur l'écran pris en charge par le logiciel d'enregistrement EEG.
      Note: Il devrait y avoir des ondes alpha claires distribuées dans les canaux occipitales pendant la condition des yeux-fermés par rapport à l'état des yeux ouverts. Si les ondes alpha sont trop bruyants (en ignorant les mauvais canaux) ou déformée, revenir à l'étape 2.2.4 et régler le contact de gel.
    8. Démarrez les deux tâches expérimentales dans un ordre de contre-équilibrée entre participants. EEGs Record en cliquant sur l'icône d'enregistrement sur l'écran pris en charge par le logiciel d'enregistrement.
      1. Après avoir lu la tâche instructions affichées à l'écran, demandez à chaque participant effectue les 5 essais de familiarisation, suivis par les essais 30 de la tâche. Utilisez la même procédure pour les photographier et les tâches de ligne de dessin. Dans la tâche instruction, encourager les participants à attribuer une note à l'émotivité d'un stimulus de visage aussi vite que possible.
      2. IMPORTANT: Vérifiez les programmes préparés dans les étapes 1.3.2 et 1.4.2 pour l'envoi d'événements correctement le temps verrouillé à l'apparition de l'œil-fixation centrale, face à la présentation du stimulus, et en appuyant sur le bouton GO pour le logiciel d'enregistrement lors de l'évaluation de l'émotivité. Ces temps d'apparition sont codés comme numérique et peuvent être vérifiés sur l'écran pris en charge par le logiciel d'enregistrement.
        Remarque: Le participant peut prendre une pause entre les deux tâches. Il n'y a pas EEG reCording pendant la pause.
    9. Utilisez un numériseur (par exemple , le numériseur Polhemus FASTRAK 3D dans cette étude) pour enregistrer les positions 3D des électrodes et de l' enregistrer dans un fichier (par exemple .3dd ou fichier .dat) pour les bouchons EEG co-enregistrement à travers les participants à l' analyse des données.
    10. Après l'expérience EEG, ont le participant de remplir un inventaire de 35 questions sur son / ses comportements et sentiments pendant l'expérience EEG (par exemple, avoir des émotions négatives, presque tombé dans le sommeil), et de leur fournir le paiement pour participer à l'expérience.
    11. Amener le participant aux toilettes pour nettoyer / sécher son / ses cheveux.
    12. Nettoyez et stérilisez le bouchon EEG selon les instructions cliniques.

3. Traitement des données EEG

Remarque: Les commandes logicielles fournies dans cette section sont spécifiques pour EEGLAB.

  1. Filtrer les signaux EEG à l'aide d'un filtre passe-haut de 1 Hz et un filtre passe-bas de 50 Hz en appelant lefonction pop_eegfilt.m 32.
    Remarque: Utilisez un filtre passe-bas de 40 Hz pour certains pays qui ont 50 Hz fréquence du réseau électrique
  2. Jeter mauvais canaux avec impédance supérieure à 5 kQ après vérification de l'impédance de l'électrode enregistrée à l'étape 2.2.6. Jeter ces mauvais canaux avec spectre de puissance très différente par rapport aux canaux voisins par inspection visuelle des caractéristiques du spectre de puissance (par exemple, la valeur maximale, la courbure, etc.) dans chaque canal.
    1. Calculer et tracer le spectre du signal EEG de puissance en appelant la fonction de pop_spectopo.m 32.
  3. Re-référencer les signaux EEG avec la moyenne des canaux du cerveau sans les mauvais canaux en appelant la fonction de pop_reref.m.
  4. EEGs sectoriels dans les époques de relance sans littoral, dont chacun varie de -2.0 sec avant à 1,5 sec post-début du stimulus. Correct pour la ligne de base (-2,0 à -1,2 sec avant le début du stimulus) en supprimant la moyenne des valeu de basees de chaque époque.
    1. Appelez les fonctions pop_epoch.m et pop_rmbase.m, respectivement. Choisissez l'intervalle de référence avant la période eye-fixation centrale et le début du stimulus de visage.
  5. Marquer les mauvaises époques qui semblent contenir des artefacts. Jeter les mauvaises époques tout en se réservant les époques contaminées par des clignements d'yeux. Les époques avec des artefacts regardent habituellement bruyants ou ont une valeur de crête extrêmement élevé (par exemple supérieur à 100 mV) par rapport aux époques typiques.
    1. Appelez la fonction pop_rejmenu.m de lancer une procédure semi-automatique. Une fenêtre d'interaction va sortir de re-confirmer les mauvaises époques auto-sélectionné par l'utilisateur via une inspection visuelle. Bien que la majorité des époques sont contaminés par des clignements d'yeux, ces époques peuvent être provisoirement réservées pour le retrait ultérieur par une analyse en composantes indépendantes (ICA) 33 à l' étape 3.8.
  6. Après avoir jeté les mauvais canaux et les mauvaises époques, exécutez ICA sur les données EEG élagués en utilisant le pop_runifonction ca.m.
  7. Parmi les composantes estimées indépendantes (CI), identifier les artefacts résultant du mouvement des yeux / blink, l' activité musculaire, le rythme cardiaque, et le bruit de la ligne 32.
    Note: Une corrélation significativement élevée (R 2> 0,9) entre IC scores d'un composant et ceux de tous les canaux de référence (VEOG, HEOG, ECG, et les canaux du visage) indique que cette composante est principalement contribué par des artefacts. Les scores IC estimés expliqués par les artefacts peuvent être nettoyés à l'aide de l'analyse de régression multiple.
  8. Retirer CI d'artefacts et d'estimer les EEGs propres qui sont dérivés par le produit de l'ICA de mélange matrice et IC matrice de score d'artefact nettoyé. Save the EEGs propres pour une analyse plus approfondie.
    1. Garder les résidus de prédiction de circuits intégrés d'artefacts (R 2> 0,9) de la référence VEOG, HEOG, ECG et les canaux du visage dans la matrice de score IC. Retirez les autres circuits d'artefact par la fonction pop_subcomp.m. La fonction retourne les EEGs artefacts nettoyés.

    4. Analyse statistique

    1. canaux Partition EEG dans des régions homogènes de onze pour réduire le nombre de comparaisons statistiques en ERP et ERSP analyse, qui est, gauche (10 canaux), midline- (14), et à droite-frontal (10); gauche (13) et à droite temporelle (13); gauche (9), midline- (14) et le centre-droit (9); gauche (9), midline- (12) et à droite-occipitale pariétale (9) comme le montre la figure 4. Ces régions sont définies en fonction de l'anatomie fonctionnelle du cortex 34. Homogénéité fonctionnelle des signaux EEG dans ces régions a été validé dans différentes expériences 13,35,36.

    Figure 4
    Figure 4. La partition de canal. Les canaux sont divisés en onze régions. LF:-frontal gauche (10 canaux), MF: midline-frontal (14), RF: droit frontal (10), LT: gauche-temporelle (13), RT: droit temporel (13), LC: gauche-centrale (9), MC: midline-central (14), RC: central droit (9), LP: pariétale gauche-occipitale (9), MP: pariétale midline-occipitale (12), RP :. pariétale droite-occipitale (9) S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

    1. Chargez les EEGs propres à l'étape 3.8. Calculer l'ERP de canal en calculant la moyenne des signaux à travers les époques dans chaque canal, et ERP régionale en faisant la moyenne ERPs dans la même région.
      Note: Lorsque EEGs sont chargés à l'aide de la fonction pop_loadset.m dans EEGLAB, les signaux sont stockés dans la structure variable "EEG.data" dans un tableau canal par temps par époque.
      1. Dans la fenêtre de commande Matlab, calculer l'ERP de canal en faisant la moyenne EEG.data à travers les époques pour chaque canal (par exemple, channelERP = moyenne (EEG.dat, 3)). Calculer l'ERP régionale en faisant la moyenne des ERPs de canal au sein de chaque région en fonction de la partition en 4.1 (par exemple, regionalERP = moyenne (channelERP (index, :), 1), où "index" représente les indices de canal dans une région donnée).
    2. Calculer les ERSPs de canal en appliquant une transformée temps-fréquence (par exemple transformée en ondelettes) à epoch signaux dans chaque canal, et ERSPs régionaux en faisant la moyenne canal ERSPs dans la même région.
      1. Effectuer le temps-fréquence transformée en appelant la fonction de pop_newtimef.m.
        Remarque: Dans cette étude, le "cycles ondelettes" entrée est réglé sur [1, 0,5] et "de base" est réglé sur [-2000 à -1200] msec. Les ERSPs de canal résultant seront stockés dans un tableau de fréquence par le temps par canal.
      2. Dans la fenêtre de commande Matlab, calculer la ERSP régionale en faisant la moyenne ERSPs à travers des canaux dans chaque région en fonction de la partition en 4.1 (par exemple, regionalERSP = moyenne (channelERSP (:,:, index), 3), où "channelERSP" est la sortie de la fonction pop_newtimef.m et "index" représente les indices de canal dans agrégion Iven).
    3. Calculer les valeurs moyennes dans différents intervalles de temps (par exemple 50-150, 150-250, 250-350, 350-450 msec) pour ERPs régional. Calculer les valeurs moyennes dans différents intervalles temps-fréquence (par exemple 50-150, 150-250, 250-350, 350-450, 450-800 msec 1-7 Hz et 200-800 msec à 8-30 Hz) pour la région ERSPs.
    4. Appliquer MANOVA dans le logiciel statistique (par exemple IBM SPSS) pour les valeurs moyennes des ERPs régionales et ERSPs pour évaluer les effets principaux de la tâche (photographie vs. dessin au trait), la région (onze régions du cuir chevelu), et le groupe (AS vs contrôle) ainsi que les effets de l'interaction entre la tâche, de la région et du groupe.
      1. Dans l'analyse statistique, tenir compte du sexe (hommes vs femmes) comme covariable, et d'estimer les principaux et l'interaction des effets en tenant la constante d'effet de genre.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

La moyenne des scores de QI verbal et de performance sont énumérées dans le tableau 1 pour le contrôle et l' AS groupes ainsi que les temps de réaction moyens et les scores moyens attribués à l' émotivité des visages des deux groupes. Dans le tableau, aucune des différences de groupe atteint la signification statistique à l' exception des visages neutres dans la tâche de ligne de dessin, où le groupe AS a une moyenne proche de zéro (p <0,001) 13. Fait intéressant, le groupe AS a encore un peu plus longs temps de réaction que le groupe témoin à répondre à des visages en colère et heureux, et la réduction des temps de réaction pour répondre aux visages neutres, même sous le contrôle expérimental de genre, IQ et le visage stimuli. Le syndrome d'Asperger est trouvé avec des déficiences dans l'amygdale et ses structures limbiques associées 37-39, qui sont connus pour être impliqués dans la mémoire des émotions , sauf pour l'émotion neutre 40,41. Ces struct limbiqueUres associés au processus non conscients peuvent jouer un rôle important dans l'interprétation des réponses comportementales chez les patients avec AS.

Tableau 1
Tableau 1. Les données comportementales des scores sur le Wechsler Intelligence adulte Échelle-III, les temps de réaction, et les scores de émotionnalité moyens assignés pour faire face à des stimuli dans les tâches de photographie et de tracé. Ce tableau est une version modifiée du tableau 1 de Tseng et al . 13

Comme le montre la Figure 5, la composante N400 dans le groupe de contrôle est prononcé dans le frontal, temporal et occipital-pariétales régions dans les deux tâches de photographie et de tracé, mais l'amplitude de cette composante est plus petite dans la tâche de ligne de dessin. Dans le groupe AS, le N400 est visible dans la région frontale de la ligne médiane, mais invisible dans d'autres régions dans la tâche de photographie, et becomes visibles dans toutes les régions frontales dans la tâche de ligne de dessin. La tâche par groupe effet d'interaction MANOVA est significatif dans l'intervalle 350-450 apparition post msec (p = 0,019). Les deux groupes montrent également des différences significatives dans la perception au début de la tâche de photographie 42, et avoir des modèles ERP comparables dans la tâche de ligne de dessin; autrement dit, l'effet tâche par l' interaction de groupe est aussi significatif dans l'intervalle 50-150 apparition post msec (p = 0,035). Photographie et faces de la ligne de dessin atteignent la plus grande différence ERP dans les régions temporales et occipitales-pariétales dans l'intervalle 250-550 msec.

Figure 5
Figure parcelles 5. ERP. Les parcelles ERP dans le frontal droit, les régions occipitale-pariétales temporelles et de droite à droite dans le contrôle (bleu) et AS (rouge) groupes dans le (A) photographie et tâches (B) ligne-dessin. Les emplacements des canaux EEG sontmontré dans la partie supérieure gauche de chaque parcelle. L'axe vertical représente la tension d'ERP (uV) et l'axe horizontal indique le temps en msec. Ce chiffre est une version modifiée de la figure 2 dans Tseng et al. 13 S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Comme le montrent les figures 6 et 7, la synchronisation delta / thêta dans le groupe de contrôle est prononcé dans le 50-800 après msec intervalle apparition dans les deux tâches. Les régions occipitale-pariétales affichent la plus forte synchronisation, suivie par les régions centrales et temporelles, puis par les régions frontales au début 50-350 intervalle msec, et les différences régionales disparaissent après 350 msec. Les régions occipitale-pariétales démontrent également la plus forte désynchronisation alpha / bêta dans l'intervalle 200-800 msec. En genéral, les photographies ont un effet additif sur la ligne-dessins en synchronisation delta / thêta, mais les dessins au trait induisent plus fort alpha / beta désynchronisation. Le groupe AS a la synchronisation delta / thêta plus comparable à celle du groupe de contrôle dans la tâche de ligne de dessin, et aucun effet apparent d'additif associé avec les faces de photographie. La tâche par groupe effet d'interaction MANOVA est significative dans les 50-150, 250-350 et 350-450 poste msec intervalles d' apparition (p = 0,043, 0,003 et 0,015, respectivement). L'effet de groupe est également importante dans les 150-250, 250-350 et 350-450 intervalles msec (p = 0,033, 0,011 et 0,022, respectivement). Le groupe AS affiche une synchronisation plus fort delta / thêta dans les régions occipitale-pariétales dans l'intervalle 150-250 msec ainsi que les régions de la ligne médiane dans l'intervalle 350-450 msec lorsqu'on les compare aux autres régions du cuir chevelu. La désynchronisation alpha / bêta dans le groupe AS est similaire à celle du groupe de contrôle (et légèrement plus forte) enles deux tâches, mais les différences entre les deux tâches ont tendance à être plus faible dans le groupe AS. Le groupe MANOVA et tâche par groupe effets sont statistiquement significatifs dans les oscillations à haute fréquence.

Figure 6
Figure 6. parcelles ersp dans la tâche de photographie. Les parcelles ersp pour le (A) le contrôle et (B) AS groupes dans la tâche de photographie. La couleur rouge indique une augmentation de puissance (synchronisation), et la couleur bleue représente la diminution de puissance (désynchronisation) par rapport à la ligne de base. Ce chiffre est une version modifiée de la figure 3 dans Tseng et al. 13 S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 7
Figure 7. parcelles ersp en til tâche de ligne de dessin. parcelles ersp pour le (A) le contrôle et (B) AS groupes dans la tâche de ligne de dessin. Ce chiffre est une version modifiée de la figure 3 dans Tseng et al. 13 S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Les résultats de l'ERP suggèrent une différence de groupe au début des années perception (50-150 msec) et la reconnaissance sémantique plus tard (350-450 msec) de visages émotionnels dans la tâche de photographie. Le groupe AS a une amplitude de P1 plus petite dans la tâche de photographie et un peu plus grande amplitude P1 dans la tâche de ligne de dessin en comparaison avec le groupe témoin. Les différences d'amplitude dans le P1 entre les deux tâches peuvent refléter le caractère unique des patients atteints d'AS dans la perception de photographies et de dessins ligne 43. Le N400 est montré à être fortement affectée parle contenu émotionnel, la familiarité et caractéristiques globales / locales faces 44. Dans notre étude, la N400 (350-450 msec) dans les régions frontales et temporelles est très visible dans le groupe de contrôle, mais presque invisible dans le groupe AS dans la tâche de photographie. En reconnaissance des émotions faciales, le N400 peut être interprétée comme un processus de recherche d'un lien entre un visage et son interprétation sémantique (colère, neutre et heureux). Dans le groupe témoin, la différence ERP entre les deux tâches dans l'intervalle 350-450 msec est compatible avec les résultats des autres. L'amygdale est plus actif aux visages effrayants intactes ou visages effrayants ne contenant que le contenu de LST 3,45. En tant que le plus grand contenu LSF sont retirés des dessins au trait, ces données provenant du groupe témoin indiquent que le N400 est beaucoup plus faible dans la région occipitale-pariétale et presque invisibles dans les régions temporales par rapport à celle dans la tâche de photographie.

becausinformations e traitement des dessins au trait dépend moins de la fonction non-consciente dans l'amygdale, les patients avec AS montrent des modèles ERP plus comparables que les témoins en bonne santé dans les (350-450 msec) étapes ultérieures lors de la reconnaissance faciale émotionnelle. Fait intéressant, le groupe AS peut accomplir les tâches d'évaluation de l'émotivité correctement sans la N400 visible dans la tâche de photographie. Il est raisonnable de supposer que le traitement de l'information par l'amygdale et ses structures limbiques associées jouent un rôle crucial dans le déclenchement de l'amplitude de la N400, qui peuvent influer sur le rendement de traitement de l'information chez les patients avec AS, mais n'a aucun effet sur leur précision de réponse.

Il a été montré que la reconnaissance faciale émotionnelle engage précoce et plus tard les changements dans les oscillations delta / thêta 8, qui sont considérés comme l'activité cérébrale associée aux projections cortico-limbiques lors de stimulus estimation 46-48. desynchronisation / thêta lta est plus associé à la non-consciente qu'avec la reconnaissance faciale consciente 46. Les résultats sur ERSPs indiquent en outre que le groupe AS a une synchronisation beaucoup plus faible dans les rythmes delta / thêta dans les stades précoces et tardives de la reconnaissance faciale émotionnelle. Il est raisonnable de supposer que la synchronisation delta / thêta plus faible reflète une perturbation dans le traitement non-conscient des expressions émotionnelles et un échec dans la projection limbique-corticale chez les patients avec AS. synchronisation / thêta Delta est légèrement plus prononcée dans le frontal de la ligne médiane, la ligne médiane régions centrales et la ligne médiane occipitale-pariétales par rapport à d'autres régions du cuir chevelu dans le groupe AS dans le 350-450 après msec intervalle apparition dans les deux tâches. Ces régions médianes sont étroitement liées à la structure corticale de représentation consciente de signification émotionnelle 18.

Parce que la voie cognitive ou consciente est toujours médiatiséepar la structure limbique comme le thalamus, nous pouvons supposer que le groupe AS repose sur la voie consciente plus que la voie non-conscient pour répondre aux photographies et dessins au trait. Dans le groupe témoin, la puissance delta / thêta atteint la plus forte dans les régions pariéto-occipitales temps verrouillé à début du stimulus et augmente dans les régions frontales à un stade ultérieur dans la tâche de photographie. La répartition spatiale de la puissance delta / thêta dans la tâche dessin au trait se rapproche de celle du groupe AS. Nous supposons que le groupe de contrôle engage les voies conscientes et non conscientes dans la tâche de photographie, et repose sur la voie consciente dans la tâche de ligne de dessin.

Lorsque l'on compare ERSPs entre les deux tâches, le groupe de contrôle indique en outre un effet additif des matières LSF sur la synchronisation delta / thêta dans l'intervalle 250-450 apparition post msec, indépendamment des régions du cerveau et des mécanismes elicited par les émotions du visage. La teneur en LSF dans un visage semble placer une charge constante sur le flux d'information, qui peut être facilement contournée par l'attention volontaire aux détails dans un visage, comme cela est suggéré par les patients avec AS qui peuvent évaluer les émotions faciales avec succès dans la tâche de photographie. Alpha et bêta oscillations fortes ont été désignés comme des indicateurs de processus fonctionnels dans le néocortex associé à l' attention, la mémoire sémantique à long terme, et l' estimation cognitive des stimuli 49,50. Dans une tâche de reconnaissance de visage, alpha / beta désynchronisation reflète le niveau de l' attention volontaire à des stimuli visuels et est associée à l' évaluation cognitive des émotions faciales 15,18,51. Dans cette étude, il n'y a aucune preuve à l'appui d'un effet de tâche ou un groupe dans la hausse des oscillations de fréquence (alpha et bêta), sauf pour les différences régionales, lorsque l'on compare la différence entre la région pariéto-occipitale et d'autres régions. Désynchronisation alpha reflète l'attention etune libération de processus inhibées dans des tâches complexes 52, alors que l' oscillation beta est rarement observée dans les tâches liées aux émotions 53,54. désynchronisation Beta dans le groupe AS est généralement plus forte que dans le groupe témoin dans les deux tâches, mais la différence de groupe est insignifiante. Les ERSPs suggèrent que le groupe AS a beaucoup plus faible puissance delta / thêta, mais légèrement plus forte puissance alpha / bêta en comparaison avec le groupe témoin. Nous émettons l'hypothèse que les patients avec AS peuvent diriger leur attention sur certains détails importants visages par l'utilisation de l'évaluation cognitive des stimuli visuels pour compenser les déficits sensoriels et affectifs.

En résumé, la reconnaissance des émotions faciales chez les témoins sains induit les processus conscients et non conscients 9,18,51. Les différences de temps de réaction entre les deux tâches ont tendance à être plus important dans le groupe de contrôle que ceux dans le groupe AS. Nous émettons l'hypothèse que la santécommandes engagent le processus conscient plus que le non-conscient pour répondre aux dessins au trait et exercent les deux processus pour répondre aux photographies, tandis que les patients avec AS reposent uniquement sur le processus conscient pour répondre à ces deux types de visages.

Fichier de code supplémentaire. Exemple de programme S'il vous plaît cliquer ici pour télécharger ce fichier.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

La littérature présente des études sur la reconnaissance des émotions faciales chez les patients atteints d' autisme par l' analyse des réactions EEG 44, et sur ​​la reconnaissance du contenu de haute fréquence et de faible spatiales utilisant des stimuli visuels 43. Au meilleur de notre connaissance, cependant, il y a un manque de travail existant sur l'activité oscillatoire du cerveau qui combine la reconnaissance des émotions avec distinctes contenu de fréquence spatiale. Notre protocole est une première étape vers l'estimation de l'influence de l'affectivité (faces positives, neutres et négatives) et de l'information de fréquence spatiale (photographies et dessins au trait) sur la reconnaissance des émotions chez les patients atteints par rapport aux témoins sains. Notre analyse des réactions EEG dans les domaines, temporelles et fréquences spatiales permet de séparer les fonctions affectives et cognitives à un degré pour la compréhension scientifique de la maladie AS. Dans cette étude, le protocole expérimental prévoit une approche à des facteurs minimisant sans rapport avec the reconnaissance des émotions; qui est, les temps de réaction et les scores attribués à l'émotivité de visages sont conservés aussi semblables que possible entre les deux groupes par une étude pilote soigneusement conçu. Les participants sont également adaptés sur le QI et le sexe à la fois l'étude pilote et l'expérience EEG. Bien que des études antérieures sur l'EEG AS ont mis l' accent sur ​​le P1 et 55 N170, le protocole de cette étude apporte une contribution à démontrer une différence significative dans le composant N400 entre l'AS et les groupes témoins.

Visages émotionnels Ekman suscitent plus fortes oscillations de fréquence plus faible dans les contrôles sains par rapport aux faces dans d' autres bases de données (par exemple, des visages émotionnels de certains bien validé taïwanais). Il est fortement recommandé d'effectuer une étude EEG pilote pour valider les stimuli faciaux émotionnels utilisés chez les patients et les témoins en bonne santé avant l'expérience EEG. Les patients avec AS ont eu des difficultés à utiliser l' information HSF dans les régions de l' oeil 56. Dans cette raison, lasélectionnés stimuli visage de Ekman contiennent des expressions émotionnelles identifiables par exposées / dents non exposées ou sillonnés sourcils / lissées. Des études sur d'autres types de patients pourraient envisager d'autres traits du visage tout en remplaçant les stimuli utilisés dans le protocole. Le système de notation doit être conçu pour faciliter les patients effectuant la tâche d'évaluation de l'émotivité, qui peut être résolu en interrogeant les patients recrutés dans l'étude pilote; qui est, le continuum ordonné sans graduations, sauf pour les points centraux et de fin est conçu en fonction des réactions des patients pilotes. Les étiquettes aux points du système de notation finaux peuvent être modifiés, par exemple, amical face hostile, qui doit être choisi pour maximiser les réponses émotionnelles en particulier dans les contrôles.

Dans la littérature, AS se trouve avec une déficience dans l'amygdale et ses structures limbiques connexes 37-39, qui sont impliquées dans la mémoire et la récupération des informations pertinentes aux émotions, except de l'émotion neutre 40,41. En outre, l'amygdale est sensible à la teneur en LSF dans un visage photographié 3. Les deux tâches dans le protocole sont conçus selon les résultats existants sur les déficits chez les adultes avec AS, ainsi que les stimuli et système de notation ont en outre été conçus pour être utilisés avec cette population de patients. Les applications cliniques du protocole à d' autres patients adultes atteints d' un type de déficience similaire, tels que les troubles du spectre autistique 57, peuvent être réalisées avec une légère modification dans les stimuli du visage et du système de notation.

Il convient de noter que le protocole ne vise pas pour le diagnostic clinique des enfants âgés de moins de 7 ans, dont le contrôle conscient (ou volontaire) sur les comportements peuvent ne pas être pleinement développé 26. En outre, la technique ne donne pas de résultats diagnostiques clairs chez les patients présentant une comorbidité psychiatrique suivantes lésions cérébrales, des tumeurs ou d'autres violations de l'hémodynamique cérébrale.Plusieurs études ont montré une relation entre l' agression et les changements hormonaux chez les femmes au cours de la 58,59 menstruelle du cycle. Il est également bien connu que l'administration de l' éthanol ou de stupéfiants modifie les réactions émotionnelles 60. Ces types de changements peuvent causer des fluctuations dans les réactions EEG à des stimuli émotionnels dans les deux contrôles et les patients atteints d'AS en bonne santé. Par conséquent, il est recommandé de ne pas appliquer le protocole aux femmes pendant les périodes mensuelles ou quand on souffre de syndromes prémenstruels, ou chez les patients de moins de l'alcool ou une intoxication médicamenteuse. Les études de neuroimagerie sur les voies conscientes et non conscientes des émotions peuvent appliquer le protocole adapté démographiquement contrôles sains et les patients avec AS en faisant varier les degrés de grossièreté et de neutralité dans les stimuli émotionnels visage.

Les patients atteints d'AS appartiennent à un groupe relativement élevé trait-anxiété 13,36 et leurs yeux clignotent et les artefacts de mouvement peuvent être graves. Il est souhaitable de VHAe processeurs de données expérimentés et des algorithmes efficaces pour éliminer les artefacts de l'EEG avant d'aborder des questions scientifiques ou cliniques. Le protocole expérimental représente un effort de recherche sur les représentations conscientes et non conscientes des émotions dans le cerveau. Le protocole a été validé par le recrutement IQ / témoins et les patients entre les sexes appariés avec AS dans l'expérience EEG. Le temps de réaction et la précision de la réponse sont des suppléments additionnels aux diagnostics psychologiques et comportementaux. La technique est indépendante de l'humeur subjective du participant pendant l'expérience, et donc permet de suivre la dynamique de l'état d'un patient pendant et après la thérapie psychologique ou pharmacologique. La technique peut être appliquée à des patients souffrant d'autres types de pathologie affective, tels que le trouble de l'anxiété, la dépression, le syndrome de l'épuisement professionnel, et la violation émotionnelle du stress post-traumatique. D'autres modifications sur le protocole sont encouragés à utiliser dans other groupes de troubles sociaux et émotionnels. Une étude pilote bien conçu avec entretien des contrôles et des patients contribuerait à la validation d'une version modifiée du protocole.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
Synamps 2/RT 128-channel EEG/EP/ERP Neuroscan
Quik-CapEEG 128 electrodes Neuroscan
Gel Quik-Gel
FASTRAK 3D digitizer Polhemus 

DOWNLOAD MATERIALS LIST

References

  1. Tamietto, M., De Gelder, B. Neural bases of the non-conscious perception of emotional signals. Nat Rev Neurosci. 11, 697-709 (2010).
  2. Harms, M. B., Martin, A., Wallace, G. L. Facial Emotion Recognition in Autism Spectrum Disorders: A Review of Behavioral and Neuroimaging Studies. Neuropsychol Rev. 20, 290-322 (2010).
  3. Vuilleumier, P., Armony, J. L., Driver, J., Dolan, R. J. Distinct spatial frequency sensitivities for processing faces and emotional expressions. Nat Neurosci. 6, 624-631 (2003).
  4. Phan, K. L., Wager, T., Taylor, S. F., Liberzon, I. Functional neuroanatomy of emotion: A meta-analysis of emotion activation studies in PET and fMRI. Neuroimage. 16, 331-348 (2002).
  5. Kano, M., et al. Specific brain processing of facial expressions in people with alexithymia: an (H2O)-O-15-PET study. Brain. 126, 1474-1484 (2003).
  6. Williams, L. M., et al. Fronto-limbic and autonomic disjunctions to negative emotion distinguish schizophrenia subtypes. Psychiat Res-Neuroim. 155, 29-44 (2007).
  7. Goffaux, V., et al. From coarse to fine? Spatial and temporal dynamics of cortical face processing. Cereb Cortex. (2010).
  8. Balconi, M., Lucchiari, C. EEG correlates (event-related desynchronization) of emotional face elaboration: A temporal analysis. Neurosci Lett. 392, 118-123 (2006).
  9. Balconi, M., Lucchiari, C. Consciousness and emotional facial expression recognition - Subliminal/Supraliminal stimulation effect on n200 and p300 ERPs. J Psychophysiol. 21, 100-108 (2007).
  10. Balconi, M., Pozzoli, U. Face-selective processing and the effect of pleasant and unpleasant emotional expressions on ERP correlates. Int J Psychophysiol. 49, 67-74 (2003).
  11. Balconi, M., Pozzoli, U. Event-related oscillations (EROs) and event-related potentials (ERPs) comparison in facial expression recognition. J Neuropsychol. 1, 283-294 (2007).
  12. Balconi, M., Pozzoli, U. Arousal effect on emotional face comprehension Frequency band changes in different time intervals. Physiol Behav. 97, 455-462 (2009).
  13. Tseng, Y. L., Yang, H. H., Savostyanov, A. N., Chien, V. S., Liou, M. Voluntary attention in Asperger's syndrome: Brain electrical oscillation and phase-synchronization during facial emotion recognition. Res Autism Spectr Disord. 13, 32-51 (2015).
  14. Goffaux, V., Rossion, B. Faces are" spatial"--holistic face perception is supported by low spatial frequencies. J Exp Psychol Hum Percept Perform. 32, 1023 (2006).
  15. Knyazev, G. G., Bocharov, A. V., Levin, E. A., Savostyanov, A. N., Slobodskoj-Plusnin, J. Y. Anxiety and oscillatory responses to emotional facial expressions. Brain Res. 1227, 174-188 (2008).
  16. Adolphs, R. Recognizing emotion from facial expressions: psychological and neurological mechanisms. Behav Cogn Neurosci Rev. 1, 21-62 (2002).
  17. Acar, Z. A., Makeig, S. Neuroelectromagnetic Forward Head Modeling Toolbox. J Neurosci Methods. 190, 258-270 (2010).
  18. Balconi, M. Neuropsychology of facial expressions. The role of consciousness in processing emotional faces. Neuropsychol Trends. 11, 19-40 (2012).
  19. Gross, T. F. The perception of four basic emotions in human and nonhuman faces by children with autism and other developmental disabilities. J Abnorm Child Psychol. 32, 469-480 (2004).
  20. Behrmann, M., Thomas, C., Humphreys, K. Seeing it differently: visual processing in autism. Trends in cognitive sciences. 10, 258-264 (2006).
  21. Holroyd, S., Baron-Cohen, S. Brief report: How far can people with autism go in developing a theory of mind? J Autism Dev Disord. 23, 379-385 (1993).
  22. Duverger, H., Da Fonseca, D., Bailly, D., Deruelle, C. Theory of mind in Asperger syndrome. Encephale. 33, 592-597 (2007).
  23. Wallace, S., Sebastian, C., Pellicano, E., Parr, J., Bailey, A. Face processing abilities in relatives of individuals with ASD. Autism Res. 3, 345-349 (2010).
  24. Weigelt, S., Koldewyn, K., Kanwisher, N. Face identity recognition in autism spectrum disorders: a review of behavioral studies. Neurosci Biobehav Rev. 36, 1060-1084 (2012).
  25. Wilson, C., Brock, J., Palermo, R. Attention to social stimuli and facial identity recognition skills in autism spectrum disorder. J Intellect Disabil Res. 54, 1104-1115 (2010).
  26. American_Psychiatric_Association. The Diagnostic and Statistical Manual of Mental Disorders: DSM 5. bookpointUS. (2013).
  27. Dahlgee, S., Gilberg, C. Symptoms in the First two years of Life. A Priliminary. Population Study of Infantile Autism European archives of Psychiatry and Neurology. Sciences. (1989).
  28. Basar-Eroglu, C., Kolev, V., Ritter, B., Aksu, F., Basar, E. EEG, auditory evoked potentials and evoked rhythmicities in three-year-old children. Int J Neurosci. 75, 239-255 (1994).
  29. Ekman, P., Friesen, W. V. Pictures of Facial Affect. Consulting Psychologist Press. (1976).
  30. Gillberg, C. Autism and Asperger's Syndrome. Cambridge University Press. 122-146 (1991).
  31. Chiang, S. K., Tam, W. C., Pan, N. C., Chang, C. C., Chen, Y. C., Pyng, L. Y., Lin, C. Y. The appropriateness of Blyler's and four subtests of the short form of the Wechsler Adult Intelligence Scale-III for chronic schizophrenia. Taiwanese J Psychiatr. 21, 26-36 (2007).
  32. Delorme, A., Makeig, S. EEGLAB: an open source toolbox for analysis of single-trial EEG dynamics including independent component analysis. J Neurosci Methods. 134, 9-21 (2004).
  33. Makeig, S., Bell, A. J., Jung, T. P., Sejnowski, T. J. Independent component analysis of electroencephalographic data. Adv Neural Inf Process Syst. 8, 145-151 (1996).
  34. Başar, E. Brain Function and Oscillations: Volume I: Brain Oscillations. Principles and Approaches. Springer Science & Business Media. (2012).
  35. Tsai, A. C., et al. Recognizing syntactic errors in Chinese and English sentences: Brain electrical activity in Asperger's syndrome. Res Autism Spectr Disord. 7, 889-905 (2013).
  36. Savostyanov, A. N., et al. EEG-correlates of trait anxiety in the stop-signal paradigm. Neurosci Lett. 449, 112-116 (2009).
  37. Ashwin, C., Baron-Cohen, S., Wheelwright, S., O'Riordan, M., Bullmore, E. T. Differential activation of the amygdala and the 'social brain' during fearful face-processing in Asperger Syndrome. Neuropsychologia. 45, 2-14 (2007).
  38. Kevin, K. Y., Cheung, C., Chua, S. E., McAlonan, G. M. Can Asperger syndrome be distinguished from autism? An anatomic likelihood meta-analysis of MRI studies. J Psychiatry Neurosci. 36, 412 (2011).
  39. Piggot, J., et al. Emotional attribution in high-functioning individuals with autistic spectrum disorder: A functional imaging study. J Am Acad Child Adolesc Psychiatry. 43, 473-480 (2004).
  40. Ilyutchenok, R. Y. Emotions and conditioning mechanisms. Integr Physiol Behav Sci. 16, 194-203 (1981).
  41. Kleinhans, N. M., et al. fMRI evidence of neural abnormalities in the subcortical face processing system in ASD. Neuroimage. 54, 697-704 (2011).
  42. Toivonen, M., Rama, P. N400 during recognition of voice identity and vocal affect. Neuroreport. 20, 1245-1249 (2009).
  43. Deruelle, C., Rondan, C., Gepner, B., Tardif, C. Spatial frequency and face processing in children with autism and Asperger syndrome. J Autism Dev Disord. 34, 199-210 (2004).
  44. Bentin, S., Deouell, L. Y. Structural encoding and identification in face processing: ERP evidence for separate mechanisms. Cogn Neuropsychol. 17, 35-55 (2000).
  45. Vuilleumier, P., Pourtois, G. Distributed and interactive brain mechanisms during emotion face perception: evidence from functional neuroimaging. Neuropsychologia. 45, 174-194 (2007).
  46. Basar, E., Guntekin, B., Oniz, A. Principles of oscillatory brain dynamics and a treatise of recognition of faces and facial expressions. Prog Brain Res. 159, 43-62 (2006).
  47. Basar, E., Schmiedt-Fehr, C., Oniz, A., Basar-Eroglu, C. Brain oscillations evoked by the face of a loved person. Brain Res. 1214, 105-115 (2008).
  48. Başar, E. Brain Function and Oscillations: Volume II: Integrative Brain Function. Neurophysiology and Cognitive Processes. Springer Science & Business Media. (2012).
  49. Anokhin, A., Vogel, F. EEG alpha rhythm frequency and intelligence in normal adults. Intelligence. 23, 1-14 (1996).
  50. Klimesch, W. EEG alpha and theta oscillations reflect cognitive and memory performance: a review and analysis. Brain Res Rev. 29, 169-195 (1999).
  51. Knyazev, G. G., Slobodskoj-Plusnin, J. Y., Bocharov, A. V. Event-Related Delta and Theta Synchronization during Explicit and Implicit Emotion Processing. Neuroscience. 164, 1588-1600 (2009).
  52. Klimesch, W., Sauseng, P., Hanslmayr, S. EEG alpha oscillations: The inhibition-timing hypothesis. Brain Res Rev. 53, 63-88 (2007).
  53. Knyazev, G. G., Slobodskoj-Plusnin, J. Y. Behavioural approach system as a moderator of emotional arousal elicited by reward and punishment cues. Pers Individ Dif. 42, 49-59 (2007).
  54. Balconi, M., Brambilla, E., Falbo, L. Appetitive vs. defensive responses to emotional cues. Autonomic measures and brain oscillation modulation. Brain Res. 1296, 72-74 (2009).
  55. Dakin, S., Frith, U. Vagaries of visual perception in autism. Neuron. 48, 497-507 (2005).
  56. Curby, K. M., Schyns, P. G., Gosselin, F., Gauthier, I. Face-selective fusiform activation in Asperger's Syndrome: A matter of tuning to the right (spatial) frequency. Poster presented at Cogn Neurosci, New York, (2003).
  57. American_Psychiatric_Association. Diagnostic and statistical manual of mental disorders. (1994).
  58. Dougherty, D. M., Bjork, J. M., Moeller, F. G., Swann, A. C. The influence of menstrual-cycle phase on the relationship between testosterone and aggression. Physiol Behav. 62, 431-435 (1997).
  59. Van Goozen, S. H., Wiegant, V. M., Endert, E., Helmond, F. A., Van de Poll, N. E. Psychoendocrinological assessment of the menstrual cycle: the relationship between hormones, sexuality, and mood. Arch Sex Behav. 26, 359-382 (1997).
  60. Winward, J. L., Bekman, N. M., Hanson, K. L., Lejuez, C. W., Brown, S. A. Changes in emotional reactivity and distress tolerance among heavy drinking adolescents during sustained abstinence. Alcohol Clin Exp Res. 38, 1761-1769 (2014).

Comments

0 Comments


    Post a Question / Comment / Request

    You must be signed in to post a comment. Please sign in or create an account.

    Usage Statistics