Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Rappresentazioni coscienti e non coscienti della Facce emotivi nella sindrome di Asperger

Published: July 31, 2016 doi: 10.3791/53962

Summary

Un protocollo sperimentale EEG è stato progettato per chiarire l'interazione tra rappresentazioni coscienti e non coscienti di facce emotive nei pazienti con sindrome di Asperger. La tecnica suggerisce che i pazienti con la sindrome di Asperger hanno deficit di rappresentanza non cosciente di volti emotivi, ma hanno prestazioni paragonabili nella rappresentazione cosciente con controlli sani.

Abstract

Diversi studi di neuroimaging hanno suggerito che il basso contenuto di frequenza spaziale in un viso emotivo attiva principalmente l'amigdala, pulvinar, e collicolo superiore soprattutto con volti spaventosi 1-3. Queste regioni costituiscono la struttura limbica nella percezione non cosciente delle emozioni e modulano l'attività corticale, direttamente o indirettamente 2. Al contrario, la rappresentazione cosciente delle emozioni è più pronunciato nel cingolato anteriore, corteccia prefrontale e la corteccia somatosensoriale per dirigere l'attenzione volontaria ai dettagli nei volti 3,4. La sindrome di Asperger (AS) 5,6 rappresenta un disturbo mentale atipico che colpisce le abilità sensoriali, affettive e comunicative, senza interferire con le normali competenze linguistiche e la capacità intellettuale. Diversi studi hanno trovato che deficit funzionali in circuiti neurali importanti per il riconoscimento emozione facciale può spiegare in parte errore di comunicazione socialei pazienti con AS 7-9. Al fine di chiarire l'interazione tra rappresentazioni coscienti e non coscienti di volti emozionali in AS, un protocollo sperimentale EEG è stato progettato con due compiti che coinvolgono la valutazione emotività di una fotografia o volti di line-drawing. Uno studio pilota è stato introdotto per la selezione di stimoli per il viso che riducono al minimo le differenze di tempi di reazione ei punteggi attribuiti alle emozioni facciali tra i pazienti precollaudate con AS e IQ / sesso-matched controlli sani. Informazioni dai pazienti precollaudate è stato utilizzato per sviluppare il sistema di punteggio utilizzato per la valutazione emotività. La ricerca di emozioni facciali e stimoli visivi con diversi contenuti di frequenza spaziale ha raggiunto risultati discrepanti a seconda delle caratteristiche demografiche dei partecipanti e il compito richiede 2. Il protocollo sperimentale mira a chiarire deficit in pazienti con AS nell'elaborazione fronti impressionabili rispetto ai controlli sani controllando per il fattores estranei a riconoscimento delle emozioni facciali, come la difficoltà del compito, IQ e di genere.

Introduction

Riconoscimento facciale emozione è uno dei più importanti processi cerebrali impegnate nella comunicazione sociale. Una varietà di disturbi mentali sono legate a problemi con il rilevamento esplicita di emozioni facciali 4-6. Una fotografia di un volto contiene uno spettro di informazioni spaziali che possono essere filtrati sia per l'alta frequenza spaziale (HSF) o il contenuto a bassa frequenza spaziale (LSF). HSF è relativo a parti molto dettagliate di un'immagine, come i bordi di una faccia, mentre LSF è legato alla grossolana o parti meno ben definite come una faccia olistica con contenuti LSF 7. Qualsiasi compito di riconoscimento del volto induce simultaneamente processi consci e non coscienti 8-12, e la partecipazione del processo non cosciente avviene nel 150-250 msec posta intervallo di insorgenza o anche prima 13. In soggetti sani, il processo non cosciente è generalmente più veloce rispetto al 14,15 processo consapevole. Diversi studi di neuroimaging hanno suggerito chela LSF in uno stimolo facciale (o stimolo motivazionale significativo) attiva principalmente l'amigdala, pulvinar, e collicolo superiore soprattutto con volti spaventosi 3,16. Queste regioni costituiscono la struttura limbica nella percezione non cosciente delle emozioni e modulano l'attività corticale, direttamente o indirettamente 1. Al contrario, rappresentazione cosciente delle emozioni è più pronunciato nel cingolato anteriore, corteccia prefrontale e la corteccia somatosensoriale per dirigere l'attenzione ai dettagli volontaria in faccia 9,17,18.

La sindrome di Asperger (AS) 19,20 rappresenta un disturbo mentale atipico che colpisce le abilità sensoriali, affettive e comunicative, senza interferire con le normali competenze linguistiche e la capacità intellettuale. Diversi studi hanno trovato che deficit funzionali in circuiti neurali importanti per il riconoscimento emozione facciale può in parte spiegare il fallimento della comunicazione sociale in AS 21-25.Disturbi comportamentali osservati nei bambini con AS possono essere diagnosticati nei primi tre anni di vita 26, un periodo durante il quale il loro controllo volontario (o cosciente) oltre i comportamenti non è completamente sviluppato 27. Negli adulti con AS, i disturbi del comportamento possono essere compensati attraverso la regolamentazione attenzione 28. Difficoltà in dettagli lavorazione entro un certo intervallo di frequenza spaziale può indicare una perturbazione in diverse fasi di elaborazione delle informazioni. Finora, nessuno studio ha affrontato direttamente potenziali evocati e l'attività oscillatoria in pazienti con AS durante il riconoscimento facciale emozione che coinvolge stimoli volto a specifici intervalli di frequenze spaziali. E 'importante esaminare la traiettoria funzionale in pazienti con AS rispetto ai controlli sani durante la lavorazione stimoli viso con diversi contenuti di frequenza spaziale controllando per richieste del compito e gli effetti demografici come il sesso e il QI.

Per chiarire l'intergiocare tra le rappresentazioni coscienti e non coscienti di volti emozionali, un protocollo sperimentale EEG è stato progettato per il confronto di cervello potenziali evocati e l'attività oscillatoria tra i pazienti con AS e IQ / sesso-matched controlli sani. Una coorte di partecipanti pilota è stato assunto prima dell'esperimento EEG per l'assistenza con selezione degli stimoli e sviluppo di un sistema di punteggio sperimentali per facilitare una valutazione della prestazione in pazienti con AS. Il protocollo si compone di due compiti che implicano la valutazione emotività di una fotografia o volti di line-drawing. Le differenze tra i due gruppi possono essere valutati calcolando ERP e perturbazioni spettrali evento-correlati (ERSPs). Nella sezione successiva, i dettagli del protocollo sperimentale sono elaborati su, tra cui lo studio pilota e metodi di trattamento / analisi dei dati EEG, seguita dai principali risultati dell'analisi. Infine, i passaggi critici nel protocollo e il suo significato rispetto alla esistentemetodi sono discussi. La limitazione e la possibile estensione del protocollo per l'uso in pazienti con altri disturbi emotivi sono anche sottolineato.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Etica Dichiarazione: procedure che coinvolgono soggetti umani sono stati approvati dalle etica della ricerca partecipante umani comitato / Institutional Review Board presso l'Academia Sinica, Taiwan.

1. stimoli e sperimentale del programma di preparazione

  1. Preparare un pool di oltre 60 fotografie fronte impressionabile 29 suddivisi in tre espressioni facciali (arrabbiato, felice, e neutro). Utilizzare software di grafica per mascherare i capelli e le orecchie parti nelle fotografie con sfondo nero, come mostrato in Figura 1A in modo che i partecipanti possano concentrarsi sulle caratteristiche facciali nelle fotografie.
    1. Aprire una fotografia nel software di grafica. Utilizzare la casella degli strumenti di selezione per disegnare una regione ellittica e regolare le dimensioni regione in modo che le orecchie e la maggior parte dei capelli non rientrano nel dell'ellisse.
    2. Invertire la regione selezionata. Fai clic su "Elimina" per rimuovere la regione indesiderata della fotografia e sostituirlo con il colore di sfondo nero.

Figura 1
Figura 1. Esempi di stimoli facciali emozionali. (A) facce fotografia dove i capelli e le orecchie sono state mascherate nel colore di sfondo nero, e (B) linea di disegno facce che sono modificati da (A) dal software grafici. I volti mostrano emozioni neutri, felici, e arrabbiati, rispettivamente, da cima a righe inferiori. Clicca qui per vedere una versione più grande di questa figura.

  1. Creare uno studio pilota. Reclutare i partecipanti pilota per la selezione di stimoli adeguati dal pool fotografia.
    Nota: I partecipanti pilota non dovrebbero partecipare all'esperimento EEG.
    1. Configurare il programma di presentazione dello stimolo che inizia con lo schermo del computer prima di presentare le istruzioni compito, seguito da 5 familprove iarization. Iniziare ogni prova con una croce fissazione, seguito da uno stimolo faccia, e un'attività di valutazione emotività. Vedere file di codice supplementare per un programma di esempio.
      Nota: I veri prove pilota seguono immediatamente i processi di familiarizzazione selezionando fotografie faccia in un ordine casuale dalla piscina.
      1. Creare un programma sperimentale, compresi gli schermi di istruzioni e uno schermo centrale occhio-fissazione. Creare schermo stimolo viso come illustrato in figura 2 configurando la dimensione fotografia da 18.3 x 24.4 cm 2 (larghezza x altezza) con sfondo nero, in un formato di schermo di computer 41 x 25.6 cm 2 con risoluzione 1.680 x 1.050. Vedere file di codice supplementare per un programma di esempio.
      2. Creare un sistema di punteggio di valutazione emotività nel programma come illustrato in figura 3. Inserire una linea orizzontale che vanno da -100 a +100 in una scala continua al centro dello schermo without eventuali zecche-marchi, fatta eccezione per la centrale e gli endpoint. Preparare il programma in modo tale che i partecipanti possono liberamente valutare l'emotività di un volto fotografia trascinando il cursore punteggio a sinistra per molto arrabbiato (-100) e verso destra per molto felice (+100), e premere il pulsante GO.
        Nota: la linea di punteggio è stato progettato senza tick-segni perché i pazienti con AS possono facilmente rimanere bloccati nel porre il cursore tra zecche durante la valutazione emotività. Pertanto, una scala continua è preferito per i pazienti.
      3. Assicurarsi che il programma registra i risultati del comportamento di un partecipante (ad esempio, tempi di reazione e punteggi emotività), che vengono utilizzati come criteri per la scelta di fotografie dal pool (vedere il punto 1.3.1).
    2. partecipanti pilota Recruit (5 di controllo e di 5 partecipanti come pilota). Diagnosticare i pazienti clinici in base alle Gillberg 30 e criteri DSM-IV 26 e amministrare il breve-forma clinica derivati ​​di Wechsler per adulti Intelligence Scale (WAIS-III) 31. Abbinare i controlli alle loro controparti AS il più possibile sul genere e sui punteggi QI verbale / prestazioni.
    3. Eseguire la procedura sperimentale nello studio pilota per ogni singolo partecipante. Dopo aver completato il compito emotivo riconoscimento del volto, intervistare ciascun pilota AS partecipante sulla ragionevole durata dei periodi di centro-occhio di fissaggio e presentazione dello stimolo, la difficoltà del compito, la facilità di utilizzo del sistema di punteggio e il numero massimo di prove per mantenere il suo / la sua la concentrazione, in base al quale il programma può essere riconfigurato per l'esperimento EEG (vedere il punto 1.3.2)

figura 2
Figura 2. Uno screenshot di uno stimolo volto nel programma. Le dimensioni del volto è configurato per adattarsi all'altezza dello schermo. L'area vuota viene riempita con il colore nero.caricare / 53962 / 53962fig2large.jpg "target =" _ blank "> Clicca qui per vedere una versione più grande di questa figura.

Figura 3
Figura 3. Uno screenshot del sistema di punteggio per la valutazione emotività. La barra di punteggio è progettato per avere alcun segno di spunta. Il partecipante deve trascinare il mouse per selezionare il punteggio assegnato a un volto e premere il tasto GO per terminare l'operazione. Si prega di cliccare qui per vedere una versione più grande di questa figura.

  1. Programma per il task 1: Fotografia di sessione.
    1. Selezionare dalla piscina di 30 fotografie, che comprende 10 ciascuno per le espressioni facciali felici, arrabbiati, e neutro (5 maschi e 5 femmine facce per ogni tipo di espressioni), che danno i tempi di reazione medi più comparabili e punteggi medi emotività tra il 5 AS e 5 partecipanti pilota di controllo. Aggiornare le configurazioni sperimentali programma incorporando feedback dei pazienti pilota, come il periodo centrale eye-fissazione ottimale (cioè, 1,000 msec), durata della presentazione dello stimolo (cioè, 1,000 msec), l'intervallo inter-stimolo (cioè, randomizzati in -Tra 4 e 7 secondi), e la scala del sistema di punteggio (vale a dire, da -100 a 100). Aggiungere cinque prove familiarizzazione prima di fare le 30 prove sperimentali nel programma.
      1. Modificare il numero di stimoli e intervalli di tempo in un file di testo di configurazione esterno associato al programma sperimentale.
        Nota: Il file di testo può essere modificato per adattarsi diverse condizioni sperimentali senza l'intervento di ingegneri del software.
      2. Non contare le cinque fotografie per prove di familiarizzazione ai 30 fotografie selezionate. Non utilizzare i EEG ei dati comportamentali rilevati nelle prove di familiarizzazione in analisi dei dati.
  2. programma Fo Attività 2: Linea-sessione di disegno.
    1. Crea immagini line-disegno delle 35 fotografie (5 per le prove di familiarizzazione, 30 per le prove sperimentali) utilizzati in Task 1 tracciando i bordi di ogni faccia. Utilizzare software di grafica per modificare le fotografie in scala di grigio in line-disegni in bianco e nero, come mostrato in Figura 1B.
      Nota: I passaggi di seguito per l'editing fotografia è una delle possibili soluzioni per rendere line-disegni.
      1. Nel software di grafica, regolare la luminosità / contrasto della fotografia in modo che l'intensità originale scala di grigi nei pixel di maggioranza cade in nero o bianco.
      2. Applica "effetto schizzo" a "effetto" o nel menu "filtro" del software per una fotografia in scala di grigi in modo che si conserva solo contorno della parte alta frequenza spaziale, e applicare "effetto angoscia" per aumentare la dilatazione delle curve di livello .
      3. Utilizzare qualsiasi strumento pennello per migliorare i contorni e utilizzare uno strumento gomma perripulire le parti indesiderate. Assicurarsi di mantenere importanti caratteristiche facciali controllando avanti e indietro tra la fotografia originale e la sua controparte line-drawing.
    2. Fare una copia del programma di Task 1 al punto 1.3 per creare un programma per il Task 2 e sostituire le 35 fotografie in Task 1 con le corrispondenti linee-disegni.

2. Procedura di registrazione EEG

  1. preparativi
    1. Reclutare 10 controlli sani e 10 pazienti con AS per esperimenti EEG sulla base delle linee guida dell'etica di ricerca partecipante umano locale comitato / Institutional Review Board.
    2. Somministrare la forma abbreviata di WAIS-III 31 ai pazienti con AS individualmente prima degli esperimenti, e trovare i comandi che corrispondono il più possibile i pazienti in genere e sui punteggi QI verbale / prestazioni.
  2. La registrazione EEG
    1. Sedile il partecipante in una sedia confortevole in una isolare suonod camera (poco illuminata) e regolare la posizione della sedia in modo che lo schermo del computer è di 60 cm davanti al partecipante. Dopo un tutorial sulla procedura sperimentale, hanno il partecipante di compilare i moduli di consenso insieme ad alcune domande sul suo / la sua manualità.
    2. Utilizzare un tappo EEG con 132 elettrodi Ag / AgCl (tra cui 122 10-10 sistema EEG, e la VEOG bipolare, HEOG, ECG, elettrodi EMG, insieme a sei canali del viso-muscolari) per la registrazione EEG. Collegare il tappo a due amplificatori a 64 canali con 0,1-100 Hz filtro passa-banda analogica per digitalizzare EEG prime a 1.000 Hz frequenza di campionamento.
    3. Montare il 128 canali cappuccio standard EEG alla testa di ogni partecipante. Regolare il cappuccio in modo che l'elettrodo etichettato "riferimento" è posto nella posizione "Cz", che si trova rispetto ai punti di riferimento linea mediana anteriore / posteriore (cioè centro del nasion della distanza inion), ed a / destra monumenti sinistro (cioè centro del tragis sinistra / destra), secondo la EEG sistema internazionale 10/10.
    4. usare delicatamente un ago smussato per iniettare gel conduttore in tutti gli elettrodi. Mescolare con l'ago lentamente all'interno dell'elettrodo per assicurare un buon contatto tra il gel del cuoio capelluto e l'elettrodo (cioè, per mantenere l'impedenza inferiore a 5 kΩ). controllare costantemente lo stato del contatto in gel agli elettrodi etichetta "di riferimento" e "terreno" sul cappuccio EEG per assicurarsi che la misura di impedenza è corretta.
      1. Osservare l'impedenza degli elettrodi visualizzando la schermata dell'elettrodo impedenza supportato dal software di registrazione EEG (ad esempio SCAN 4.5 in questo studio), che di solito va con il sistema EEG. Sullo schermo, gli elettrodi sono mostrati in colori, e diversi colori indicano i livelli di impedenza.
    5. Inserire un elettrodo HEOG al canto di un occhio (sito positiva), e il secondo elettrodo al canto dell'altro occhio (sito negativo), un elettrodo VEOG sopra e l'altra sotto l'locchio eft, elettrodi ECG bipolari sul retro degli elettrodi bipolari EMG sinistro e mano destra, e nella zona tra il pollice e il dito indice della mano destra, ed i sei elettrodi facciali intorno al sopracciglio e guancia.
    6. Record in un notebook quei cattivi canali in cui l'impedenza è superiore a 5 kΩ, o salvare direttamente l'impedenza schermo mostra a tutti gli elettrodi. Utilizzare questo come riferimento futuro per scartare i canali cattivi in ​​fase di elaborazione dei dati EEG.
    7. Registra EEG riposo stato dopo istruire il partecipante a chiudere gli occhi per 12 min. Durante questo tempo, controllare doppiamente la qualità del flusso EEG istante mostrato sullo schermo supportato dal software di registrazione EEG.
      Nota: Ci dovrebbero essere chiare onde alfa distribuiti nei canali occipitali durante la condizione di occhi chiusi rispetto alla condizione occhi aperti. Se le onde alfa sono troppo rumorosi (ignorando i canali cattivi) o distorta, tornare al punto 2.2.4 e regolare il contatto del gel.
    8. Avviare i due compiti sperimentali in un ordine contro-bilanciato tra i partecipanti. Registra EEG facendo clic sull'icona di registrazione sullo schermo supportato dal software di registrazione.
      1. Dopo aver letto le istruzioni compito mostrata sullo schermo, hanno ogni partecipante eseguire le 5 prove di familiarizzazione, seguiti dai 30 prove di attività. Utilizzare la stessa procedura sia per la fotografia e le attività di linea di disegno. Nelle istruzioni compito, incoraggiare i partecipanti di assegnare un punteggio ad emotività di uno stimolo faccia il più rapidamente possibile.
      2. IMPORTANTE: Controllare i programmi preparati in passi 1.3.2 e 1.4.2 per l'invio correttamente i fatti di tempo-locked per l'inizio del centro dell'occhio fissazione, presentazione dello stimolo volto, e premendo il tasto GO per il software di registrazione durante la valutazione emotività. Quei tempi di inizio sono codificati come numerico e possono essere controllati sullo schermo supportato dal software di registrazione.
        Nota: Il partecipante può prendere una pausa tra le due attività. Non c'è EEG recondo durante la pausa.
    9. Utilizzare un digitalizzatore (ad esempio, il digitalizzatore Polhemus FASTRAK 3D in questo studio) per registrare le posizioni 3D di elettrodi e salvarlo in un file (ad esempio .3dd o .dat file) per tappi EEG co-registrazione di tutta partecipanti l'analisi dei dati.
    10. Dopo l'esperimento EEG, hanno il partecipante di compilare un inventario di 35 domanda sulle sue / suoi comportamenti e sensazioni durante l'esperimento EEG (ad esempio, avere emozioni negative, quasi cadde in sonno), e fornire loro il pagamento per la partecipazione alla sperimentazione.
    11. Portare il partecipante alla toilette per pulire / asciugare il suo / suoi capelli.
    12. Pulire e sterilizzare il tappo EEG secondo le istruzioni clinici.

3. Il trattamento dei dati EEG

Nota: i comandi software forniti in questa sezione sono specifici per EEGLAB.

  1. Filtrare i segnali EEG utilizzando un filtro passa-alto di 1 Hz e un filtro passa-basso 50 Hz chiamando ilfunzione di pop_eegfilt.m 32.
    Nota: utilizzare un filtro passa-basso di 40 Hz per alcuni paesi che hanno 50 Hz frequenza di rete elettrica
  2. Eliminare cattive canali con impedenza superiore a 5 kΩ dopo aver controllato l'impedenza degli elettrodi registrato nel passaggio 2.2.6. Scartare quelle cattive canali con diverso spettro di potenza rispetto ai canali adiacenti mediante ispezione visiva delle caratteristiche dello spettro di potenza (ad esempio, il valore massimo, la curvatura, ecc) in ogni canale.
    1. Calcolare e tracciare lo spettro di potenza del segnale EEG chiamando la funzione pop_spectopo.m 32.
  3. Ri-fare riferimento ai segnali EEG con la media dei canali cervello senza i canali cattivi chiamando la funzione pop_reref.m.
  4. EEG segmento in epoche di stimolo-locked, ognuno dei quali va da -2.0 sec pre a 1,5 sec post-stimolo insorgenza. Corretto per basale (-2.0 a -1.2 sec prima della comparsa dello stimolo) togliendo la media di valu basalees da ogni epoca.
    1. Chiamare le funzioni pop_epoch.m e pop_rmbase.m, rispettivamente. Scegliere l'intervallo di linea di base prima del periodo eye-fissazione centrale e l'inizio dello stimolo volto.
  5. Brutto voto epoche che sembrano contenere artefatti. Eliminare le cattive epoche riservando le epoche contaminati da lampeggia gli occhi. Le epoche con manufatti di solito guardare rumoroso o hanno estremamente elevato valore di picco (ad esempio, superiore a 100 mV) rispetto a epoche tipici.
    1. Chiamare la funzione pop_rejmenu.m di avviare una procedura semi-automatica. Una finestra di interazione uscirà fuori di riconfermare epoche cattive auto impostate dall'utente tramite ispezione visiva. Anche se la maggioranza delle epoche sono contaminati da lampeggia gli occhi, queste epoche possono essere provvisoriamente riservati per dopo la rimozione dalla analisi delle componenti indipendenti (ICA) 33 in punto 3.8.
  6. Dopo aver scartato i canali cattivi e cattivi epoche, eseguire ICA sui dati EEG Potati utilizzando l'pop_runiFunzione ca.m.
  7. Tra le componenti indipendenti stimati (CI), identificare gli artefatti derivanti da movimento degli occhi / lampeggio, l'attività muscolare, battito cardiaco, e il rumore linea 32.
    Nota: Una significativa correlazione elevata (R 2> 0.9) tra IC punteggi di un componente e quelli di tutti i canali di riferimento (VEOG, HEOG, ECG, e canali viso) indica che il componente è principalmente un contributo di artefatti. I punteggi IC stimato spiega con i manufatti possono essere puliti utilizzando l'analisi di regressione multipla.
  8. Rimuovere circuiti integrati artefatto e stimare le EEG pulite che derivano dal prodotto dell'ACI matrice e la matrice punteggio IC artefatto puliti miscelazione. Salvare le EEG puliti per ulteriori analisi.
    1. Mantenere i residui di prevedere circuiti integrati artefatto (R 2> 0.9) dal riferimento VEOG, HEOG, ECG ed i canali del viso nella matrice punteggio IC. Rimuovere altri circuiti integrati artefatto dalla funzione pop_subcomp.m. La funzione restituisce le EEG artefatto puliti.

    4. Analisi statistica

    1. canali partizione EEG in undici regioni omogenee per ridurre il numero di confronti statistici in ERP e analisi ERSP, cioè, a sinistra (10 canali), midline- (14) e destro frontale (10); sinistra (13) e destro-temporale (13); sinistra (9), midline- (14) e destro centrale (9); sinistra (9), midline- (12) e il diritto-occipitale parietali (9) come mostrato in figura 4. Queste regioni sono definite in base alla anatomia funzionale della corteccia 34. L'omogeneità funzionale dei segnali EEG in queste regioni è stato convalidato in diversi esperimenti 13,35,36.

    Figura 4
    Figura 4. La partizione di canale. I canali sono suddivisi in undici regioni. LF: sinistra-frontale (10 canali), MF: linea mediana-frontale (14), RF: destro-frontale (10), LT: sinistra-temporale (13), RT: destro-temporale (13), LC: sinistro-centrale (9), MC: linea mediana-centrale (14), RC: destro centrale (9), LP: sinistra-occipitale parietali (9), MP: linea mediana-occipitale parietale (12), RP :. parietale-occipitale destra (9) Si prega di cliccare qui per vedere una versione più grande di questa figura.

    1. Caricare i EEG puliti nel passaggio 3.8. Calcolare il ERP canale media di segnali attraverso epoche in ogni canale, e ERP regionale facendo la media ERP all'interno della stessa regione.
      Nota: Quando EEG vengono caricati utilizzando la funzione pop_loadset.m in EEGLAB, i segnali vengono memorizzati nella variabile struttura "EEG.data" in una matrice di canale per time-by-epoca.
      1. Nella finestra di comando Matlab, calcolare l'ERP canale facendo la media EEG.data attraverso le epoche per ogni canale (ad esempio, channelERP = media (EEG.dat, 3)). Calcolare il ERP regionale calcolando la media delle ERP canale all'interno di ogni regione in base alla partizione a 4.1 (ad esempio, regionalERP = media (channelERP (indice, :), 1), dove "l'indice" sta per gli indici di canale in una determinata regione).
    2. Calcolare i ERSPs canale applicando una trasformata tempo-frequenza (es Wavelet Transform) per epoch segnali di ciascun canale, e ERSPs regionali mediando canale ERSPs nella stessa regione.
      1. Eseguire la trasformata tempo-frequenza chiamando la funzione pop_newtimef.m.
        Nota: In questo studio, la voce "cicli wavelet" è impostato su [1, 0.5] e "base" è impostato su [-2.000--1.200] msec. I ERSPs canale risultanti saranno memorizzati in una matrice di frequenza-by-tempo per canale.
      2. Nella finestra di comando Matlab, calcolare la ERSP regionale facendo la media ERSPs attraverso i canali all'interno di ciascuna regione in base alla partizione 4.1 (ad esempio, regionalERSP = media (channelERSP (:,:, indice), 3), dove "channelERSP" è l'uscita dalla funzione pop_newtimef.m, e "indice" sta per gli indici di canale a AGregione Iven).
    3. Calcolare i valori medi in diversi intervalli di tempo (ad esempio, 50-150, 150-250, 250-350, 350-450 msec) per ERP regionale. Calcolare i valori medi in diversi intervalli di tempo-frequenza (ad esempio 50-150, 150-250, 250-350, 350-450, 450-800 msec a 1-7 Hz, e 200-800 msec a 8-30 Hz) per regionali ERSPs.
    4. Applicare MANOVA nel software statistico (ad esempio IBM SPSS) per i valori medi di ERP regionali e ERSPs per valutare gli effetti principali per il compito (fotografia vs. linea-disegno), regione (undici regioni del cuoio capelluto), e il gruppo (AS rispetto al controllo) , nonché gli effetti di interazione tra il compito, regione e gruppo.
      1. Nell'analisi statistica, in considerazione di genere (maschi vs femmine) come covariata, e stimare i principali e di interazione effetti tenendo premuto il costante effetto di genere.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

I punteggi medi verbale e la performance IQ sono elencate nella Tabella 1 per il controllo e come gruppi insieme con i tempi medi di reazione e punteggi medi assegnati a emotività dei volti dei due gruppi. Nella tabella, nessuna delle differenze di gruppo raggiunge la significatività statistica fatta eccezione per i volti neutri nel compito line-drawing, in cui il gruppo AS ha un punteggio medio vicino allo zero (p <0,001) 13. È interessante notare che il gruppo AS ha ancora i tempi di reazione leggermente più lungo rispetto al gruppo di controllo in risposta a volti arrabbiati e felici, e tempi di reazione più brevi nella risposta a volti neutri anche sotto il controllo sperimentale di genere, IQ e per il viso stimoli. La sindrome di Asperger è trovato con disabilità nella amigdala e le sue associate strutture limbiche 37-39, che sono noti per essere coinvolti in memoria di emozioni tranne che per l'emozione neutro 40,41. Questi struct limbicoUres associati al processo non conscio possono svolgere un ruolo importante nella interpretazione delle risposte comportamentali in pazienti con AS.

Tabella 1
Tabella 1. dati comportamentali dei punteggi sulla Wechsler Adult Intelligence Scale-III, tempi di reazione, e punteggi medi assegnati emotività ad affrontare stimoli nei compiti fotografia e la linea-disegno. Questa tabella è una versione modificata della tabella 1 Tseng et al . 13

Come mostrato in figura 5, il componente N400 nel gruppo di controllo è pronunciato nel frontale, temporale e occipitale-parietali regioni in entrambi i compiti di fotografie e linea di disegno, ma l'ampiezza di questo componente è minore nel compito line-drawing. Nel gruppo AS, l'N400 è visibile nella regione frontale linea mediana, ma invisibile in altre regioni del compito fotografia, e Becomes visibili in tutte le regioni frontali del compito line-drawing. Il compito-by-gruppo effetto di interazione MANOVA è significativo nell'intervallo insorgenza 350-450 msec posta (p = 0,019). I due gruppi mostrano anche differenze significative nella percezione all'inizio del compito fotografia 42, e hanno modelli ERP comparabili nel compito line-disegno; cioè, l'effetto di interazione compito-by-gruppo è anche significativa nell'intervallo insorgenza 50-150 msec palo (p = 0,035). Fotografia e le facce di disegno di linee raggiungono la più grande differenza ERP nelle regioni temporale e occipitale-parietali nel 250-550 msec dell'intervallo.

Figura 5
Figura 5. trame ERP. Trame ERP nel frontale destra, destra regioni occipito-parietale temporale e destro nel controllo (blu) e gruppi (rosso) AS in (A) fotografia e compiti (B) di linea-disegno. Sedi di canali EEG sonomostrato nella parte superiore sinistra di ogni trama. L'asse verticale mostra la tensione ERP (mV) e l'asse orizzontale mostra il tempo in msec. Questa cifra è una versione modificata della figura 2 in Tseng et al. 13 Cliccate qui per vedere una versione più grande di questa figura.

Come mostrato nelle figure 6 e 7, la sincronizzazione delta / theta nel gruppo di controllo è pronunciata nel 50-800 msec palo intervallo insorgenza in entrambi i compiti. Le regioni occipito-parietale visualizzano più forte di sincronizzazione, seguita dalle regioni centrali e temporali e poi dai regioni frontali nei primi anni del 50-350 intervallo di msec, e le differenze regionali scompaiono dopo 350 msec. Le regioni occipito-parietale dimostrano anche i più forti desincronizzazione alpha / beta nel 200-800 msec dell'intervallo. in generale, le fotografie hanno un effetto additivo su line-disegni in sincronizzazione delta / theta, ma la formazione disegni inducono forte alpha / beta disaccoppiamento. Il gruppo come ha più paragonabile sincronizzazione delta / theta come gruppo di controllo nel compito line-disegno, e nessun effetto additivo apparente associato con le facce fotografia. Il compito-by-gruppo effetto di interazione MANOVA è significativo nei msec pubblicare intervalli insorgenza 50-150, 250-350, e 350-450 (p = 0.043, 0.003 e 0.015, rispettivamente). L'effetto di gruppo è significativo anche negli intervalli msec 150-250, 250-350, e 350-450 (p = 0,033, 0,011 e 0,022, rispettivamente). Il gruppo come display più forte sincronizzazione delta / theta nelle regioni occipito-parietale nel 150-250 msec intervallo così come le regioni della linea mediana del 350-450 msec dell'intervallo quando confrontato con altre regioni del cuoio capelluto. Il disaccoppiamento alpha / beta nel gruppo AS è simile a quella del gruppo di controllo (e leggermente più forte) inentrambi i compiti, ma le differenze tra i due compiti tendono ad essere più piccoli nel gruppo AS. Il gruppo MANOVA e task-by-group effetti sono statisticamente insignificanti oscillazioni ad alta frequenza.

Figura 6
Figura 6. trame ERSP nel compito fotografia. Piazzole ERSP di controllo (A) e (B) come gruppi nel compito fotografia. Il colore rosso indica aumento di potenza (sincronizzazione), e il colore blu indica diminuzione della potenza (disaccoppiamento) rispetto al basale. Questa cifra è una versione modificata di figura 3 in Tseng et al. 13 Cliccate qui per vedere una versione più grande di questa figura.

Figura 7
Figura 7. trame ERSP in tegli compito line-drawing. trame ERSP di controllo (A) e (B) come gruppi nel compito line-drawing. Questa cifra è una versione modificata di figura 3 in Tseng et al. 13 Cliccate qui per vedere una versione più grande di questa figura.

I risultati suggeriscono una differenza ERP gruppo nella percezione precoce (50-150 ms) e il riconoscimento semantico più tardi (350-450 msec) di facce emotive nel compito fotografia. Il gruppo come ha un più piccolo di ampiezza P1 nel compito fotografia e un P1 leggermente più grande ampiezza nel compito line-drawing, rispetto al gruppo di controllo. Le differenze di ampiezza nella P1 tra i due compiti possono riflettere l'unicità di pazienti con AS nella percezione di fotografie e linea disegni 43. L'N400 è dimostrato di essere fortemente influenzato dail contenuto emotivo, familiarità e caratteristiche globali / locali in faccia 44. Nel nostro studio, la N400 (350-450 msec) nelle regioni frontali e temporali è altamente visibile nel gruppo di controllo, ma quasi invisibile nel gruppo AS nel compito fotografia. In riconoscimento emozione facciale, l'N400 può essere interpretato come un processo di ricerca di un legame tra una faccia e la sua interpretazione semantica (arrabbiato, neutro e felice). Nel gruppo di controllo, la differenza ERP tra le due attività nella 350-450 intervallo msec è coerente con i risultati di altri. L'amigdala è più attivo di volti spaventosi intatte o volti spaventosi che contengono solo i contenuti LSF 3,45. Poiché i contenuti più LSF vengono rimossi dalle formazioni disegni, questi risultati del gruppo di controllo indicano che l'N400 è molto più piccolo nella regione occipitale-parietale e quasi invisibile nelle regioni temporali rispetto a quella nel compito fotografia.

becausinformazioni e l'elaborazione di linee-disegni dipende meno dalla funzione non consapevole nell'amigdala, i pazienti con AS mostrano modelli ERP più comparabili, come i controlli sani nelle fasi (350-450 msec) più tardi, durante il riconoscimento del volto emotivo. È interessante notare che il gruppo AS può svolgere i compiti di valutazione emotività correttamente senza l'N400 visibile nel compito fotografia. È ragionevole ipotizzare che l'elaborazione delle informazioni attraverso l'amigdala e delle sue strutture limbiche associate svolgere un ruolo cruciale nell'innescare l'ampiezza della N400, che può influenzare l'efficienza di elaborazione delle informazioni in pazienti con AS ma non ha alcun effetto sulla loro accuratezza risposta.

E 'stato dimostrato che emotivo riconoscimento del volto impegna iniziali e successive variazioni di oscillazioni delta / theta 8, che sono considerati l'attività cerebrale associata con proiezioni cortico-limbiche durante stimolo stima 46-48. delta di sincronizzazione / theta è più associato con i non-conscio che con consapevole riconoscimento facciale 46. I risultati su ERSPs inoltre indicare che il gruppo come ha molto più debole di sincronizzazione in ritmi delta / theta nelle prime e successive fasi di riconoscimento facciale emotiva. E 'ragionevole ipotizzare che più debole la sincronizzazione delta / theta riflette un disturbo nel processo non consapevole di espressioni emotive e un fallimento nella proiezione limbico-corticali in pazienti con AS. Delta sincronizzazione / theta è leggermente più pronunciato nel frontale linea mediana, linea mediana regioni occipito-parietale centrali e linea mediana rispetto ad altre regioni del cuoio capelluto del gruppo AS nel 350-450 msec posta intervallo di insorgenza in entrambi i compiti. Queste regioni della linea mediana sono strettamente correlati alla struttura corticale della rappresentazione cosciente del significato emotivo 18.

Poiché il percorso cognitivo o cosciente è ancora mediatadalla struttura limbica, come il talamo, possiamo ipotizzare che il gruppo AS si basa sul percorso consapevole più che la via non-conscio nel rispondere alle fotografie e line-disegni. Nel gruppo di controllo, il potere Delta / theta raggiunge il più forte nelle regioni parietale-occipitale tempo-locked allo stimolo insorgenza e aumenta nelle regioni frontali in una fase successiva nel compito fotografia. La distribuzione spaziale del potere Delta / theta nel compito line-disegno diventa più vicina a quella del gruppo AS. Ipotizziamo che il gruppo di controllo coinvolge i percorsi coscienti e non coscienti nel compito fotografia, e si basa sul percorso consapevole nel compito line-drawing.

Quando si confrontano ERSPs tra le due attività, il gruppo di controllo suggerisce inoltre un effetto additivo di contenuti LSF sulla sincronizzazione delta / theta nel 250-450 msec posta intervallo di insorgenza, indipendente di regioni del cervello e dei meccanismi enon richieste dalle emozioni facciali. Il contenuto LSF in una faccia sembra porre un carico costante sul flusso di informazioni, che possono essere facilmente bypassato attraverso l'attenzione volontaria ai dettagli in una faccia, come suggerisce pazienti con AS che possono valutare emozioni facciali successo nel compito fotografia. Forti oscillazioni alfa e beta sono stati denominati come indicatori di processi funzionali nella neocorteccia associato con attenzione, memoria semantica a lungo termine, e la stima cognitiva degli stimoli 49,50. In un compito di riconoscimento dei volti, alpha / beta desincronizzazione riflette il livello di attenzione volontaria agli stimoli visivi ed è associata con la valutazione cognitiva delle emozioni facciali 15,18,51. In questo studio, non vi è alcuna prova sostenere un effetto compito o un gruppo oscillazioni a frequenza più alta (alfa e beta) ad eccezione delle differenze regionali, confrontando la differenza tra la regione parietale-occipitale e in altre regioni. Alpha desincronizzazione riflette l'attenzione eun rilascio da processi inibiti in compiti complessi 52, mentre l'oscillazione beta è raramente osservata in compiti di emozione legati 53,54. desincronizzazione Beta nel gruppo AS è generalmente più forte di quella del gruppo di controllo in entrambi i compiti, ma la differenza di gruppo è insignificante. Le ERSPs suggeriscono che il gruppo AS ha molto più debole potere delta / theta, ma un po 'più forte potere alpha / beta, rispetto al gruppo di controllo. Noi ipotizziamo che i pazienti con AS possono indirizzare la loro attenzione ad alcuni dettagli importanti volti mediante l'uso di valutazione cognitiva degli stimoli visivi per compensare i deficit sensoriali e affettive.

In sintesi, il riconoscimento delle emozioni facciali nei controlli sani induce entrambi i processi consci e non coscienti 9,18,51. Le differenze reazione di tempo tra i due compiti tendono ad essere più grandi nel gruppo di controllo rispetto a quelli del gruppo AS. Ipotizziamo che il sanocontrolli impegnano il processo consapevole più di quello non-conscio nel rispondere alle line-disegni ed esercitano entrambi i processi per rispondere alle fotografie, mentre i pazienti con AS si basano solo sul processo consapevole nel rispondere ad entrambi i tipi di facce.

Supplementare Codice File:. Programma di esempio Clicca qui per scaricare il file.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

La letteratura dispone di studi sul riconoscimento delle emozioni facciali nei pazienti con autismo attraverso l'analisi delle reazioni EEG 44, e sul riconoscimento dei contenuti ad alta e bassa frequenza spaziali utilizzando stimoli visivi 43. Per quanto a nostra conoscenza, tuttavia, vi è una mancanza di lavoro esistenti sull'attività oscillatoria del cervello che combina riconoscimento delle emozioni con diversi contenuti di frequenza spaziale. Il nostro protocollo è un primo passo verso la stima l'influenza di emotività (volti positivi, neutri e negativi) e le informazioni frequenza spaziale (fotografie e line-disegni) sul riconoscimento delle emozioni in pazienti con rispetto ai controlli sani. La nostra analisi delle reazioni EEG nei settori spaziali, temporali e di frequenza permette di separare le funzioni cognitive e affettive di un grado per la comprensione scientifica del disturbo AS. In questo studio, il protocollo sperimentale fornisce un approccio a fattori riduce estranei a the riconoscimento delle emozioni; cioè, i tempi di reazione ei punteggi assegnati a emotività di facce sono mantenuti il ​​più possibile simili tra i due gruppi da uno studio pilota accuratamente progettato. I partecipanti sono anche abbinati sul QI e di genere, sia lo studio pilota e sperimentare EEG. Mentre gli studi precedenti sulla EEG AS si sono concentrati sul P1 e N170 55, il protocollo in questo studio dà un contributo a dimostrare una differenza significativa della componente N400 tra l'AS e gruppi di controllo.

Facce emotive di Ekman suscitano le oscillazioni a bassa frequenza più forti nei controlli sani rispetto alle facce in altri database (ad esempio, facce emotive alcuni ben convalidato di Taiwan). Si consiglia vivamente di condurre uno studio pilota EEG per convalidare stimoli emotivi volto utilizzati in pazienti e controlli sani prima dell'esperimento EEG. I pazienti con AS hanno difficoltà ad usare le informazioni HSF nelle regioni dell'occhio 56. In questa ragione, laselezionati stimoli volto di Ekman contengono espressioni emotive identificabili da esposte denti / non esposti o solcati sopracciglia / levigate. Gli studi su altri tipi di pazienti potrebbero prendere in considerazione altre caratteristiche del viso durante la sostituzione stimoli utilizzati nel protocollo. Il sistema di punteggio deve essere progettato per facilitare i pazienti che svolgono il compito di valutazione emotività, che può essere risolto intervistando i pazienti reclutati nello studio pilota; vale a dire, il continuum ordinato, senza alcun segno di spunta ad eccezione dei punti centrali e terminali, è progettato secondo il feedback dai pazienti pilota. Le etichette nei punti finali del sistema di punteggio possono essere modificati, ad esempio, amichevole contro nemica, che deve essere scelto per massimizzare le risposte emotive soprattutto nei controlli.

Nella letteratura, come si trova con i danni nella amigdala e le sue relative strutture limbiche 37-39, che sono coinvolti nella memoria e il recupero delle informazioni rilevanti per le emozioni, exconcetto per l'emozione neutro 40,41. Inoltre, l'amigdala è sensibile al contenuto LSF in un volto fotografato 3. I due compiti nel protocollo sono progettati secondo i risultati esistenti in materia di deficit negli adulti con AS, e gli stimoli e sistema di punteggio sono stati inoltre progettati per l'utilizzo con questa popolazione di pazienti. Applicazioni cliniche del protocollo ad altri pazienti adulti con un simile tipo di perdita di valore, come ad esempio disturbi dello spettro autistico 57, possono essere condotte con una modifica minore in stimoli per il viso e il sistema di punteggio.

Va notato che il protocollo non è inteso per la diagnosi clinica di bambini di età inferiore ai 7 anni, la cui cosciente (o facoltativo) il controllo di comportamenti non possono essere completamente sviluppato 26. Inoltre, la tecnica non dà risultati diagnostici chiari nei pazienti con comorbidità psichiatrica seguenti lesioni cerebrali, tumori o altre violazioni di emodinamica cerebrale.Diversi studi hanno trovato una relazione tra aggressività e cambiamenti ormonali nelle donne durante il 58,59 mestruale ciclo. E 'anche noto che la somministrazione di etanolo o stupefacenti cambia le reazioni emotive 60. Questi tipi di cambiamenti possono causare fluttuazioni reazioni EEG a stimoli emozionali in entrambi i controlli sani e pazienti con AS. Pertanto, non è consigliabile applicare il protocollo per le donne durante i periodi mensili o quando la sofferenza sindrome premestruale, o per pazienti al di sotto alcol o intossicazione da farmaci. Gli studi di neuroimaging su percorsi coscienti e non coscienti delle emozioni possono applicare il protocollo di abbinato demograficamente controlli sani e pazienti con AS variando i gradi di rozzezza e la neutralità di stimoli emotivi viso.

I pazienti con AS appartengono ad un gruppo relativamente alta trait-ansia 13,36 ei loro occhi lampeggiano e artefatti di movimento possono essere gravi. È auspicabile havdei responsabili con esperienza e e algoritmi efficienti per la rimozione di manufatti EEG prima di affrontare eventuali problemi scientifici o clinici. Il protocollo sperimentale rappresenta uno sforzo verso la ricerca sulle rappresentazioni coscienti e non coscienti delle emozioni nel cervello. Il protocollo è stato convalidato da reclutare / controlli e pazienti sesso-abbinato IQ con AS nell'esperimento EEG. Il tempo di reazione e la precisione di risposta sono supplementi per le diagnosi psicologiche e comportamentali. La tecnica è indipendente l'umore personale del partecipante durante l'esperimento, e quindi, consente il monitoraggio dinamica di stato di un paziente durante e dopo la terapia psicologica o farmacologica. La tecnica può essere applicata a pazienti affetti da altri tipi di patologia affettiva, come il disturbo d'ansia, la depressione, la sindrome di esaurimento, e la violazione emotiva stress post-traumatico. Ulteriori modifiche sul protocollo sono incoraggiati per l'uso in Other gruppi disordine sociale ed emotivo. Uno studio pilota ben progettato con intervista di controlli e pazienti avrebbe aiutato con la convalida di una versione modificata del protocollo.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
Synamps 2/RT 128-channel EEG/EP/ERP Neuroscan
Quik-CapEEG 128 electrodes Neuroscan
Gel Quik-Gel
FASTRAK 3D digitizer Polhemus 

DOWNLOAD MATERIALS LIST

References

  1. Tamietto, M., De Gelder, B. Neural bases of the non-conscious perception of emotional signals. Nat Rev Neurosci. 11, 697-709 (2010).
  2. Harms, M. B., Martin, A., Wallace, G. L. Facial Emotion Recognition in Autism Spectrum Disorders: A Review of Behavioral and Neuroimaging Studies. Neuropsychol Rev. 20, 290-322 (2010).
  3. Vuilleumier, P., Armony, J. L., Driver, J., Dolan, R. J. Distinct spatial frequency sensitivities for processing faces and emotional expressions. Nat Neurosci. 6, 624-631 (2003).
  4. Phan, K. L., Wager, T., Taylor, S. F., Liberzon, I. Functional neuroanatomy of emotion: A meta-analysis of emotion activation studies in PET and fMRI. Neuroimage. 16, 331-348 (2002).
  5. Kano, M., et al. Specific brain processing of facial expressions in people with alexithymia: an (H2O)-O-15-PET study. Brain. 126, 1474-1484 (2003).
  6. Williams, L. M., et al. Fronto-limbic and autonomic disjunctions to negative emotion distinguish schizophrenia subtypes. Psychiat Res-Neuroim. 155, 29-44 (2007).
  7. Goffaux, V., et al. From coarse to fine? Spatial and temporal dynamics of cortical face processing. Cereb Cortex. , (2010).
  8. Balconi, M., Lucchiari, C. EEG correlates (event-related desynchronization) of emotional face elaboration: A temporal analysis. Neurosci Lett. 392, 118-123 (2006).
  9. Balconi, M., Lucchiari, C. Consciousness and emotional facial expression recognition - Subliminal/Supraliminal stimulation effect on n200 and p300 ERPs. J Psychophysiol. 21, 100-108 (2007).
  10. Balconi, M., Pozzoli, U. Face-selective processing and the effect of pleasant and unpleasant emotional expressions on ERP correlates. Int J Psychophysiol. 49, 67-74 (2003).
  11. Balconi, M., Pozzoli, U. Event-related oscillations (EROs) and event-related potentials (ERPs) comparison in facial expression recognition. J Neuropsychol. 1, 283-294 (2007).
  12. Balconi, M., Pozzoli, U. Arousal effect on emotional face comprehension Frequency band changes in different time intervals. Physiol Behav. 97, 455-462 (2009).
  13. Tseng, Y. L., Yang, H. H., Savostyanov, A. N., Chien, V. S., Liou, M. Voluntary attention in Asperger's syndrome: Brain electrical oscillation and phase-synchronization during facial emotion recognition. Res Autism Spectr Disord. 13, 32-51 (2015).
  14. Goffaux, V., Rossion, B. Faces are" spatial"--holistic face perception is supported by low spatial frequencies. J Exp Psychol Hum Percept Perform. 32, 1023 (2006).
  15. Knyazev, G. G., Bocharov, A. V., Levin, E. A., Savostyanov, A. N., Slobodskoj-Plusnin, J. Y. Anxiety and oscillatory responses to emotional facial expressions. Brain Res. 1227, 174-188 (2008).
  16. Adolphs, R. Recognizing emotion from facial expressions: psychological and neurological mechanisms. Behav Cogn Neurosci Rev. 1, 21-62 (2002).
  17. Acar, Z. A., Makeig, S. Neuroelectromagnetic Forward Head Modeling Toolbox. J Neurosci Methods. 190, 258-270 (2010).
  18. Balconi, M. Neuropsychology of facial expressions. The role of consciousness in processing emotional faces. Neuropsychol Trends. 11, 19-40 (2012).
  19. Gross, T. F. The perception of four basic emotions in human and nonhuman faces by children with autism and other developmental disabilities. J Abnorm Child Psychol. 32, 469-480 (2004).
  20. Behrmann, M., Thomas, C., Humphreys, K. Seeing it differently: visual processing in autism. Trends in cognitive sciences. 10, 258-264 (2006).
  21. Holroyd, S., Baron-Cohen, S. Brief report: How far can people with autism go in developing a theory of mind? J Autism Dev Disord. 23, 379-385 (1993).
  22. Duverger, H., Da Fonseca, D., Bailly, D., Deruelle, C. Theory of mind in Asperger syndrome. Encephale. 33, 592-597 (2007).
  23. Wallace, S., Sebastian, C., Pellicano, E., Parr, J., Bailey, A. Face processing abilities in relatives of individuals with ASD. Autism Res. 3, 345-349 (2010).
  24. Weigelt, S., Koldewyn, K., Kanwisher, N. Face identity recognition in autism spectrum disorders: a review of behavioral studies. Neurosci Biobehav Rev. 36, 1060-1084 (2012).
  25. Wilson, C., Brock, J., Palermo, R. Attention to social stimuli and facial identity recognition skills in autism spectrum disorder. J Intellect Disabil Res. 54, 1104-1115 (2010).
  26. American_Psychiatric_Association. The Diagnostic and Statistical Manual of Mental Disorders: DSM 5. , bookpointUS. (2013).
  27. Dahlgee, S., Gilberg, C. Symptoms in the First two years of Life. A Priliminary. Population Study of Infantile Autism European archives of Psychiatry and Neurology. Sciences. , (1989).
  28. Basar-Eroglu, C., Kolev, V., Ritter, B., Aksu, F., Basar, E. EEG, auditory evoked potentials and evoked rhythmicities in three-year-old children. Int J Neurosci. 75, 239-255 (1994).
  29. Ekman, P., Friesen, W. V. Pictures of Facial Affect. , Consulting Psychologist Press. (1976).
  30. Gillberg, C. Autism and Asperger's Syndrome. , Cambridge University Press. 122-146 (1991).
  31. Chiang, S. K., Tam, W. C., Pan, N. C., Chang, C. C., Chen, Y. C., Pyng, L. Y., Lin, C. Y. The appropriateness of Blyler's and four subtests of the short form of the Wechsler Adult Intelligence Scale-III for chronic schizophrenia. Taiwanese J Psychiatr. 21, 26-36 (2007).
  32. Delorme, A., Makeig, S. EEGLAB: an open source toolbox for analysis of single-trial EEG dynamics including independent component analysis. J Neurosci Methods. 134, 9-21 (2004).
  33. Makeig, S., Bell, A. J., Jung, T. P., Sejnowski, T. J. Independent component analysis of electroencephalographic data. Adv Neural Inf Process Syst. 8, 145-151 (1996).
  34. Başar, E. Brain Function and Oscillations: Volume I: Brain Oscillations. Principles and Approaches. , Springer Science & Business Media. (2012).
  35. Tsai, A. C., et al. Recognizing syntactic errors in Chinese and English sentences: Brain electrical activity in Asperger's syndrome. Res Autism Spectr Disord. 7, 889-905 (2013).
  36. Savostyanov, A. N., et al. EEG-correlates of trait anxiety in the stop-signal paradigm. Neurosci Lett. 449, 112-116 (2009).
  37. Ashwin, C., Baron-Cohen, S., Wheelwright, S., O'Riordan, M., Bullmore, E. T. Differential activation of the amygdala and the 'social brain' during fearful face-processing in Asperger Syndrome. Neuropsychologia. 45, 2-14 (2007).
  38. Kevin, K. Y., Cheung, C., Chua, S. E., McAlonan, G. M. Can Asperger syndrome be distinguished from autism? An anatomic likelihood meta-analysis of MRI studies. J Psychiatry Neurosci. 36, 412 (2011).
  39. Piggot, J., et al. Emotional attribution in high-functioning individuals with autistic spectrum disorder: A functional imaging study. J Am Acad Child Adolesc Psychiatry. 43, 473-480 (2004).
  40. Ilyutchenok, R. Y. Emotions and conditioning mechanisms. Integr Physiol Behav Sci. 16, 194-203 (1981).
  41. Kleinhans, N. M., et al. fMRI evidence of neural abnormalities in the subcortical face processing system in ASD. Neuroimage. 54, 697-704 (2011).
  42. Toivonen, M., Rama, P. N400 during recognition of voice identity and vocal affect. Neuroreport. 20, 1245-1249 (2009).
  43. Deruelle, C., Rondan, C., Gepner, B., Tardif, C. Spatial frequency and face processing in children with autism and Asperger syndrome. J Autism Dev Disord. 34, 199-210 (2004).
  44. Bentin, S., Deouell, L. Y. Structural encoding and identification in face processing: ERP evidence for separate mechanisms. Cogn Neuropsychol. 17, 35-55 (2000).
  45. Vuilleumier, P., Pourtois, G. Distributed and interactive brain mechanisms during emotion face perception: evidence from functional neuroimaging. Neuropsychologia. 45, 174-194 (2007).
  46. Basar, E., Guntekin, B., Oniz, A. Principles of oscillatory brain dynamics and a treatise of recognition of faces and facial expressions. Prog Brain Res. 159, 43-62 (2006).
  47. Basar, E., Schmiedt-Fehr, C., Oniz, A., Basar-Eroglu, C. Brain oscillations evoked by the face of a loved person. Brain Res. 1214, 105-115 (2008).
  48. Başar, E. Brain Function and Oscillations: Volume II: Integrative Brain Function. Neurophysiology and Cognitive Processes. , Springer Science & Business Media. (2012).
  49. Anokhin, A., Vogel, F. EEG alpha rhythm frequency and intelligence in normal adults. Intelligence. 23, 1-14 (1996).
  50. Klimesch, W. EEG alpha and theta oscillations reflect cognitive and memory performance: a review and analysis. Brain Res Rev. 29, 169-195 (1999).
  51. Knyazev, G. G., Slobodskoj-Plusnin, J. Y., Bocharov, A. V. Event-Related Delta and Theta Synchronization during Explicit and Implicit Emotion Processing. Neuroscience. 164, 1588-1600 (2009).
  52. Klimesch, W., Sauseng, P., Hanslmayr, S. EEG alpha oscillations: The inhibition-timing hypothesis. Brain Res Rev. 53, 63-88 (2007).
  53. Knyazev, G. G., Slobodskoj-Plusnin, J. Y. Behavioural approach system as a moderator of emotional arousal elicited by reward and punishment cues. Pers Individ Dif. 42, 49-59 (2007).
  54. Balconi, M., Brambilla, E., Falbo, L. Appetitive vs. defensive responses to emotional cues. Autonomic measures and brain oscillation modulation. Brain Res. 1296, 72-74 (2009).
  55. Dakin, S., Frith, U. Vagaries of visual perception in autism. Neuron. 48, 497-507 (2005).
  56. Curby, K. M., Schyns, P. G., Gosselin, F., Gauthier, I. Face-selective fusiform activation in Asperger's Syndrome: A matter of tuning to the right (spatial) frequency. Poster presented at Cogn Neurosci, New York, , (2003).
  57. American_Psychiatric_Association. Diagnostic and statistical manual of mental disorders. , (1994).
  58. Dougherty, D. M., Bjork, J. M., Moeller, F. G., Swann, A. C. The influence of menstrual-cycle phase on the relationship between testosterone and aggression. Physiol Behav. 62, 431-435 (1997).
  59. Van Goozen, S. H., Wiegant, V. M., Endert, E., Helmond, F. A., Van de Poll, N. E. Psychoendocrinological assessment of the menstrual cycle: the relationship between hormones, sexuality, and mood. Arch Sex Behav. 26, 359-382 (1997).
  60. Winward, J. L., Bekman, N. M., Hanson, K. L., Lejuez, C. W., Brown, S. A. Changes in emotional reactivity and distress tolerance among heavy drinking adolescents during sustained abstinence. Alcohol Clin Exp Res. 38, 1761-1769 (2014).

Tags

Comportamento la sindrome di Asperger l'attività elettrica del cervello potenziali evento-correlati perturbazioni spettrali evento-correlati facciale riconoscimento delle emozioni frequenza spaziale
Rappresentazioni coscienti e non coscienti della Facce emotivi nella sindrome di Asperger
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Chien, V. S. C., Tsai, A. C., Yang,More

Chien, V. S. C., Tsai, A. C., Yang, H. H., Tseng, Y. L., Savostyanov, A. N., Liou, M. Conscious and Non-conscious Representations of Emotional Faces in Asperger's Syndrome. J. Vis. Exp. (113), e53962, doi:10.3791/53962 (2016).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter