Las representaciones conscientes y no conscientes de las caras emocionales en el Síndrome de Asperger

JoVE Journal
Behavior

Your institution must subscribe to JoVE's Behavior section to access this content.

Fill out the form below to receive a free trial or learn more about access:

 

Summary

Un protocolo experimental EEG está diseñado para aclarar la interacción entre las representaciones conscientes y no conscientes de las caras emocionales en pacientes con el síndrome de Asperger. La técnica sugiere que los pacientes con síndrome de Asperger tienen un déficit en la representación no consciente de las caras emocionales, pero tienen un rendimiento comparable en representación consciente con los controles sanos.

Cite this Article

Copy Citation | Download Citations | Reprints and Permissions

Chien, V. S. C., Tsai, A. C., Yang, H. H., Tseng, Y. L., Savostyanov, A. N., Liou, M. Conscious and Non-conscious Representations of Emotional Faces in Asperger's Syndrome. J. Vis. Exp. (113), e53962, doi:10.3791/53962 (2016).

Please note that all translations are automatically generated.

Click here for the english version. For other languages click here.

Abstract

Varios estudios de neuroimagen han sugerido que el contenido de baja frecuencia espacial en una cara emocional activa principalmente la amígdala, pulvinar, y el colículo superior especialmente con caras temerosas 1-3. Estas regiones constituyen la estructura límbico en la percepción no consciente de las emociones y modulan la actividad cortical directa o indirectamente 2. Por el contrario, la representación consciente de las emociones es más pronunciada en la corteza cingulada anterior, la corteza prefrontal y la corteza somatosensorial para dirigir la atención voluntaria a los detalles en las caras de 3,4. El síndrome de Asperger (AS) 5,6 representa un trastorno mental atípica que afecta a las capacidades sensoriales, afectivas y comunicativas, sin interferir con las habilidades lingüísticas normales y la capacidad intelectual. Varios estudios han encontrado que los déficits funcionales en los circuitos neuronales importantes para el reconocimiento de emociones faciales pueden explicar en parte el fracaso en la comunicación socialpacientes con AS 7-9. Con el fin de aclarar la interacción entre las representaciones conscientes y no conscientes de las caras emocionales en AS, un protocolo experimental EEG está diseñado con dos tareas que implican la evaluación de la emotividad ya sea fotografía o caras de dibujo de línea. Un estudio piloto se introduce para la selección de cara estímulos que minimizan las diferencias en los tiempos de reacción puntuaciones asignadas a las emociones faciales entre las pacientes sometidas a pruebas previas y con SA y CI / controles sanos emparejados por sexo. La información de las pacientes sometidas a pruebas previas se utilizó para desarrollar el sistema de puntuación utilizado para la evaluación de la emocionalidad. La investigación sobre las emociones faciales y los estímulos visuales con diferentes contenidos de frecuencia espacial ha alcanzado resultados discrepantes en función de las características demográficas de los participantes y la tarea exige 2. El protocolo experimental tiene por objeto aclarar los déficits en pacientes con EA en el procesamiento de caras emocionales en comparación con los controles sanos mediante el control del factors sin relación con el reconocimiento de emociones faciales, tales como la dificultad de la tarea, el CI y el género.

Introduction

reconocimiento de la emoción facial es uno de los procesos cerebrales más importantes que participan en la comunicación social. Una variedad de trastornos mentales están relacionados con problemas con la detección explícita de emociones faciales 4-6. Una fotografía de una cara contiene un espectro de la información espacial que se puede filtrar, ya sea para la alta frecuencia espacial (HSF) o bajo contenido de frecuencia espacial (LSF). HSF se relaciona con partes muy detalladas de una imagen, tales como los bordes de una cara, mientras LSF está relacionado con más gruesa o partes menos bien definidas, tales como una cara integral con contenidos LSF 7. Cualquier tarea de reconocimiento facial induce al mismo tiempo los procesos conscientes y no conscientes de 8-12, y la participación del proceso no consciente se produce en el intervalo de 150-250 aparición posterior mseg o incluso antes 13. En los controles sanos, el proceso no consciente es generalmente más rápido que el 14,15 proceso consciente. Varios estudios han sugerido que la neuroimagenla LSF en un estímulo facial (o estímulo motivacional significativo) se activa principalmente la amígdala, pulvinar, y el colículo superior especialmente con caras temerosas 3,16. Estas regiones constituyen la estructura límbico en la percepción no consciente de las emociones y modulan la actividad cortical directa o indirectamente 1. Por el contrario, la representación consciente de las emociones es más pronunciada en la corteza cingulada anterior, la corteza prefrontal y la corteza somatosensorial para dirigir la atención voluntaria a los detalles en la cara 9.17.18.

El síndrome de Asperger (AS) 19,20 representa un trastorno mental atípica que afecta a las capacidades sensoriales, afectivas y comunicativas, sin interferir con las habilidades lingüísticas normales y la capacidad intelectual. Varios estudios han encontrado que los déficits funcionales en los circuitos neuronales importantes para el reconocimiento de emociones faciales pueden explicar en parte el fallo de la comunicación social en AS 21-25.Trastornos de comportamiento observados en niños con AS pueden ser diagnosticados en los tres primeros años de vida de 26 años, un período durante el cual su control voluntario (o consciente) sobre comportamientos no está completamente desarrollado 27. En los adultos con síndrome de Asperger, los trastornos de la conducta pueden ser compensadas a través de regulación de la atención 28. La dificultad de los detalles de procesamiento dentro de un cierto rango de frecuencia espacial puede indicar una interrupción en diferentes etapas de procesamiento de información. Hasta el momento, ningún estudio ha abordado directamente los potenciales evocados y la actividad oscilatoria en pacientes con EA durante el reconocimiento de emociones faciales que implica estímulos cara en rangos de frecuencias espaciales específicas. Es importante examinar la trayectoria funcional en pacientes con EA en comparación con los controles sanos durante el procesamiento de estímulos faciales con diferentes contenidos de frecuencia espacial mediante el control de demandas de la tarea y los efectos demográficos como el sexo y el CI.

Con el fin de aclarar la interjugar entre las representaciones conscientes y no conscientes de las caras emocionales, un protocolo experimental EEG está diseñado para comparar los potenciales evocados del cerebro y la actividad oscilatoria entre los pacientes con AS y CI / controles sanos emparejados por sexo. Una cohorte de participantes en el piloto fue reclutado antes del experimento EEG para obtener ayuda con la selección de los estímulos y el desarrollo de un sistema de puntuación experimentales con el fin de facilitar una evaluación de los resultados en los pacientes con AS. El protocolo consiste en dos tareas que implican la evaluación de la emotividad ya sea fotografía o caras de dibujo de línea. Las diferencias entre los dos grupos se pueden evaluar mediante el cálculo de los ERP y perturbaciones espectrales relacionados con eventos (ERSPs). En la siguiente sección, los detalles del protocolo experimental se elaboran, incluyendo el estudio piloto y los métodos de procesamiento / análisis de datos de EEG, seguido de los principales resultados del análisis. Por último, los pasos críticos en el protocolo y su importancia con respecto a la existenteSe discuten métodos. La limitación y la posible extensión del protocolo a utilizar en pacientes con otros trastornos emocionales también se señalan.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Declaración de Ética: Los procedimientos que implican los participantes humanos han sido aprobados por la ética de investigación participante humanos Comité / Junta de Revisión Institucional de la Academia Sinica, Taiwán.

1. Los estímulos y Experimental Preparación Programa

  1. Preparar un grupo de más de 60 fotografías faciales emocionales 29 categorizados en tres expresiones faciales (enojado, feliz, y neutro). Utilice el software de gráficos para enmascarar partes del cabello y las orejas en las fotografías con el fondo negro como se muestra en la Figura 1A para que los participantes puedan concentrarse en los rasgos faciales en las fotografías.
    1. Abra una fotografía en el software de gráficos. Utilice la caja de herramientas de selección para dibujar una región elíptica y ajustar el tamaño de la región de manera que las orejas y la mayor parte del cabello no caigan en la elipse.
    2. Invertir la región seleccionada. Haga clic en "Eliminar" para eliminar la región no deseado de la fotografía y sustituirlo por el color de fondo negro.

Figura 1
Figura 1. Ejemplos de cara estímulos emocionales. (A) caras fotografía donde el pelo y las orejas han sido enmascaradas en el fondo de color negro, y (B) de la línea de dibujo de rostros que se editan a partir de (A) por el software de gráficos. Las caras muestran emociones neutro, alegre, y enojado, respectivamente, desde la parte superior a filas inferiores. Por favor, haga clic aquí para ver una versión más grande de esta figura.

  1. Crear un estudio piloto. Contratar a los participantes piloto para la selección de los estímulos adecuados a partir de la piscina fotografía.
    Nota: Los participantes en el piloto no deben participar en el experimento EEG.
    1. Configurar el programa de presentación del estímulo a partir de la primera pantalla de ordenador que presenta la instrucción de tareas, seguido de 5 familiarization ensayos. Comience cada ensayo con una cruz de fijación, seguido de un estímulo cara, y por una tarea de evaluación emocionalidad. Ver Código Suplementario de archivo para un programa de ejemplo.
      Nota: Los ensayos experimentales reales siguen inmediatamente las pruebas de familiarización mediante la selección de las fotografías de la cara en un orden aleatorio de la piscina.
      1. Crear un programa experimental, incluyendo las pantallas de instrucciones y una pantalla central de fijación del ojo. Creación de la pantalla de estímulo cara como se ilustra en la figura 2 mediante la configuración del tamaño de la fotografía que debe 18,3 x 24,4 cm 2 (anchura x altura) con color de fondo negro, dado un tamaño de pantalla de la computadora 41 x 25,6 cm 2 con una resolución de 1.680 x 1.050. Ver Código Suplementario de archivo para un programa de ejemplo.
      2. Crear un sistema de puntuación para la evaluación emotividad en el programa como se ilustra en la Figura 3. Coloque una línea horizontal que va de -100 a +100 en una escala continua, en el centro de la pantalla withoun cualquier casillas de marcas, a excepción de la central y los puntos finales. Preparar el programa de tal manera que los participantes puedan evaluar libremente la emotividad de una fotografía de la cara arrastrando el cursor a la izquierda de puntuación de muy enojado (-100) y hacia la derecha para muy feliz (100), y presione el botón GO.
        Nota: La línea de puntuación se ha diseñado sin ningún tipo de casillas de marcas porque los pacientes con la misma facilidad pueden quedar atrapados en colocar el cursor entre las garrapatas durante la evaluación de la emocionalidad. Por lo tanto, se prefiere una escala continua para los pacientes.
      3. Asegúrese de que el programa registra los resultados del comportamiento de un participante (por ejemplo, tiempo de reacción y anota emocionalidad), que se utilizan como criterios para la elección de las fotografías de la piscina (ver paso 1.3.1).
    2. participantes en el piloto (5 Reclutar control y 5 participantes como piloto). Diagnosticar a los pacientes clínicos según Gillberg 30 y los criterios del DSM-IV 26 y administrar la forma corta derivada clínica de Adultos de Wechsler Escala de inteligencia (WAIS-III) 31. Coinciden con los controles a sus contrapartes mientras que lo más cerca posible de género, y en las puntuaciones de CI verbal / rendimiento.
    3. Ejecutar el procedimiento experimental en el estudio piloto para cada participante individual. Después de completar la tarea de reconocimiento facial emocional, entrevistar a cada piloto, como participante de la duración razonable de los períodos de fijación de ojos central y la presentación del estímulo, la dificultad de la tarea, la facilidad de utilizar el sistema de puntuación y el número máximo de intentos de mantener su / su concentración, basado en que el programa puede ser reconfigurado para el experimento EEG (véase la etapa 1.3.2)

Figura 2
Figura 2. Una captura de pantalla de un estímulo cara en el programa. El tamaño de la cara está configurado para adaptarse a la altura de la pantalla. El área vacía se rellena con el color negro.cargar / 53962 / 53962fig2large.jpg "target =" _ blank "> Haga clic aquí para ver una versión más grande de esta figura.

figura 3
Figura 3. Una captura de pantalla del sistema de puntuación para la evaluación de la emocionalidad. La barra de puntuación está diseñado para tener ninguna marca de la señal. El participante tiene que arrastrar el ratón para seleccionar la puntuación asignada a una cara y pulse el botón GO para terminar la tarea. Por favor, haga clic aquí para ver una versión más grande de esta figura.

  1. Programa para la Tarea 1: Fotografía Sesión.
    1. Seleccionar de la piscina de 30 fotografías, que comprende 10 cada una de las expresiones faciales feliz, enojado, y neutrales (5 machos y 5 hembras caras para cada tipo de expresiones), que le dan los tiempos medios de reacción más comparables y anota emocionalidad entre el 5 AS y la media 5 participantes en el piloto de control. Actualizar las configuraciones de programa experimentales mediante la incorporación de los comentarios de los pacientes piloto, tales como el período de ojo-fijación central óptimo (es decir, 1.000 ms), la duración de la presentación del estímulo (es decir, 1,000 ms), el intervalo entre estímulos (es decir, asignados al azar en -entre el 4 y el 7 seg), y la escala del sistema de puntuación (es decir, -100 a 100). Añadir cinco ensayos de familiarización antes de los 30 ensayos experimentales en el programa.
      1. Cambiar el número de estímulos e intervalos de tiempo en un archivo de texto de configuración externa asociada con el programa experimental.
        Nota: El archivo de texto puede ser modificado para adaptarse a diferentes condiciones experimentales sin necesidad de intervención de los ingenieros de software.
      2. No contar las cinco fotografías para pruebas de familiarización con las 30 fotografías seleccionadas. No utilice los EEG y los datos de comportamiento registradas en los ensayos de familiarización en el análisis de datos.
  2. programa fo Tarea 2: Línea de dibujo de la Sesión.
    1. Crear imágenes de dibujo de línea de las 35 fotografías (5 para pruebas de familiarización, 30 para los ensayos experimentales) que se utilizan en la Tarea 1 mediante el trazado de los bordes de cada cara. Utilice el software de gráficos para modificar las fotografías en escala de grises en dibujos lineales en blanco y negro como se muestra en la Figura 1B.
      Nota: Los pasos siguientes para la edición de fotografía es una de las posibles soluciones para hacer dibujos lineales.
      1. En el software de gráficos, ajustar el brillo / contraste de la fotografía de modo que la intensidad original de la escala de grises de los píxeles de la mayoría cae en negro o blanco.
      2. Aplicar "efecto del bosquejo" en el "efecto" o el menú "filtro" del software para una fotografía en escala de grises de manera que sólo se conserva el contorno de la parte alta frecuencia espacial, y aplicar "efecto de socorro" para aumentar la dilatación de las curvas de nivel .
      3. Utilizar cualquier herramienta de pincel para mejorar los contornos y usar una herramienta goma de borrar paralimpiar las partes no deseadas. Asegúrese de mantener importantes rasgos faciales mediante la comprobación de ida y vuelta entre la fotografía original y su homólogo de línea de dibujo.
    2. Haga una copia del programa de la tarea 1 en el paso 1.3 para crear un programa para la tarea 2 y reemplazar las 35 fotografías en la tarea 1 con los correspondientes dibujos lineales.

2. Procedimiento de grabación de EEG

  1. Preparativos
    1. Reclutar 10 controles sanos y 10 pacientes con EA para los experimentos de EEG en base a las directrices de la ética de investigación participante humana locales Comité / Junta de Revisión Institucional.
    2. Administrar la forma corta del WAIS-III 31 a los pacientes con AS antes individualmente a los experimentos, y encontrar los controles que responden a los pacientes lo más estrechamente posible en el sexo y en las puntuaciones de CI verbal / rendimiento.
  2. grabación de EEG
    1. Asentar el participante en una silla cómoda en un aislar sonidod cámara (con poca luz) y ajustar la posición de la silla para que la pantalla del ordenador es de 60 cm por delante del participante. Después de un tutorial sobre el procedimiento experimental, tiene el participante complete los formularios de consentimiento junto con algunas preguntas sobre su / su imparcialidad.
    2. Use una tapa de EEG con 132 electrodos de Ag / AgCl (incluyendo 122 10-10 sistema EEG, y el VEOG bipolar, HEOG, ECG, EMG electrodos, junto con seis canales facial-musculares) para registrar el EEG. Conectar la tapa a dos amplificadores 64 canales con 0,1 a 100 Hz analógico filtro de paso de banda para digitalizar EEGs primas a 1000 Hz de frecuencia de muestreo.
    3. Montar el casquillo de 128 canales EEG estándar de la cabeza de cada participante. Ajuste la tapa de modo que el electrodo de la etiqueta de "referencia" se coloca en la posición de "Cz", que se encuentra en relación con los puntos de referencia de la línea media anterior / posterior (es decir, medio de la nasión la distancia inion), y para los puntos de referencia de izquierda / derecha (es decir, medio de la tragis izquierda / derecha), de acuerdo con el E10/10 EG sistema internacional.
    4. utilizar suavemente una aguja de punta roma para inyectar gel conductor en todos los electrodos. Agitar con la aguja lentamente dentro del electrodo para asegurar un buen contacto gel entre el cuero cabelludo y el electrodo (es decir, para mantener la impedancia por debajo de 5 kW). Constantemente comprobar el estado del contacto de gel en los electrodos de la etiqueta de "referencia" y "tierra" en la tapa de EEG para asegurarse de que la medición de la impedancia es correcta.
      1. Observe la impedancia de los electrodos mediante la visualización de la pantalla de la impedancia del electrodo soportado por el software de grabación de EEG (por ejemplo, SCAN 4.5 en este estudio) que por lo general va con el sistema EEG. En la pantalla, los electrodos se muestran en colores, y diferentes colores indican los niveles de impedancia.
    5. Colocar un electrodo HEOG en el canto de un ojo (sitio positivo), y el segundo electrodo en el canto del otro ojo (sitio negativo), un electrodo VEOG arriba y el otro debajo de la lojo EFT, electrodos de ECG bipolares en la parte posterior de electrodos bipolares EMG las manos izquierda y derecha, y en el área entre el pulgar y el dedo índice de la mano derecha, y los seis electrodos faciales alrededor de la ceja y la mejilla.
    6. Grabar en un cuaderno esos malos canales en los que la impedancia es superior a 5 kW, o guardar directamente a la pantalla que muestra la impedancia en todos los electrodos. Use esto como futura referencia para desechar los malos canales en la etapa de procesamiento de datos de EEG.
    7. EEG en estado de reposo registro después de instruir al participante para cerrar los ojos durante 12 minutos. Durante este tiempo, doblemente comprobar la calidad de la corriente de EEG instante mostrado en la pantalla compatible con el software de grabación de EEG.
      Nota: No debe haber ondas alfa claras distribuidas en los canales occipitales durante la condición de los ojos-cerrados en comparación con la condición de ojos abiertos. Si las ondas alfa son demasiado ruidosos (ignorando las malas canales) o distorsionada, vuelva al paso 2.2.4 y ajustar el contacto del gel.
    8. Comience las dos tareas experimentales en un orden compensada entre los participantes. EEG de registro haciendo clic en el icono de grabación en la pantalla compatible con el software de grabación.
      1. Después de leer las instrucciones de la tarea se muestra en la pantalla, haga que cada participante realice las 5 pruebas de familiarización, seguidos por los ensayos de tarea 30. Utilice el mismo procedimiento tanto para fotografía y las tareas de dibujo de línea. En la instrucción de trabajo, motivar a los participantes para asignar una puntuación a la emotividad de un estímulo cara lo más rápido posible.
      2. IMPORTANTE: Compruebe programas preparados en los pasos 1.3.2 y 1.4.2 para enviar correctamente el tiempo de enganche a la aparición de la fijación del ojo central, la cara presentación del estímulo eventos, y la presión del botón GO para el software de grabación durante la evaluación de la emocionalidad. Esos tiempos de inicio se codifican como numérico y se puede comprobar en la pantalla compatible con el software de grabación.
        Nota: El participante puede tomar un descanso entre las dos tareas. No hay EEG reacuerdo durante el descanso.
    9. Utilizar un digitalizador (por ejemplo, el digitalizador Polhemus FASTRAK 3D en este estudio) para registrar las posiciones 3D de electrodos y guardarlo en un archivo (por ejemplo .3dd o .dat) para los co-registrarse a través de las tapas de EEG participantes en el análisis de datos.
    10. Después del experimento EEG, tiene el participante complete un inventario de 35 interrogación en su / sus comportamientos y sentimientos durante el experimento EEG (por ejemplo, tener emociones negativas, casi se cayó en el sueño), y les proporciona el pago por su participación en el experimento.
    11. Llevar el participante al baño para limpiar / secar su / sus cabellos.
    12. Limpiar y esterilizar la tapa de EEG de acuerdo con las instrucciones clínicos.

3. Tratamiento de datos de EEG

Nota: Los comandos de software proporcionados en esta sección son específicas para EEGLAB.

  1. Filtrar las señales EEG usando un filtro de paso alto de 1 Hz y un filtro de paso bajo de 50 Hz llamando a lapop_eegfilt.m función 32.
    Nota: Utilice un filtro de paso bajo de 40 Hz para algunos países que tienen 50 Hz frecuencia de la red eléctrica
  2. Desechar malas canales con impedancia superior a 5 kW después de comprobar la impedancia de los electrodos registrado en el paso 2.2.6. Descartar esos malos canales con muy diferente espectro de potencia en comparación con los canales vecinos por inspección visual de las características del espectro de potencia (por ejemplo, el valor máximo, la curvatura, etc.) en cada canal.
    1. Calcular y representar gráficamente el espectro de potencia de la señal del EEG llamando a la función pop_spectopo.m 32.
  3. Vuelva a hacer referencia a las señales de EEG con la media de los canales del cerebro sin los malos canales llamando a la función pop_reref.m.
  4. EEG segmento en épocas de estímulo-bloqueado, cada uno de los cuales va desde -2.0 sec pre- a 1,5 segundos después de la presentación del estímulo. Correcta para la línea de base (-2,0 -1.2 a la seg antes del inicio del estímulo) mediante la eliminación de la media de la línea de base Values de cada época.
    1. Llamar a las funciones pop_epoch.m y pop_rmbase.m, respectivamente. Elige el intervalo de línea de base antes del período de fijación del ojo central y la aparición del estímulo cara.
  5. Marcar malas épocas que parecen contener artefactos. Desechar las malas épocas, reservando las épocas contaminadas por parpadeo de los ojos. Las épocas con artefactos suelen mirar ruidoso o tener un valor de pico muy alto (por ejemplo, superior a 100 mV) en comparación con épocas típicas.
    1. Llame a la función pop_rejmenu.m para poner en marcha un procedimiento semiautomático. Una ventana de interacción saldrá para volver a confirmar las malas épocas seleccionado automáticamente por el usuario a través de la inspección visual. Aunque la mayoría de las épocas están contaminados por el parpadeo de los ojos, estas épocas pueden ser tentativamente reservados para su posterior eliminación mediante análisis de componentes independientes (ICA), 33 en el paso 3.8.
  6. Después de desechar los malos canales y malas épocas, ICA ejecutar en los datos de EEG podados utilizando el pop_runica.m función.
  7. Entre los componentes independientes estimados (CI), identificar los artefactos resultantes de movimiento de los ojos / parpadeo, la actividad muscular, ritmo cardíaco, y el ruido de la línea 32.
    Nota: Un significativamente alta correlación (R2> 0,9) entre IC puntuaciones de un componente y las de todos los canales de referencia (VEOG, HEOG, EKG, y canales faciales) indica que este componente es aportado principalmente por artefactos. Las puntuaciones de CI estimado explicadas por los artefactos se pueden limpiar utilizando un análisis de regresión múltiple.
  8. Retire ICs artefacto y estimar los electroencefalogramas limpias que son derivados por el producto de la matriz de la ACI y la matriz de puntuación de CI artefacto-limpiado mezcla. Guarde los electroencefalogramas limpios para su posterior análisis.
    1. Mantener los residuos de predicción de circuitos integrados de artefactos (R 2> 0,9) de la referencia VEOG, HEOG, electrocardiograma y canales faciales en la matriz de puntuación de CI. Eliminar otros circuitos integrados de artefactos por la función pop_subcomp.m. La función devuelve los electroencefalogramas de artefactos-limpiado.

    4. Análisis estadístico

    1. canales de EEG partición en once regiones homogéneas para reducir el número de comparaciones estadísticas en ERP y análisis de ERSP, es decir, hacia la izquierda (10 canales), midline- (14), y derecha-frontal (10); izquierda (13) y derecha-temporal (13); izquierda (9), midline- (14) y derecho y central (9); izquierda (9), midline- (12) y derecha-occipital parietal (9) como se muestra en la Figura 4. Estas regiones se definen de acuerdo a la anatomía funcional de la corteza 34. Homogeneidad funcional de señales de EEG en estas regiones se ha validado en diferentes experimentos 13,35,36.

    Figura 4
    Figura 4. La partición de canales. Los canales se divide en once regiones. LF:-frontal izquierdo (10 canales), MF: línea media-frontal (14), RF:-frontal derecha (10), LT: izquierda-temporal (13), RT: derecho-temporal (13), LC: izquierda-central (9), MC: línea media central (14), RC: haga central (9), LP: parietal izquierdo-occipital (9), MP: parietal línea media-occipital (12), RP :. parietal derecho-occipital (9) haga clic aquí para ver una versión más grande de esta figura.

    1. Cargar los electroencefalogramas limpias en el paso 3.8. Calcule el ERP canal haciendo un promedio de señales a través de las épocas en cada canal, y ERP regional promediando los ERP dentro de la misma región.
      Nota: Cuando el EEG se cargan mediante la función pop_loadset.m en EEGLAB, las señales se almacenan en la variable de estructura "EEG.data" en una matriz de canal por el tiempo por época.
      1. En la ventana de comandos del Matlab, calcular el ERP canal promediando EEG.data través de las épocas para cada canal (por ejemplo, channelERP = media (EEG.dat, 3)). Calcule el ERP regional promediando los ERPs de canal dentro de cada región de acuerdo a la partición en el apartado 4.1 (por ejemplo, regionalERP = media (channelERP (índice, :), 1), donde "índice" se refiere a los índices de canal en una región determinada).
    2. Calcular las ERSPs de canal mediante la aplicación de una transformada de tiempo-frecuencia (por ejemplo, Wavelet Transform) de época o señales en cada canal, y ERSPs regionales promediando canal ERSPs en la misma región.
      1. Realizar el tiempo-frecuencia de la transformada llamando a la función pop_newtimef.m.
        Nota: En este estudio, la entrada "ciclos de wavelets" está ajustado en [1, 0,5] y la "línea de base" está ajustado en milisegundos [-2,000 a -1.200]. Los ERSPs de canal resultantes se almacenan en una matriz de frecuencia por el tiempo por canal.
      2. En la ventana de comandos del Matlab, calcular el ERSP regional promediando ERSPs través de los canales dentro de cada región de acuerdo a la partición en el apartado 4.1 (por ejemplo, regionalERSP = media (channelERSP (:,:, índice), 3), donde "channelERSP" es la salida de la función pop_newtimef.m, y el "índice" se refiere a los índices de canal en agregión ada).
    3. Calcular los valores medios en diferentes intervalos de tiempo (por ejemplo, 50-150, 150-250, 250-350, 350-450 ms) para los ERPs regional. Calcular los valores medios en diferentes intervalos de tiempo-frecuencia (por ejemplo, 50-150, 150-250, 250-350, 350-450, 450-800 mseg 1-7 Hz y 200-800 ms de 8-30 Hz) para los servicios regionales ERSPs.
    4. Aplicar MANOVA en software estadístico (por ejemplo, IBM SPSS) para los valores medios de los ERP y ERSPs regionales para evaluar los efectos principales de la tarea (fotografía frente a la línea de dibujo), región (once regiones del cuero cabelludo), y el grupo (AS vs. control) , así como los efectos de la interacción entre la tarea, región, y de grupo.
      1. En el análisis estadístico, tenga en cuenta el género (masculino vs. femenino) como covariable, y estimar los efectos principales y de interacción mediante la celebración de la constante efecto de género.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Las puntuaciones medias de CI verbal y el rendimiento se enumeran en la Tabla 1 para el control y AS grupos a lo largo de los tiempos medios de reacción y las puntuaciones promedio asignado a la emotividad de las caras de los dos grupos. En la tabla, ninguna de las diferencias entre los grupos alcanza significación estadística a excepción de las caras neutrales en la tarea de línea de dibujo, donde el grupo AS tiene una puntuación media cerca de cero (p <0,001) 13. Curiosamente, el grupo AS todavía tiene tiempos de reacción ligeramente más largo que el grupo control en respuesta a las caras enojadas y felices, y los tiempos de reacción más cortos para responder a las caras neutrales, incluso bajo el control experimental de género, índice de inteligencia y de la cara estímulos. Síndrome de Asperger se encuentra con problemas en la amígdala y sus estructuras límbicas asociadas 37-39, que son conocidos por estar involucrados en la memoria de las emociones a excepción de la emoción neutral 40,41. Estos estructura límbicaUres asociados con el proceso no consciente pueden desempeñar un papel importante en la interpretación de las respuestas de comportamiento en pacientes con AS.

tabla 1
Tabla 1. Los datos del comportamiento de las puntuaciones en la Wechsler Adult Intelligence Scale-III, tiempos de reacción, y las puntuaciones medias emocionalidad asignados para hacer frente a los estímulos en las tareas de fotografía y dibujo lineal. Esta tabla es una versión modificada de la Tabla 1 en Tseng et al . 13

Como se muestra en la Figura 5, el componente N400 en el grupo control se pronuncia en el frontal, temporal y occipital-parietal regiones en ambas tareas fotografía y de línea de dibujo, pero la amplitud de este componente es menor en la tarea de línea de dibujo. En el grupo AS, el N400 es visible en la región frontal línea media, pero invisibles en otras regiones de la fotografía, tarea, y BecoMES visibles en todas las regiones frontales en la tarea de línea de dibujo. El efecto de la interacción de tarea por grupo MANOVA es significativo en el intervalo de 350-450 aparición posterior mseg (p = 0,019). Los dos grupos también muestran diferencias significativas en la percepción temprano en la fotografía, tarea 42, y tienen patrones de ERP comparables en la tarea de línea de dibujo; es decir, el efecto de interacción tarea por grupo también es significativo en el intervalo de 50 a 150 aparición poste mseg (p = 0,035). La fotografía y las caras de dibujo de línea alcanzan la mayor diferencia de ERP en las regiones temporal y occipital-parietal en el intervalo de 250-550 ms.

Figura 5
Figura 5. parcelas ERP. Parcelas ERP en el frontal derecho, regiones occipital-parietal temporal y correctos correctos en el control (azul) y grupos, (rojo) en la fotografía (A) y tareas (B) de línea de dibujo. La ubicación de los canales de EEG sonse muestra en la parte superior izquierda de cada parcela. El eje vertical muestra el voltaje de ERP (mV) y el eje horizontal muestra el tiempo en ms. Esta figura es una versión modificada de la figura 2 en Tseng et al. 13 Haga clic aquí para ver una versión más grande de esta figura.

Como se muestra en las figuras 6 y 7, la sincronización delta / theta en el grupo control se manifiesta en el intervalo de 50-800 aparición posterior mseg en ambas tareas. Las regiones occipital-parietal sincronización de display más fuerte, seguida de las regiones centrales y temporales y luego por las regiones frontales en el intervalo de 50-350 ms temprano, y las diferencias regionales desaparecen después de 350 ms. Las regiones occipital-parietal también demuestran la fuerte desincronización alfa / beta en el intervalo de 200-800 ms. en general, las fotografías tienen un efecto aditivo sobre dibujos lineales en la sincronización delta / theta, pero los dibujos lineales inducir fuertes desincronización alfa / beta. El grupo AS tiene más comparables sincronización delta / theta como el grupo de control en la tarea de línea de dibujo, y ningún efecto aditivo aparente asociada con las caras de fotografías. El efecto de la interacción tarea por grupo MANOVA es significativa en los intervalos de comienzo 50-150, 250-350, 350-450 y enviar mseg (p = 0,043, 0,003 y 0,015, respectivamente). El efecto de grupo también es significativo en los intervalos mseg 150-250, 250-350, y 350-450 (p = 0,033, 0,011 y 0,022, respectivamente). El grupo AS muestra más fuerte sincronización delta / theta en las regiones occipital-parietal en el intervalo de 150 a 250 mseg, así como las regiones de la línea media en el intervalo de 350 a 450 mseg cuando se compara con otras regiones del cuero cabelludo. La desincronización alfa / beta en el grupo de AS es similar a la del grupo de control (y un poco más fuerte) enambas tareas, pero las diferencias entre las dos tareas tienden a ser menor en el grupo AS. El grupo MANOVA y tarea por grupo efectos son estadísticamente insignificante en oscilaciones de alta frecuencia.

Figura 6
Figura 6. parcelas ERSP en la tarea fotografía. ERSP parcelas para el control (A) y (B) como grupos en la fotografía, tarea. El color rojo indica aumento de potencia (sincronización), y el color azul denota disminución de potencia (desincronización) en comparación con la línea base. Esta figura es una versión modificada de la figura 3 en Tseng et al. 13 Haga clic aquí para ver una versión más grande de esta figura.

Figura 7
Figura 7. parcelas ERSP en tque la tarea de línea de dibujo. ERSP parcelas para el control (A) y (B) como grupos en la tarea de línea de dibujo. Esta figura es una versión modificada de la figura 3 en Tseng et al. 13 Haga clic aquí para ver una versión más grande de esta figura.

Los resultados sugieren una diferencia ERP grupo en la percepción temprana (50-150 ms) y el reconocimiento semántico más tarde (350-450 ms) de las caras emocionales en la tarea fotografía. El grupo AS tiene una amplitud P1 más pequeño en la tarea fotografía y una amplitud de P1 ligeramente más grande en la tarea de línea de dibujo en comparación con el grupo control. Las diferencias de amplitud en la P1 entre las dos tareas pueden reflejar la singularidad de los pacientes con EA en la percepción de fotografías y dibujos de línea-43. El N400 se demuestra que está fuertemente afectada porel contenido emocional, la familiaridad y características globales / locales en las caras 44. En nuestro estudio, la N400 (350-450 ms) en las regiones frontal y temporal es muy visible en el grupo de control, pero casi invisible en el grupo AS en la tarea fotografía. En reconocimiento de emociones faciales, el N400 se puede interpretar como un proceso de búsqueda de un vínculo entre una cara y su interpretación semántica (enojado, neutral y feliz). En el grupo control, la diferencia ERP entre las dos tareas en el intervalo de 350-450 milisegundos es consistente con los hallazgos de otros. La amígdala es más activa a las caras temerosas intactas o caras temerosas que contienen sólo los contenidos LSF 3,45. Como la mayoría de los contenidos LSF se retiran de los dibujos lineales, estos resultados del grupo de control indican que el N400 es mucho más pequeño en la región occipital-parietal y casi invisible en las regiones temporales comparación con la de la tarea fotografía.

becausprocesamiento de la información electrónica de los dibujos lineales no depende tanto de la función no consciente en la amígdala, los pacientes con EA muestran patrones de ERP más comparables a los controles sanos en las etapas (350-450 ms) más tarde durante el reconocimiento de rostros emocional. Curiosamente, el grupo AS puede realizar las tareas de evaluación de la emocionalidad correctamente sin la N400 visible en la fotografía, tarea. Es razonable plantear la hipótesis de que el procesamiento de información a través de la amígdala y de sus estructuras límbicas asociadas desempeñar un papel crucial en el desencadenamiento de la amplitud de la N400, que puede afectar la eficiencia de procesamiento de la información en los pacientes con AS, pero no tiene efecto sobre su exactitud respuesta.

Se ha demostrado que el reconocimiento de rostros emocional acopla tempranos y posteriores cambios en oscilaciones delta / theta 8, que se consideran la actividad cerebral asociada con proyecciones cortical-límbicas durante la estimación de estímulo 46-48. Delawarelta de sincronización / theta se asocia más con no consciente que con el reconocimiento de rostros consciente 46. Las conclusiones sobre ERSPs indicar, además, que el grupo de sincronización AS tiene mucho más débil en los ritmos delta / theta en las etapas tempranas y tardías de reconocimiento de rostros emocional. Es razonable plantear la hipótesis de que la sincronización débil delta / theta refleja una alteración en el procesamiento no consciente de las expresiones emocionales y un fallo en la proyección límbico-cortical en pacientes con EA. Delta sincronización / theta es ligeramente más pronunciada en el frontal de la línea media, la línea media regiones central y la línea media occipital-parietal en relación con otras regiones del cuero cabelludo en el grupo AS en el intervalo de 350-450 aparición posterior mseg en ambas tareas. Estas regiones de la línea media están estrechamente relacionadas con la estructura cortical de la representación consciente de significado emocional 18.

Debido a que la vía cognitiva o consciente todavía está mediadapor la estructura límbica como el tálamo, podemos plantear la hipótesis de que el grupo AS se basa en la vía más conscientes de la vía no consciente en la respuesta a las fotografías y dibujos lineales. En el grupo control, el poder delta / theta alcanza el más fuerte en las regiones occipital-parietal tiempo de salida al mar de inicio del estímulo y el aumento de las regiones frontales en una etapa posterior en la tarea fotografía. La distribución espacial de la potencia delta / theta en la tarea de línea de dibujo se acerca más a la del grupo de AS. Nuestra hipótesis es que el grupo de control involucra las vías conscientes y no conscientes de la fotografía, tarea, y se basa en la vía consciente en la tarea de línea de dibujo.

Al comparar ERSPs entre las dos tareas, el grupo de control, además, sugiere un efecto aditivo de los contenidos LSF en la sincronización delta / theta en el intervalo de 250-450 aparición posterior mseg, independiente de las regiones del cerebro y de los mecanismos elicited por las emociones faciales. El contenido LSF en una cara parece colocar una carga constante en el flujo de información, que puede ser anulada fácilmente a través de la atención voluntaria a los detalles en una cara, como se sugiere por pacientes con AS que pueden evaluar las emociones faciales con éxito en la tarea fotografía. Oscilaciones alfa y beta fuertes han sido referidos como indicadores de procesos funcionales en el neocortex asociado con atención, memoria semántica a largo plazo, y la estimación cognitiva de estímulos 49,50. En una tarea de reconocimiento facial, alfa / beta desincronización refleja el nivel de atención voluntaria a los estímulos visuales y se asocia con la evaluación cognitiva de las emociones faciales 15,18,51. En este estudio, no hay ninguna evidencia que apoya un efecto tarea o grupo de oscilaciones de frecuencia más alta (alfa y beta) a excepción de las diferencias regionales, al comparar la diferencia entre la región parietal-occipital y otras regiones. desincronización Alfa refleja la atención yuna liberación de procesos inhibidos en tareas complicadas 52, mientras que la oscilación beta rara vez se observa en las tareas relacionadas con la emoción 53,54. desincronización Beta en el grupo de AS es generalmente más fuerte que la del grupo de control en ambas tareas, pero la diferencia es insignificante grupo. Los ERSPs sugerir que el grupo AS tiene mucho más débil potencia delta / theta, pero ligeramente más fuerte de energía alfa / beta en comparación con el grupo control. Nuestra hipótesis es que los pacientes con AS pueden dirigir su atención a algunos detalles importantes de caras mediante el uso de la evaluación cognitiva de estímulos visuales para compensar los déficits sensoriales y afectivos.

En resumen, el reconocimiento de emociones faciales en los controles sanos induce ambos procesos conscientes y no conscientes 9,18,51. Las diferencias de tiempo de reacción entre las dos tareas tienden a ser más grandes en el grupo de control que aquellos en el grupo AS. Nuestra hipótesis es que los sanoslos controles se acoplan al proceso consciente más que el no consciente en la respuesta a los dibujos lineales y ejercen ambos procesos para responder a las fotografías, mientras que los pacientes con EA se basan sólo en el proceso consciente en la respuesta a ambos tipos de caras.

Código Suplementario Archivo:. Ejemplo de programa Haga clic aquí para descargar este archivo.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

La literatura presenta estudios sobre el reconocimiento de emociones faciales en pacientes con autismo mediante el análisis de las reacciones de EEG 44, y en el reconocimiento de contenidos de alta y baja frecuencia espacial utilizando estímulos visuales 43. A lo mejor de nuestro conocimiento, sin embargo, hay una falta de trabajo existente en la actividad oscilatoria cerebro que combina el reconocimiento de emociones con componentes de frecuencias espaciales distintas. Nuestro protocolo es un primer paso para estimar la influencia de la emocionalidad (caras positivas, neutras y negativas) y la información de frecuencia espacial (fotografías y dibujos lineales) en el reconocimiento de las emociones en los pacientes con EA en comparación con los controles sanos. Nuestro análisis de las reacciones de EEG en los dominios espacial, temporal y de frecuencia permite la separación de las funciones cognitivas y afectivas en un grado para la comprensión científica de la enfermedad AS. En este estudio, el protocolo experimental proporciona un enfoque a factores no relacionados con la minimización the reconocimiento de emociones; es decir, los tiempos de reacción y las puntuaciones asignadas a la emotividad de las caras se mantienen lo más similar posible entre los dos grupos por un estudio piloto cuidadosamente diseñado. Los participantes también se corresponde en el CI y de género, tanto en el estudio piloto y el experimento EEG. Mientras que los estudios anteriores sobre el EEG AS se han centrado en la P1 y N170 55, el protocolo en este estudio hace una contribución en la demostración de una diferencia significativa en el componente N400 entre el AS y grupos de control.

Las caras emocionales de Ekman provocan fuertes oscilaciones de baja frecuencia en los controles sanos en comparación con las caras en otras bases de datos (por ejemplo, caras emocionales de algunos taiwaneses bien validado). Es muy recomendable llevar a cabo un estudio piloto para validar EEG cara estímulos emocionales utilizados en pacientes y controles sanos antes del experimento EEG. Los pacientes con EA tenían dificultades para utilizar la información HSF en las regiones del ojo 56. En esta razón, elseleccionados de cara estímulos Ekman contienen expresiones emocionales identificables por los dientes expuestos / no expuestas o las cejas fruncidas / suavizadas. Los estudios sobre otros tipos de pacientes podrían considerar otras características de la cara, mientras que la sustitución de los estímulos utilizados en el protocolo. El sistema de puntuación debe estar diseñado para facilitar los pacientes que realizan la tarea de evaluación emocionalidad, que puede ser resuelto mediante entrevistas a los pacientes reclutados en el estudio piloto; es decir, la continuidad ordenada sin ningún tipo de marcas de graduación con excepción de los puntos centrales y finales está diseñado de acuerdo a los comentarios de los pacientes piloto. Las etiquetas en los puntos finales del sistema de puntuación se pueden modificar, por ejemplo, amable frente hostil, que debe ser elegido para maximizar las respuestas emocionales especialmente en los controles.

En la literatura, como se encuentra con daños en la amígdala y sus estructuras límbicas relacionadas 37-39, que están implicados en la memoria y recuperación de información relevante a las emociones, los exexcepto por la emoción neutra 40,41. Además, la amígdala es sensible al contenido LSF en una cara fotografiada 3. Las dos tareas en el protocolo se diseñan de acuerdo con los hallazgos existentes sobre los déficits en los adultos con síndrome de Asperger, y los estímulos y sistema de puntuación se han diseñado, además, para su uso con esta población de pacientes. Aplicaciones clínicas del protocolo a otros pacientes adultos con un tipo similar de deterioro, tales como trastornos del espectro autista 57, pueden llevarse a cabo con una pequeña modificación en los estímulos de la cara y el sistema de puntuación.

Cabe señalar que el protocolo no está destinado para el diagnóstico clínico de los niños menores de 7 años de edad, cuyos consciente (o voluntario) el control de los comportamientos no pueden ser completamente desarrollado 26. Además, la técnica no produce resultados claros de diagnóstico en pacientes con comorbilidad psiquiátrica siguientes lesiones cerebrales, tumores u otras violaciónes de la hemodinámica cerebral.Varios estudios han encontrado una relación entre la agresión y los cambios hormonales en las mujeres durante la 58,59-ciclo menstrual. También es bien sabido que la administración de etanol o estupefacientes cambia las reacciones emocionales 60. Estos tipos de cambios pueden causar fluctuaciones en las reacciones de EEG a los estímulos emocionales en ambos controles sanos y pacientes con EA. Por lo tanto, no se recomienda aplicar el protocolo a las mujeres durante la menstruación o cuando sufren síndromes premenstruales, o para pacientes menores de alcohol o intoxicación por drogas. Los estudios de neuroimagen en vías conscientes y no conscientes de las emociones pueden aplicar el protocolo que corresponde demográficamente controles sanos y pacientes con AS variando los grados de aspereza y la neutralidad de cara estímulos emocionales.

Los pacientes con AS pertenecen a un grupo relativamente alta ansiedad rasgo 13,36 y sus ojos parpadean y los artefactos de movimiento pueden ser graves. Es deseable havprocesadores de datos con experiencia e y algoritmos eficientes para la eliminación de los artefactos del EEG antes de abordar las cuestiones científicas o clínicas. El protocolo experimental representa un esfuerzo hacia la investigación de las representaciones conscientes y no conscientes de las emociones en el cerebro. El protocolo ha sido validado mediante el reclutamiento de pacientes y controles IQ / sexo con ajuste con el que en el experimento de EEG. El tiempo de reacción y precisión de respuesta son suplementos adicionales a los diagnósticos psicológicos y de comportamiento. La técnica es independiente del estado de ánimo subjetiva del participante durante el experimento, y por lo tanto, permite el seguimiento de dinámica de estado de un paciente durante y después de la terapia psicológica o farmacológica. La técnica se puede aplicar a pacientes que sufren de otros tipos de patología afectiva, como el trastorno de ansiedad, depresión, síndrome de desgaste, y la violación emocional en el estrés post-traumático. Otras modificaciones en el protocolo se les anima para su uso en other grupos de trastornos sociales y emocionales. Un estudio piloto bien diseñado, con entrevista de los controles y los pacientes ayudaría con la validación de una versión modificada del protocolo.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
Synamps 2/RT 128-channel EEG/EP/ERP Neuroscan
Quik-CapEEG 128 electrodes Neuroscan
Gel Quik-Gel
FASTRAK 3D digitizer Polhemus 

DOWNLOAD MATERIALS LIST

References

  1. Tamietto, M., De Gelder, B. Neural bases of the non-conscious perception of emotional signals. Nat Rev Neurosci. 11, 697-709 (2010).
  2. Harms, M. B., Martin, A., Wallace, G. L. Facial Emotion Recognition in Autism Spectrum Disorders: A Review of Behavioral and Neuroimaging Studies. Neuropsychol Rev. 20, 290-322 (2010).
  3. Vuilleumier, P., Armony, J. L., Driver, J., Dolan, R. J. Distinct spatial frequency sensitivities for processing faces and emotional expressions. Nat Neurosci. 6, 624-631 (2003).
  4. Phan, K. L., Wager, T., Taylor, S. F., Liberzon, I. Functional neuroanatomy of emotion: A meta-analysis of emotion activation studies in PET and fMRI. Neuroimage. 16, 331-348 (2002).
  5. Kano, M., et al. Specific brain processing of facial expressions in people with alexithymia: an (H2O)-O-15-PET study. Brain. 126, 1474-1484 (2003).
  6. Williams, L. M., et al. Fronto-limbic and autonomic disjunctions to negative emotion distinguish schizophrenia subtypes. Psychiat Res-Neuroim. 155, 29-44 (2007).
  7. Goffaux, V., et al. From coarse to fine? Spatial and temporal dynamics of cortical face processing. Cereb Cortex. (2010).
  8. Balconi, M., Lucchiari, C. EEG correlates (event-related desynchronization) of emotional face elaboration: A temporal analysis. Neurosci Lett. 392, 118-123 (2006).
  9. Balconi, M., Lucchiari, C. Consciousness and emotional facial expression recognition - Subliminal/Supraliminal stimulation effect on n200 and p300 ERPs. J Psychophysiol. 21, 100-108 (2007).
  10. Balconi, M., Pozzoli, U. Face-selective processing and the effect of pleasant and unpleasant emotional expressions on ERP correlates. Int J Psychophysiol. 49, 67-74 (2003).
  11. Balconi, M., Pozzoli, U. Event-related oscillations (EROs) and event-related potentials (ERPs) comparison in facial expression recognition. J Neuropsychol. 1, 283-294 (2007).
  12. Balconi, M., Pozzoli, U. Arousal effect on emotional face comprehension Frequency band changes in different time intervals. Physiol Behav. 97, 455-462 (2009).
  13. Tseng, Y. L., Yang, H. H., Savostyanov, A. N., Chien, V. S., Liou, M. Voluntary attention in Asperger's syndrome: Brain electrical oscillation and phase-synchronization during facial emotion recognition. Res Autism Spectr Disord. 13, 32-51 (2015).
  14. Goffaux, V., Rossion, B. Faces are" spatial"--holistic face perception is supported by low spatial frequencies. J Exp Psychol Hum Percept Perform. 32, 1023 (2006).
  15. Knyazev, G. G., Bocharov, A. V., Levin, E. A., Savostyanov, A. N., Slobodskoj-Plusnin, J. Y. Anxiety and oscillatory responses to emotional facial expressions. Brain Res. 1227, 174-188 (2008).
  16. Adolphs, R. Recognizing emotion from facial expressions: psychological and neurological mechanisms. Behav Cogn Neurosci Rev. 1, 21-62 (2002).
  17. Acar, Z. A., Makeig, S. Neuroelectromagnetic Forward Head Modeling Toolbox. J Neurosci Methods. 190, 258-270 (2010).
  18. Balconi, M. Neuropsychology of facial expressions. The role of consciousness in processing emotional faces. Neuropsychol Trends. 11, 19-40 (2012).
  19. Gross, T. F. The perception of four basic emotions in human and nonhuman faces by children with autism and other developmental disabilities. J Abnorm Child Psychol. 32, 469-480 (2004).
  20. Behrmann, M., Thomas, C., Humphreys, K. Seeing it differently: visual processing in autism. Trends in cognitive sciences. 10, 258-264 (2006).
  21. Holroyd, S., Baron-Cohen, S. Brief report: How far can people with autism go in developing a theory of mind? J Autism Dev Disord. 23, 379-385 (1993).
  22. Duverger, H., Da Fonseca, D., Bailly, D., Deruelle, C. Theory of mind in Asperger syndrome. Encephale. 33, 592-597 (2007).
  23. Wallace, S., Sebastian, C., Pellicano, E., Parr, J., Bailey, A. Face processing abilities in relatives of individuals with ASD. Autism Res. 3, 345-349 (2010).
  24. Weigelt, S., Koldewyn, K., Kanwisher, N. Face identity recognition in autism spectrum disorders: a review of behavioral studies. Neurosci Biobehav Rev. 36, 1060-1084 (2012).
  25. Wilson, C., Brock, J., Palermo, R. Attention to social stimuli and facial identity recognition skills in autism spectrum disorder. J Intellect Disabil Res. 54, 1104-1115 (2010).
  26. American_Psychiatric_Association. The Diagnostic and Statistical Manual of Mental Disorders: DSM 5. bookpointUS. (2013).
  27. Dahlgee, S., Gilberg, C. Symptoms in the First two years of Life. A Priliminary. Population Study of Infantile Autism European archives of Psychiatry and Neurology. Sciences. (1989).
  28. Basar-Eroglu, C., Kolev, V., Ritter, B., Aksu, F., Basar, E. EEG, auditory evoked potentials and evoked rhythmicities in three-year-old children. Int J Neurosci. 75, 239-255 (1994).
  29. Ekman, P., Friesen, W. V. Pictures of Facial Affect. Consulting Psychologist Press. (1976).
  30. Gillberg, C. Autism and Asperger's Syndrome. Cambridge University Press. 122-146 (1991).
  31. Chiang, S. K., Tam, W. C., Pan, N. C., Chang, C. C., Chen, Y. C., Pyng, L. Y., Lin, C. Y. The appropriateness of Blyler's and four subtests of the short form of the Wechsler Adult Intelligence Scale-III for chronic schizophrenia. Taiwanese J Psychiatr. 21, 26-36 (2007).
  32. Delorme, A., Makeig, S. EEGLAB: an open source toolbox for analysis of single-trial EEG dynamics including independent component analysis. J Neurosci Methods. 134, 9-21 (2004).
  33. Makeig, S., Bell, A. J., Jung, T. P., Sejnowski, T. J. Independent component analysis of electroencephalographic data. Adv Neural Inf Process Syst. 8, 145-151 (1996).
  34. Başar, E. Brain Function and Oscillations: Volume I: Brain Oscillations. Principles and Approaches. Springer Science & Business Media. (2012).
  35. Tsai, A. C., et al. Recognizing syntactic errors in Chinese and English sentences: Brain electrical activity in Asperger's syndrome. Res Autism Spectr Disord. 7, 889-905 (2013).
  36. Savostyanov, A. N., et al. EEG-correlates of trait anxiety in the stop-signal paradigm. Neurosci Lett. 449, 112-116 (2009).
  37. Ashwin, C., Baron-Cohen, S., Wheelwright, S., O'Riordan, M., Bullmore, E. T. Differential activation of the amygdala and the 'social brain' during fearful face-processing in Asperger Syndrome. Neuropsychologia. 45, 2-14 (2007).
  38. Kevin, K. Y., Cheung, C., Chua, S. E., McAlonan, G. M. Can Asperger syndrome be distinguished from autism? An anatomic likelihood meta-analysis of MRI studies. J Psychiatry Neurosci. 36, 412 (2011).
  39. Piggot, J., et al. Emotional attribution in high-functioning individuals with autistic spectrum disorder: A functional imaging study. J Am Acad Child Adolesc Psychiatry. 43, 473-480 (2004).
  40. Ilyutchenok, R. Y. Emotions and conditioning mechanisms. Integr Physiol Behav Sci. 16, 194-203 (1981).
  41. Kleinhans, N. M., et al. fMRI evidence of neural abnormalities in the subcortical face processing system in ASD. Neuroimage. 54, 697-704 (2011).
  42. Toivonen, M., Rama, P. N400 during recognition of voice identity and vocal affect. Neuroreport. 20, 1245-1249 (2009).
  43. Deruelle, C., Rondan, C., Gepner, B., Tardif, C. Spatial frequency and face processing in children with autism and Asperger syndrome. J Autism Dev Disord. 34, 199-210 (2004).
  44. Bentin, S., Deouell, L. Y. Structural encoding and identification in face processing: ERP evidence for separate mechanisms. Cogn Neuropsychol. 17, 35-55 (2000).
  45. Vuilleumier, P., Pourtois, G. Distributed and interactive brain mechanisms during emotion face perception: evidence from functional neuroimaging. Neuropsychologia. 45, 174-194 (2007).
  46. Basar, E., Guntekin, B., Oniz, A. Principles of oscillatory brain dynamics and a treatise of recognition of faces and facial expressions. Prog Brain Res. 159, 43-62 (2006).
  47. Basar, E., Schmiedt-Fehr, C., Oniz, A., Basar-Eroglu, C. Brain oscillations evoked by the face of a loved person. Brain Res. 1214, 105-115 (2008).
  48. Başar, E. Brain Function and Oscillations: Volume II: Integrative Brain Function. Neurophysiology and Cognitive Processes. Springer Science & Business Media. (2012).
  49. Anokhin, A., Vogel, F. EEG alpha rhythm frequency and intelligence in normal adults. Intelligence. 23, 1-14 (1996).
  50. Klimesch, W. EEG alpha and theta oscillations reflect cognitive and memory performance: a review and analysis. Brain Res Rev. 29, 169-195 (1999).
  51. Knyazev, G. G., Slobodskoj-Plusnin, J. Y., Bocharov, A. V. Event-Related Delta and Theta Synchronization during Explicit and Implicit Emotion Processing. Neuroscience. 164, 1588-1600 (2009).
  52. Klimesch, W., Sauseng, P., Hanslmayr, S. EEG alpha oscillations: The inhibition-timing hypothesis. Brain Res Rev. 53, 63-88 (2007).
  53. Knyazev, G. G., Slobodskoj-Plusnin, J. Y. Behavioural approach system as a moderator of emotional arousal elicited by reward and punishment cues. Pers Individ Dif. 42, 49-59 (2007).
  54. Balconi, M., Brambilla, E., Falbo, L. Appetitive vs. defensive responses to emotional cues. Autonomic measures and brain oscillation modulation. Brain Res. 1296, 72-74 (2009).
  55. Dakin, S., Frith, U. Vagaries of visual perception in autism. Neuron. 48, 497-507 (2005).
  56. Curby, K. M., Schyns, P. G., Gosselin, F., Gauthier, I. Face-selective fusiform activation in Asperger's Syndrome: A matter of tuning to the right (spatial) frequency. Poster presented at Cogn Neurosci, New York, (2003).
  57. American_Psychiatric_Association. Diagnostic and statistical manual of mental disorders. (1994).
  58. Dougherty, D. M., Bjork, J. M., Moeller, F. G., Swann, A. C. The influence of menstrual-cycle phase on the relationship between testosterone and aggression. Physiol Behav. 62, 431-435 (1997).
  59. Van Goozen, S. H., Wiegant, V. M., Endert, E., Helmond, F. A., Van de Poll, N. E. Psychoendocrinological assessment of the menstrual cycle: the relationship between hormones, sexuality, and mood. Arch Sex Behav. 26, 359-382 (1997).
  60. Winward, J. L., Bekman, N. M., Hanson, K. L., Lejuez, C. W., Brown, S. A. Changes in emotional reactivity and distress tolerance among heavy drinking adolescents during sustained abstinence. Alcohol Clin Exp Res. 38, 1761-1769 (2014).

Comments

0 Comments


    Post a Question / Comment / Request

    You must be signed in to post a comment. Please sign in or create an account.

    Usage Statistics