Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

아스퍼거 증후군의 감정적 인 얼굴의 의식과 비 의식 표현

Published: July 31, 2016 doi: 10.3791/53962

Summary

뇌파 실험 프로토콜은 아스퍼거 증후군을 가진 환자에서 감정적 인면의 의식과 비 의식적인 표현 사이의 상호 작용을 명확히하기 위해 설계되었습니다. 이 기술은 아스퍼거 증후군을 가진 환자가 감정적 인면의 비 의식적인 표현 적자가 있지만 건강한와 의식의 표현에 필적하는 성능을 가지고 있음을 시사한다.

Abstract

여러 뇌 영상 연구는 감정적 인면에서 낮은 공간 주파수 성분이 주로 특히 무서운 얼굴을 1-3으로 편도, pulvinar, 우수한 둔덕을 활성화 것을 제안했다. 이들 영역은 감정 비 의식 지각 변연 구조를 구성하며, 직접 또는 간접적으로이 피질 활성을 조절. 반면, 감정의 의식이 표현은 얼굴 3,4에서 세부 사항에 자발적인 관심을 유도하기위한 앞쪽에 cingulate, 전두엽 피질과 체 감각 피질에서 더 두드러진다. 아스퍼거 증후군 (AS) 5,6 정상적인 언어 능력과 지적 능력을 방해하지 않고, 감각 감정과 의사 소통 능력에 영향을 미치는 비정형 정신 장애를 나타냅니다. 여러 연구 얼굴 감정 인식을위한 중요한 신경 회로의 기능 적자가 부분적으로 사회 통신 장애를 설명 할 수 있음을 발견 하였다AS 7-9 환자. AS의 감정적 인면의 의식과 비 의식적인 표현 사이의 상호 작용을 명확히하기 위해, 뇌파 실험 프로토콜은 사진이나 라인 그리기 얼굴 중 하나의 감성 평가를 포함하는 두 가지 작업으로 설계되었습니다. 파일럿 연구는 AS 및 IQ / 성별 일치하는 건강한 컨트롤 반응 시간 및 사전 테스트 환자 사이에 얼굴 감정에 할당 된 점수의 차이를 최소화 얼굴 자극을 선택하기 위해 도입된다. 테스트 된 환자 정보는 감성 평가에 이용되는 평가 시스템을 개발 하였다. 얼굴의 감정과 다른 공간 주파수 내용으로 시각적 자극에 대한 연구는 참여자의 인구 통계 학적 특성에 따라 불일치 결과에 도달하고 작업이 요구. 건강한 대조군과 비교했을 때 실험 프로토콜은 요소에 대한 제어함으로써 감정적 인면을 처리하는 AS 환자의 적자를 명확히하기위한 것입니다이러한 작업의 어려움, IQ, 성별 등의 얼굴 감정 인식과 관련이없는이야.

Introduction

얼굴 감정 인식은 사회적 커뮤니케이션에 종사하는 가장 중요한 뇌 프로세스 중 하나입니다. 정신 질환의 다양한 얼굴 감정 4-6의 명시 적 검출 문제와 관련이 있습니다. 얼굴의 사진은 높은 공간 주파수 (HSF) 또는 낮은 공간 주파수 (LSF) 콘텐츠 중 하나에 대해 필터링 할 수 있습니다 공간 정보의 스펙트럼이 포함되어 있습니다. LSF 그러한 LSF 내용 7 전체적인면으로 거칠어 이하 잘 정의 된 부분에 관련되는 동안 HSF은 그러한면의 가장자리 등의 화상의 세부 부품에 관한 것이다. 상관 얼굴 인식 작업이 동시에 한정된 비 한정된 공정 8-12를 유도하고, 비 한정된 프로세스의 참여는 150-250 밀리 후 발병 간격 또는 그 이전 (13)에서 발생한다. 정상 대조군에서, 비 한정된 프로세스는 빠르게 한정된 프로세스 14,15보다 일반적이다. 여러 뇌 영상 연구는 제안했다얼굴 자극 (또는 motivationally 상당한 자극)의 LSF는 주로 특히 무서운 얼굴 3,16과 편도, pulvinar, 우수한 둔덕을 활성화합니다. 이들 영역은 감정 비 의식 지각 변연 구조를 구성하며, 직접 또는 간접적으로 피질 활성을 조절. 반면, 감정의 의식이 표현은 얼굴 9,17,18에 세부 사항에 자발적인 관심을 유도하기위한 앞쪽에 cingulate, 전두엽 피질과 체 감각 피질에서 더 두드러진다.

아스퍼거 증후군 (AS) (19, 20)는 일반 언어 능력과 지적 능력을 방해하지 않고, 감각 감정과 의사 소통 능력에 영향을 미치는 비정형 정신 장애를 나타냅니다. 여러 연구 얼굴 감정 인식을위한 중요한 신경 회로의 기능 적자가 부분적으로 AS 21-25에서 사회적 의사 소통 장애를 설명 할 수있는 것으로 나타났습니다.AS 아동 관찰 행동 장애의 삶 (26)의 첫 3 년에 진단 할 수 있으며, 기간은이 기간 동안 행동을 통해 자신의 자발적 (또는 의식) 컨트롤은 완벽하게 27을 개발하지 않습니다. AS 성인에서, 행동 장애는 관심 조절 (28)를 통해 보상 될 수있다. 소정의 공간 주파수 범위 내에서 세부 처리에 어려움이 다른 정보 처리 단계에서 중단을 나타낼 수있다. 지금까지 어떤 연구는 직접 특정 공간 주파수 범위에서 얼굴 자극을 포함 얼굴 감정 인식시 유발 전위 및 AS 환자에서 진동 활동을 언급하지 않았다. 이는 작업 요구와 같은 IQ 성별과 같은 인구 통계 학적 효과를 제어함으로써, 다른 공간 주파수 내용과 얼굴 자극을 처리하는 동안 정상 대조군과 비교할 때 AS 환자 기능 궤적을 조사하는 것이 중요하다.

간을 명확히하기 위해,감정적 인면의 의식과 비 의식적인 표현 사이에 재생, 뇌파 실험 프로토콜이 뇌를 비교 설계는 AS 및 IQ / 성별 일치하는 건강한 환자 사이의 전위 진동 활동을 유발. 파일럿 참가자의 코호트는 AS 환자에서의 성능 평가를 용이하게하기 위해 이전에 실험 자극과 평가 시스템의 개발의 선택에 대한 지원은 EEG 실험에 채용되었다. 이 프로토콜은 사진이나 라인 그리기 얼굴 중 하나의 감성 평가를 포함하는 두 개의 작업으로 구성됩니다. 두 군의 차이는 ERPS 및 이벤트 관련 스펙트럼 섭동 (ERSPs)를 계산함으로써 평가 될 수있다. 다음 부분에서, 실험 프로토콜의 세부 주요 분석 결과 다음 파일럿 연구와 EEG 데이터 처리 / 분석 방법을 포함하여,에 자세히 설명되어있다. 마지막으로, 중요한 프로토콜의 단계 기존에 대하여 그 중요성방법이 설명되어 있습니다. 다른 정서적 장애도 지적된다으로 제한 및 프로토콜의 가능한 확장은 환자에 사용할 수 있습니다.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

윤리 정책 : 인간의 참가자를 포함하는 절차는 중앙 연구원, 대만에서 인간의 참가자 연구 윤리위원회 / 임상 시험 심사위원회의 승인되었습니다.

1. 자극과 실험 프로그램 준비

  1. 세 가지 얼굴 표정 (화가, 행복, 중립)으로 분류 60 개 이상의 감정 얼굴 사진 (29)의 풀을 준비합니다. 참가자는 사진에서 얼굴 특징에 집중할 수 있도록 그림 1A와 같이 검은 색 배경으로 사진에 머리와 귀 부분을 마스크 그래픽 소프트웨어를 사용합니다.
    1. 그래픽 소프트웨어에서 사진을 엽니 다. 타원형 영역을 그리고 귀 가장 머리가 타원에 빠지지 않도록 영역 크기를 조정하기 위해 선택 도구를 사용합니다.
    2. 선택 영역을 반전. 사진의 불필요한 부분을 제거하고 검은 색 컬러로 교체 "삭제"를 클릭합니다.

그림 1
그림 감정적 인 얼굴 자극의 1 예. (A)가 머리와 귀는 검은 색 색상에서 마스크, 그리고 한 사진면 (B) 라인 드로잉 그래픽 소프트웨어 (A)에서 편집 얼굴을. 얼굴은 맨 아래 행에 상단에서 각각 중립, 행복과 분노의 감정을 보여줍니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

  1. 파일럿 연구를 만듭니다. 사진 풀에서 적절한 자극을 선택하기위한 파일럿 참가자를 모집.
    참고 : 파일럿 참가자가 뇌파 실험에 참여하지 않아야합니다.
    1. 5 famil 다음 작업 지시를 제시하는 제 컴퓨터 화면으로 시작 자극 프레젠테이션 소프트웨어를 구성팀웍이 시험. 얼굴 자극에 이어 고정 십자가와 각 시험을 시작하고 감성 평가 작업에 의해. 기업 코드 예제 프로그램 파일을 참조하십시오.
      참고 : 실제 파일럿 시험 즉시 풀에서 무작위 순서로 얼굴 사진을 선택하여 익숙해 시험을 따릅니다.
      1. 명령 화면 중앙 시선을 고정 화면을 포함하여, 실험적인 프로그램을 만듭니다. 컴퓨터 화면 크기 41 X 25.6 cm 2 해상도 1680 X 1050으로 주어진, 검은 배경 색상 18.3 X 24.4 cm 2 (폭 x 높이)로 사진 크기를 구성하여 그림 2에 도시 된 바와 같이, 얼굴 자극 화면을 만듭니다. 기업 코드 예제 프로그램 파일을 참조하십시오.
      2. 도 3에 도시 된 바와 같이. 프로그램의 감성 평가를위한 채점 시스템을 작성 화면의 중심에 연속 스케일 -100에서 +100의 범위의 수평 라인을 배치 withou중앙 및 엔드 포인트를 제외하고, 모든 틱 마크에서 t. 참가자가 자유롭게 매우 화가 (-100)의 왼쪽에있는 점수 커서를 드래그하여 매우 행복에 대한 권리 (100)에 사진면의 감격을 평가하고 GO 버튼을 누를 수 있도록 프로그램을 준비합니다.
        참고 : AS 환자가 쉽게 감성 평가시 틱 사이에 커서를 배치에 갇혀 얻을 수 있기 때문에 득점 라인이 어떤 진드기 부호없이 설계되어 있습니다. 따라서, 연속적인 스케일 환자 바람직하다.
      3. 프로그램이 참가자의 행동 결과 (예 : 반응 시간과 감성 점수) 풀에서 사진을 선택하기위한 기준으로 사용되며, 기록 확인 (단계 1.3.1 참조).
    2. 채용 파일럿 참가자 (5 제어 및 5 AS 파일럿 참가자). Gillberg 30과 DSM-IV 기준 (26)에 따라 임상 환자를 진단하고 웩슬러 성인의 임상 파생 된 짧은 형식을 관리 지능 규모 (WAIS-III) 31. 성별에 최대한 가깝게 자신의 AS 대응에 컨트롤을 일치하고, 구두 / 성능 IQ 점수에.
    3. 각 참가자에 대한 파일럿 연구에서 실험 절차를 실행합니다. 감정적 얼굴 인식 작업을 완료 한 후, 상기 중앙의 눈 고정 및 자극 발표시기의 적절한 기간에 참가자로 각각의 파일럿 인터뷰, 작업의 어려움, 채점 시스템 및 그 / 그녀를 유지하기위한 시도의 최대 수를 사용하여 용이 프로그램이 EEG 실험을 위해 재구성 될 수있는 농도에 기초한다 (단계 1.3.2 참조)

그림 2
도 2는 프로그램의 얼굴 자극의 스크린 샷. 얼굴의 크기가 화면의 높이에 맞도록 구성된다. 빈 영역은 검은 색으로 채워집니다./ 53,962 / 53962fig2large.jpg "대상 ="_ 빈 "을 업로드>이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

그림 3
그림 3. 감성 평가에 대한 채점 시스템의 스크린 샷. 채점 바는 더 눈금이없는하도록 설계되었습니다. 참가자는 얼굴에 할당 된 점수를 선택하고 작업을 완료 할 수있는 GO 버튼을 눌러 마우스를 드래그 할 필요가있다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

  1. 작업 1 프로그램 : 세션 사진.
    1. 가장 유사한 평균 반응 시간을주고, 행복 화가, 중립 얼굴 표정 (5 남성과 5 여성 식의 각 유형에 직면), 10 각을 포함, 풀 (30) 사진에서 선택하고 5 AS 사이 감성 점수를 의미 5 제어 파일럿 참가자. 이러한 최적의 중앙 시선을 고정 기간 (즉, 1,000 밀리 초)으로, 파일럿 환자로부터 피드백을 통합하여 실험 프로그램 구성을 갱신, 즉, 무작위로 할당 자극 프리젠 테이션 (즉, 1,000 밀리 초), 간 자극 간격 (기간 채점 시스템 (의 -between 4, 7 초), 스케일 즉, -100) 100. 프로그램에서 30 실험 시험에 앞서 다섯 익숙해 시험을 추가합니다.
      1. 실험 프로그램과 관련된 외부 구성을 텍스트 파일에 자극 및 시간 간격의 수를 변경한다.
        주 : 텍스트 파일은 소프트웨어 엔지니어의 개입없이 다양한 실험 조건에 맞도록 변형 될 수있다.
      2. 30 선택한 사진에 익숙해 시험을위한 다섯 가지 사진을 계산하지 마십시오. 뇌파 및 데이터 분석에 익숙해 시험에 기록 된 행동 데이터를 사용하지 마십시오.
  2. 프로그램 F또는 작업 2 : 세션 라인 그리기.
    1. 35 사진 각면의 모서리를 추적하여 작업 1에서 사용 (숙지 시험, 실험 시험 30 5)의 라인 드로잉 사진을 만듭니다. 도 1b에 나타내는 바와 같이 흑백 선 도면에 그레이 스케일 사진 수정 그래픽 소프트웨어를 사용한다.
      참고 : 사진 편집을위한 다음 단계 라인 드로잉을 만들기위한 가능한 솔루션 중 하나입니다.
      1. 대부분의 픽셀의 원래 그레이 스케일 강도가 검은 색 또는 흰색 중 하나에 빠진다 있도록 그래픽 소프트웨어에서 사진의 밝기 / 명암을 조정합니다.
      2. 높은 공간 주파수 부분의 형상이 유지되도록 계조 사진에 "효과"의 "스케치 효과"또는 소프트웨어 "필터"메뉴를 적용하여 윤곽선의 팽창을 증가시키는 "곤란 효과"적용 .
      3. 윤곽을 향상시킬 수있는 브러시 도구를 사용하는 지우개 도구를 사용하여불필요한 부분을 정리. 앞뒤로 원래 사진과 선 그리기 대응 사이에 확인하여 중요한 얼굴 특징을 유지해야합니다.
    2. 작업 2를위한 프로그램을 작성하고 해당 라인 도면 작업 1에서 35의 사진을 대체 할 단계 1.3에서 작업 1의 프로그램의 복사본을 만듭니다.

2. EEG 기록 절차

  1. 준비
    1. 10 건강한 제어 및 AS 로컬 인간의 참가자 연구 윤리위원회 / 윤리 심의위원회의 가이드 라인에 따라 뇌파 실험으로 10 명을 모집.
    2. 실험에 AS 개별적으로 사전에 환자에 WAIS-III (31)의 짧은 양식을 관리 및 성별과 언어 적 / 성능 IQ 점수에 최대한 가깝게 환자와 일치하는 컨트롤을 찾을 수 있습니다.
  2. 뇌파 기록
    1. 사운드 보온에 편안한 의자에서 참가자 좌석컴퓨터 화면이 참가자의 앞에 60cm가되도록 D (어두운 조명) 챔버와 의자 위치를 조정합니다. 실험 절차에 대한 자습서 후, 참가자가 그 / 그녀의 손 방향에 대한 몇 가지 질문과 함께 동의서를 작성해야합니다.
    2. 뇌파를 기록하는 (여섯 얼굴 근육 채널과 함께 122 10-10 시스템 EEG 및 바이폴라 VEOG, HEOG, 심전도, 근전도 전극 포함) (132)의 Ag / AgCl을 전극으로 뇌파 캡을 사용합니다. 1,000 Hz의 샘플링 속도에서 원시 뇌파를 디지털화 0.1 내지 100 Hz에서 아날로그 대역 통과 필터와 2 개의 64 채널 앰프에 뚜껑을 연결합니다.
    3. 각 참가자의 머리에 표준 128 채널 EEG 캡을 장착한다. 전극이 "참조가"전방 / 후방 중간 선 랜드 마크 (즉, inion 거리에 nasion의 중간)에 대해있는 "Cz에"위치에 배치하고, 왼쪽 / 오른쪽 랜드 마크에있다 표시되도록 캡을 조정 (즉, 왼쪽 / 오른쪽 tragis의 중간), 전자에 따르면EG 국제 10/10 시스템.
    4. 부드럽게 전극에 전도성 젤을 주​​입하는 무딘 바늘을 사용합니다. 두피와 전극 (즉, 5 kΩ의 아래의 임피던스를 유지하기 위해) 사이 좋은 젤 접촉을 보장하기 위해 천천히 전극 내부의 바늘로 저어. 지속적으로 확인 임피던스 측정이 정확한지 확인하기 위해 뇌파 캡의 "기준"과 "땅"이라는 전극에서 젤 접촉의 상태를 확인합니다.
      1. 일반적으로 EEG 시스템으로 들어가 (예를 들어,이 연구에서 4.5 스캔) 뇌파 기록 소프트웨어에서 지원하는 전극 임피던스 화면을 확인하여 전극 임피던스를 관찰한다. 화면 상에, 전극은 색상에 도시 한 가지 색상의 임피던스 레벨을 표시한다.
    5. HEOG 하나 하나 눈 (양 사이트)의 눈구석에 전극 및 다른 눈 (제외 사이트) 상술 한 VEOG 전극과 리터 이하, 다른 하나의 눈구석에 제 2 전극을 배치EFT 눈 엄지와 오른손의 집게 손가락 및 눈썹과 뺨 주위 여섯 얼굴 전극 사이의 영역에서 왼쪽과 오른쪽 손 EMG 바이폴라 전극의이면에 양극 EKG 전극.
    6. 임피던스가 높은 5 kΩ의, 또는 직접 모든 전극에서 화면 표시 임피던스를 저장하는 노트북 그 나쁜 채널에 기록한다. EEG 데이터 처리의 단계에서 나쁜 채널을 폐기하는이 향후 참조를 사용합니다.
    7. 12 분 동안 눈을 감고 참가자를 지시 한 후 기록 휴식 상태의 뇌파. 이 기간 중으로 EEG 기록 소프트웨어에 의해 지원되는 화면에 표시된 인스턴트 EEG 스트림의 품질을 확인한다.
      주 : 눈 - 개방 상태에 비해 눈 감은 상태 동안 후두 채널에 분산 분명히 알 파파가 있어야합니다. 알파 파도가 너무 (나쁜 채널을 무시) 잡음이나 왜곡 된 경우, 2.2.4 단계로 겔 접촉을 조정 돌아갑니다.
    8. 참가자에 걸쳐 카운터 밸런스 위해 두 가지 실험적인 작업을 시작합니다. 기록 소프트웨어에 의해 지원 화면 녹화 아이콘을 클릭하여 녹음 뇌파.
      1. 화면에 표시되는 작업 지시를 읽은 후, 각 참가자가 30 태스크 시험 다음에 5 익숙해 시험을 수행 할 수 있습니다. 사진 및 라인 드로잉 작업 모두에 대해 동일한 절차를 사용하십시오. 작업 지시에서, 가능한 한 빨리 얼굴 자극의 감격에 점수를 할당하도록 격려한다.
      2. 중요 : 올바르게 이벤트가 시간이 잠겨 중앙 시선을 고정, 얼굴 자극 프레 젠 테이션의 시작에 전송하고, 감성 평가하는 동안 레코딩 소프트웨어로 GO 버튼을 누르게하는 단계 1.3.2과 1.4.2에서 제조 된 프로그램을 확인합니다. 그 개시 시간 수치로 부호화하고, 기록 소프트웨어에 의해 지원되는 화면에서 확인할 수있다.
        참고 : 참가자가 두 작업 사이에 휴식을 취할 수 있습니다. 더 EEG 다시는 없다휴식 시간 중 cording.
    9. 데이터 분석의 참가자에 걸쳐 공동 등록 EEG 모자에 대한 (예를 들어 .3dd 또는 .DAT 파일) 전극의 3D 위치를 기록하고 파일에 저장하는 디지타이저 (이 연구에서 예를 들어 시킴으로서, FASTRAK 3D 디지타이저)를 사용합니다.
    10. 뇌파 실험 후 (예를 들어, 부정적인 감정을 가지고, 거의 잠에 떨어졌다) 참가자가 뇌파 실험 기간 동안 그 / 그녀의 행동과 감정에 35 질문 목록을 작성, 그리고 실험에 참여 그들에게 지불을 제공합니다.
    11. 그 / 그녀의 머리를 건조 / 청소 화장실에 참가자를 가져옵니다.
    12. 깨끗하고 임상 지침에 따라 뇌파 캡을 소독.

3. 처리 EEG 데이터

참고 :이 섹션에서 제공하는 소프트웨어 명령이 EEGLAB에 대한 구체적인이다.

  1. 를 호출 한 Hz의 고역 통과 필터, 50 Hz의 저역 통과 필터를 사용하여 EEG 신호를 필터링pop_eegfilt.m 기능 32.
    참고 : 50 Hz의 전기 계통 주파수가 일부 국가를 위해 40 Hz의 저역 통과 필터를 사용하여
  2. 단계 2.2.6에 기록 된 전극 임피던스를 확인 후 임피던스보다 높은 5 kΩ의 나쁜 채널을 폐기하십시오. 각 채널에서의 전력 스펙트럼 특성의 육안 검사 (예를 들어, 최대 값, 만곡 등)에 의해 인접 채널들에 비해 매우 다른 파워 스펙트럼과 그 나쁜 채널을 버린다.
    1. 계산하고 pop_spectopo.m 함수 (32)를 호출하여 EEG 신호의 전력 스펙트럼 플롯.
  3. - 다시 참조하는 pop_reref.m 함수를 호출하여 나쁜 채널이없는 뇌 채널의 평균 뇌파 신호를.
  4. 1.5 초 후 자극 발병에 -2.0 초 전 범위, 각각의 자극 고정 시대,에 세그먼트 뇌파. 기준 가치있는의 평균을 제거하여 기준에 대한 (-2.0 자극 발병 전에 -1.2 초) 수정각각의 시대에서 말이지.
    1. 각각 pop_epoch.m 및 pop_rmbase.m 함수를 호출합니다. 이전에 중앙 시선을 고정 기간과 얼굴 자극의 발병에베이스 라인의 간격을 선택합니다.
  5. 아티팩트를 포함하는 표시 마크 나쁜 시대. 눈 깜박 의해 오염 시대를 예약하는 동안 나쁜 시대를 폐기하십시오. 이슈와 신 (新) 시대는 일반적으로 시끄러운 모양 또는 일반적인 신 (新) 시대에 비해 매우 높은 피크 값 (예 : 이상 100 μV)가 있습니다.
    1. 반자동 절차를 시작 pop_rejmenu.m 함수를 호출합니다. 상호 작용 창은 육안 검사를 통해 사용자가 자동​​으로 선택 나쁜 시대를 다시 확인하기 위해 밖으로 나타납니다. 시대의 대부분이 눈을 깜박 의해 오염되어 있지만,이 시대는 시험 적 단계 3.8 독립 성분 분석 (ICA) (33)에 의해 나중에 제거하도록 예약 할 수 있습니다.
  6. 잘못된 채널과 나쁜 에포크를 폐기 한 후, pop_runi를 사용 잘려진 EEG 데이터 ICA 실행할ca.m 기능.
  7. 추정 독립적 인 구성 요소 (ICS) 중, 안구 운동 / 점멸, 근육 활동, 심장 박동, 라인 노이즈 (32)로부터 생성 된 아티팩트를 식별합니다.
    참고 : IC의 구성 요소의 점수와 모든 참조 채널 (VEOG, HEOG, 심전도, 얼굴 채널)들 사이의 상당히 높은 상관 관계 (> 0.9 R 2은)이 구성 요소는 주로 유물로 기여하고 있음을 나타냅니다. 아티팩트에 의해 설명한 추정 IC 점수 다중 회귀 분석을 사용하여 세정 할 수있다.
  8. 이슈 IC를 제거하고 매트릭스와 유물 세정 IC 점수 행렬을 혼합 ICA의 제품에서 파생 된 깨끗한 뇌파 추정된다. 추가 분석을 위해 깨끗한 뇌파를 저장합니다.
    1. 이 IC 점수 행렬의 기준 VEOG, HEOG, EKG 얼굴 채널에서 이슈 IC를 (> 0.9 R 2) 예측의 잔차를 유지합니다. pop_subcomp.m 기능에 의해 다른 이슈 IC를 제거합니다. 이 기능은 이슈 세정 뇌파를 반환합니다.

    4. 통계 분석

    1. (10) 열한 동질 영역으로 분할 EEG 채널 ERP 통계적 비교의 수를 줄이기 위해 및 ERSP 분석, 즉, 왼손 (10 채널), midline- (14), 및 우측 - 정면; 왼쪽 (13)와 오른쪽 시간 (13); 왼쪽 (9), midline- (14)과 오른쪽 중앙 (9) 왼쪽 (9), midline- (12)과 오른쪽 뒤통수 정수리 (9) (그림 4).이 영역은 피질 (34)의 기능 해부학에 따라 정의된다. 이 지역의 EEG 신호의 기능 동질성은 다른 실험 13,35,36에서 검증되었습니다.

    그림 4
    그림 4. 채널 파티션. 채널은 열한 영역으로 구분된다. LF : 왼쪽 정면 (10 채널), MF : 중간 선 정면 (14), RF : 마우스 오른쪽 정면 (10), LT : 왼쪽 시간 (13), RT : 오른쪽 시간 (13), LC : 왼쪽 중앙 (9), MC : 중간 선 중앙 (14), RC : 오른쪽 중앙 (9), LP : 왼쪽 뒤통수 정수리 (9), MP : 중간 선-뒤통수 정수리 (12), RP :. 마우스 오른쪽 뒤통수 정수리 (9) 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

    1. 단계 3.8에서 깨끗한 뇌파를 넣습니다. 같은 지역 내에서 ERPS을 평균하여 채널의 각 채널에 신 (新) 시대에 걸쳐 신호를 평균하여 ERP, 지역 ERP를 계산합니다.
      주 : 뇌파가 EEGLAB에서 pop_loadset.m 함수를 사용하여로드 될 때, 신호는 채널 별 시간별로 에포크 배열 구조의 변수 "EEG.data"에 저장된다.
      1. matlab에 명령 창에서 모든 채널 시대에 걸쳐 EEG.data을 평균하여 채널 ERP를 계산 (예를 들어, channelERP = 평균 (EEG.dat, 3)). 4.1 (예를 들면, 정합의 파티션에있어서, 각각의 영역 내에서 채널 ERPS 평균을 지역 ERP를 계산onalERP = 평균 (channelERP (지수 : 1) 여기서, "인덱스"는, 주어진 영역의 채널의 인덱스를 의미).
    2. 같은 지역에 채널 ERSPs을 평균하여 지역 ERSPs을 각 채널의 신호를 획기적인하는 (예를 들어, 웨이블릿 변환) 시간 - 주파수 변환을 적용하여 채널 ERSPs를 계산합니다.
      1. 시간 - 주파수가 pop_newtimef.m 함수를 호출하여 변환을 수행한다.
        참고 :이 연구에서, "웨이블릿 사이클"항목이 [1, 0.5]와 "기본"으로 설정은 [-2,000 -1,200] 밀리로 설정됩니다. 얻어진 채널 ERSPs는 주파수 별 시간에 의해 채널 어레이에 저장한다.
      2. matlab에 명령 창에서 4.1 파티션에 따라 각 영역 내에서 채널을 통해 ERSPs을 평균하여 지역 ERSP을 계산 (예를 들어, regionalERSP =은 (channelERSP은 (의미 : : 인덱스), 3), "channelERSP는"출력입니다 pop_newtimef.m 함수에서, 그리고 "인덱스"AG의 채널의 인덱스를 의미iven 영역).
    3. 서로 다른 시간 간격으로 평균 값을 계산한다 (예를 들어 50-150, 150-250, 250-350, 350-450 밀리 초) 지역 ERPS합니다. (예를 들어 50-150, 150-250, 250-350, 350-450, 1-7 Hz에서에서 450-800 밀리 초, 그리고 8-30 Hz 단위 200-800 밀리 초)에 대한 지역 다른 시간 - 주파수 간격으로 평균 값을 계산 ERSPs.
    4. (제어 대 AS) 작업 (라인 드로잉 대 사진), 지역 (십일 두피 영역), 및 그룹에 대한 주 효과를 평가하기 위해 지역 ERPS과 ERSPs의 평균 값으로 통계 소프트웨어 (예 : IBM SPSS)에 MANOVA 적용 뿐만 아니라 태스크 영역 및 그룹 간의 상호 작용의 효과가있다.
      1. 통계 분석에서, 공 변수로 성별 (대 남성 여성)을 고려하고, 성별 효과를 일정하게 유지하여 주 및 상호 작용 효과를 예상하고있다.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

평균 구두 및 성능 IQ 점수는 컨트롤의 표 1에서 평균 반응 시간과 두 그룹의 얼굴의 감격에 할당 평균 점수와 함께 그룹으로 나열되어 있습니다. 표에서 그룹 차이 것도 AS 기 제로 (p <0.001) (13) 근처의 평균 점수가 라인 드로잉 작업에서 중립면을 제외한 통계적 유의성을 달성하지 않는다. 흥미롭게도, AS 그룹은 여전히​​ 심지어 성별, IQ와 얼굴 자극의 실험 제어 중립면에 응답 분노와 행복 한 얼굴에 응답에서 대조군보다 약간 더 긴 반응 시간, 짧은 반응 시간을 갖는다. 아스퍼거 증후군은 중성 감정 40, 41를 제외하고 감정의 기억에 관여하는 것으로 알려져있다 편도의 손상과 관련 변연계 구조를 37-39로 발견된다. 이 변연 구조체비 한정된 프로세스와 연관된 URES은 환자의 행동 반응의 해석에 중요한 역할을 할 수있다.

1 번 테이블
상기 웩슬러 성인 지능 규모-III에 대한 점수, 반응 시간, 사진 및 라인 드로잉 작업에 자극을 얼굴에 할당 된 평균 감성 점수 표 1. 행동 데이터는.이 테이블은 챙 등의 알 표 1의 수정 된 버전입니다 . (13)

도 5에 도시 된 바와 같이, 대조군의 N400 성분은 시간적, 정면에서 발음 후두엽 정수리 영역 모두 사진이나 선 그리기 작업에 있지만,이 성분의 진폭은 선 그리기 작업 작다. 있는 그대로 그룹에서 N400은 중간 선 정면 지역에서 볼 수 있지만, 사진 작업의 다른 지역에서 눈에 보이지 않는, 그리고 BECO입니다라인 드로잉 작업의 모든 정면 지역에서 볼 수 MES. MANOVA 작업 별 그룹 상호 작용 효과는 350-450 밀리 초 후 발병 간격 (P = 0.019)에서 중요하다. 두 그룹은 사진 작업 42 초 인식에서 상당한 차이를 보여주고, 라인 드로잉 작업에서 ERP 유사한 패턴을 가지고; 즉, 작업별로 기 작용 효과는 50-150 밀리 후 발병 기간 (p = 0.035)에 유의한다. 사진 및 라인 드로잉의 얼굴은 250-550 밀리 초 간격의 시간과 후두엽 - 두정엽 지역에서 최대 규모의 ERP 차이에 도달합니다.

그림 5
그림 5. ERP 플롯. 오른쪽 정면에서 ERP 플롯, 컨트롤의 오른쪽 시간과 오른쪽 후두엽 - 두정엽 영역 (파란색)와 AS (적색) 그룹화 (A) 사진 및 (B) 라인 드로잉 작업. EEG 채널의 위치는각 플롯의 상부 좌측에 도시. 종축은 ERP 전압 (μV)을 나타내고, 가로축은 밀리 초에서 시간을 나타낸다. 이 그림은 챙 등의 알 그림 2의 수정 된 버전입니다. (13)는 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

도 6 및도 7을 참조하면, 대조군 델타 / 세타 동기에 도시 된 바와 같이 두 작업에서 50-800 밀리 후 발병 간격으로 발음된다. 후두 - 두정엽 영역은 초기 50-350 밀리 초 간격으로 정면 지역으로 중앙 및 시간 영역 다음 다음에 강한 동기를 표시하고, 지역적 차이는 350 밀리 초 후 사라집니다. 후두 - 두정엽 영역 또한 200-800 밀리 초 간격에서 가장 강한 알파 / 베타 동기 이탈을 보여줍니다. GE에서neral, 사진 델타 / 세타 동기 라인 드로잉 위에 첨가 효과가 있지만, 라인 드로잉 강한 알파 / 베타 동기 이탈을 유도한다. 있는 그대로 기 라인 드로잉 작업에서 대조군과 얼굴 사진과 관련된 명백한 첨가 효과 자세히 비교 델타 / 세타 동기화를 갖는다. MANOVA 작업 별 그룹 상호 작용 효과는 50-150, 250-350 및 350-450 밀리 초 후 발병 간격으로 중요하다 (P = 0.043, 0.003 및 0.015, 각각). 그룹 효과는 150-250, 250-350 및 350-450 밀리 초 간격으로 중요하다 (P = 0.033, 0.011 및 0.022, 각각). 다른 두피 지역과 비교하면 AS 그룹은 강한 150-250 밀리 초 간격으로 후두 - 두정엽 지역에서 델타 / 세타 동기화뿐만 아니라 350-450 밀리 초 간격의 중간 선 영역을 표시합니다. 있는 그대로 그룹의 알파 / 베타는 동기 이탈의 대조군과 동일한 (약간 강한) 인두 작업하지만, 두 작업 간의 차이가 AS 그룹 작아지는 경향이있다. MANOVA 기 태스크 별 그룹 효과는 고주파 진동의 통계적으로 유의하다.

그림 6
사진 작업에서 그림 6. ERSP 플롯. 사진 작업에서 그룹으로 (A) 제어 및 (B)에 대한 ERSP 플롯. 빨간색은 전력 증가 (동기화)을 나타내고, 청색의 기준과 비교하여 전력 감소 (동기 이탈)을 나타낸다. 이 그림은 챙 등의 알 그림 3의 수정 된 버전입니다. (13)는 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

그림 7
t 그림 7. ERSP 플롯그는 작업을 라인 그리기. ERSP 플롯을 선 드로잉 작업에서 그룹으로 (A) 제어 및 (B)에 대한. 이 그림은 챙 등의 알 그림 3의 수정 된 버전입니다. (13)는 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

의 ERP 결과 사진 작업의 초기 인식 (50-150 밀리 초), 감정적면 이후 의미 인식 (350-450 밀리 초)에서 그룹의 차이를 제시한다. 대조군과 비교할 때 AS 기 사진 작업 및 선 그리기 작업에서는 약간 큰 P1 진폭보다 작은 진폭 P1을 갖는다. 두 작업 사이의 P1의 진폭 차이는 사진 및 라인 드로잉 (43)의 인식에 AS 환자의 고유성을 반영 할 수있다. N400 강하게 영향을받는 것으로 도시면 (44)의 감정적 인 내용, 친숙 글로벌 / 로컬 기능을 제공합니다. 우리의 연구에서, 정면 및 시간 영역에서의 N400 (350-450 밀리 초)이 대조군에서 매우 보이지만 사진 태스크의 AS 기 거의 보이지 않는다. 얼굴 감정 인식에서, N400은 얼굴과 그 의미 해석 (화가 중립과 행복) 사이의 링크를 검색하는 과정으로 해석 할 수있다. 대조군에서, 350-450 밀리 초 간격에서 두 가지 작업의 ERP 차이는 다른 사람 연구 결과와 일치한다. 편도는 LSF 내용 3,45를 포함 그대로 무서운 얼굴이나 무서운 얼굴을 더 활성화됩니다. 가장 LSF 내용이 줄 도면으로부터 제거되는 바와 같이, 대조군 이러한 결과는 N400은 후두부 정수리 영역 훨씬 작고 사진 작업에 비해 시간적 영역에서 거의 보이지 않는 것을 나타낸다.

Becaus라인 드로잉의 전자 정보 처리가 편도에 비 의식적인 기능에 덜 의존, AS 환자는 정서적 얼굴 인식 동안 이상 (350-450 밀리 초) 단계에서 건강한 대조군과 같은보다 비교 ERP 패턴을 보여줍니다. 흥미롭게도, AS 기 사진 태스크의 표시 N400없이 정확하게 감성 평가 작업을 수행 할 수있다. 이는 편도 통해 정보 처리 가설과 관련 변연 구조 AS 환자의 정보 처리의 효율성에 영향을하지만 그들의 응답 정확도에 영향을주지 수 N400의 진폭을 트리거링하는 데 중요한 역할을 수행하는 것이 합리적이다.

감정적 인 얼굴 인식 자극 추정 46-48 동안 피질 - 변연계 예측과 관련된 뇌의 활동을 고려 델타 / 세타 진동 8 초 이상 변화를 종사하는 것으로 나타났다. 드LTA / 세타 동기보다 의식 얼굴 인식 (46)보다 민감한 비와 관련된다. ERSPs의 결과는 더욱 AS 그룹이 감정적 인 얼굴 인식의 초기 및 후기 단계에있는 델타 / 세타 리듬 훨씬 약한 동기화를 가지고 있음을 나타냅니다. 약한 델타 / 세타 동기화가 감정 표현의 비 의식적인 처리에 방해 및 AS 환자에서 변연 - 대뇌 피질 돌기의 실패를 반영 가설하는 것이 합리적이다. 델타 / 세타 동기화가 중간 선 정면에서 약간 더 두드러진다, 두 작업에서 350-450 밀리 초 후 발병 간격의 AS 그룹의 다른 두피 지역에 대해 중앙 및 중간 선 후두 - 두정엽 영역을 중간 선. 이 중간 선 영역은 밀접하게 감정적 인 의미 (18)의 의식 표현의 대뇌 피질의 구조와 관련이 있습니다.

인지 또는 의식이 경로는 여전히 매개되기 때문에시상 등의 변연 구조에 의해, 우리는 AS 그룹은 사진과 라인 도면에 응답의 비 의식 경로보다 더 의식 경로에 의존 가설 수 있습니다. 대조군 델타 / 세타 전력 정수리-후두부 영역에서 가장 강한 도달 시간 동기 사진 태스크의 이후 단계에서 정면 지역에서 발병하고 증가를 자극. 라인 드로잉 작업에서 델타 / 세타 파워의 공간 분포가 AS 그룹의 그것과 가까워진다. 우리는 대조군 사진 작업에 한정된 비 한정된 경로를 결합하고, 라인 드로잉 작업에서 한정된 통로에 의존 가설.

두 작업 ERSPs 사이를 비교할 때, 대조군과는 별도로 전자기구의 뇌 영역에 독립적는 250 내지 450 밀리 초 후 발병 간격 델타 / 세타 동기화를 LSF 콘텐츠의 부가 효과를 시사얼굴 감정 licited. 사진 작업 성공적 얼굴 감정을 평가할 수 있으므로 환자에 의해 제안 된 바와 같이 얼굴의 LSF 함량은 쉽게 얼굴 세부 자발적 관심을 우회 할 수있는 정보의 흐름에 일정한 부하를 보인다. 강한 알파 및 베타 진동은 언급 된 관심과 연관된 신피질 시맨틱 장기 메모리 및 49,50 자극의인지 기능 추정 공정 지표 등. 얼굴 인식 작업에서는 알파 / 베타 동기 이탈은 시각적 자극에 대한 자발적 관심의 수준을 반영하고 얼굴 감정 15,18,51의인지 적 평가와 관련된다. 이 연구에서, 지역의 차이를 제외하고 고주파 진동의 태스크 또는 그룹 효과 (알파 및 베타)을지지하는 증거가없고, 정수리-후두부 영역과 다른 영역 사이의 차이를 비교할 때. 알파 동기 이탈이 관심을 반영하고복잡한 작업 (52)의 억제 과정에서 릴리스, 베타 진동 반면, 좀처럼 감정 관련 작업 (53, 54)에서 관찰되지 않는다. 있는 그대로 그룹의 베타 동기 이탈 모두 작업에서 대조군에 비해 일반적으로 더 강한이지만 군 차이는 미미하다. 대조군과 비교할 때 ERSPs는 AS 기 훨씬 약한 델타 / 세타 힘이 제안되지만 약간 강한 알파 / 베타 전원. 우리는 AS 환자는 감각 및 정서적 결핍을 보상하기 위해 시각적 자극의인지 적 평가를 이용하여 얼굴에 몇 가지 중요한 세부 사항에주의를 지시 할 수 있다는 가설.

요약하면, 건강한 얼굴 감정의 인식은 모두 의식과 비 의식 프로세스 9,18,51을 유도한다. 두 작업 사이의 반응 시간의 차이는 AS 군에 비해 대조군에서는 크게하는 경향이있다. 우리는 건강한 가설AS 환자 만 얼굴 두 유형의 응답에 한정된 프로세스에 의존하는 반면, 제어, 라인 도면에 응답 비 의식보다 의식적인 프로세스 더 맞물려 사진에 응답 두 프로세스를 발휘.

기업 코드 파일 :. 예제 프로그램 이 파일을 다운로드하려면 여기를 클릭하십시오.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

문헌 EEG 반응 (44)의 분석에 의해 자폐증 환자의 얼굴 감정 인식에 대한 연구를 제공하고, 높은 및 낮은 공간 주파수 내용의 인식에 시각적 자극 (43)를 사용. 우리가 알고있는 한, 그러나, 별개의 공간 주파수 내용을 감정 인식 결합 진동 뇌 활동의 기존 연구가 부족하다. 우리의 프로토콜은 AS 건강한 대조군에 비해 환자의 감격 (긍정적 중립과 부정적인면)과 감정의 인식에 공간 주파수 정보 (사진, 라인 드로잉)의 영향을 추정하기위한 첫 단계입니다. 공간, 시간 및 주파수 도메인의 뇌파 반응의 분석은 AS 장애의 과학적 이해 정도 정서 및인지 기능을 분리 할 수​​ 있습니다. 이 연구에서, 실험 프로토콜 토륨 무관 최소화 요소에 대한 접근을 제공한다감정의 전자 인식; 즉, 얼굴의 감격에 할당 된 반응 시간과 점수는주의 깊게 디자인 파일럿 연구에서 두 군간에 가능한 한 유사하게 유지된다. 참가자는 파일럿 연구와 EEG 실험 모두에서 IQ와 성별을 일치합니다. AS에 이전 EEG 연구는 P1 및 N170 (55)에 초점을 맞추고 있지만, 본 연구 프로토콜은 AS와 대조군 사이 N400 성분에 큰 차이를 보여에 기여한다.

에크의 감정적 인면은 다른 데이터베이스 (예를 들어, 일부 잘 검증 된 대만의 감정적 인면)의면에 비해 건강한 대조군에 강한 낮은 주파수의 진동을 유도. 매우 뇌파 실험을하기 전에 환자와 건강한 대조군에 사용되는 감정적 인 얼굴 자극의 유효성을 검사하는 파일럿 EEG 연구를 수행하는 것이 좋습니다. AS 환자는 눈 영역 (56) HSF 정보를 이용 어려웠다. 이러한 이유에서,선택 에크의 얼굴 자극이 노출 / 비노출 치아 또는 주름살 / 부드럽게 눈썹에 의해 식별 감정 표현이 포함되어 있습니다. 프로토콜에 사용되는 자극을 교체하는 동안 환자의 다른 유형에 대한 연구는 다른 얼굴 특징을 고려할 수 있습니다. 채점 시스템은 예비 연구에서 채용 환자 인터뷰에 의해 해결 될 수있는 감성 평가 작업을 수행 환자를 용이하게 설계되어야한다; 즉, 중앙과 끝점을 제외한 눈금없는 주문 연속체는 파일럿 환자의 의견에 따라 설계되었습니다. 채점 시스템의 최종 지점에서 라벨 특히 컨트롤의 감정적 반응을 최대화하도록 선택되어야하는 불리한 대 친화적, 예를 들어, 변경 될 수있다.

문헌에서, AS는 편도체의 손상 및 메모리와 감정 관련 정보의 검색에 참여하는 관련 변연계 구조 37 ~ 39, 전으로 발견중립 감정 40, 41에 대한 CEPT. 또한, 편도체는 촬영 된 얼굴 3의 LSF 콘텐츠에 민감하다. 프로토콜에서 두 작업은 AS와 성인 적자에 대한 기존의 연구 결과에 따라 설계되고, 자극 및 채점 시스템은 또한 환자의이 인구와 함께 사용하도록 설계되었습니다. 자폐증 스펙트럼 장애 (57) 등의 손상이 유사한 유형과 다른 성인 환자 프로토콜의 임상 적용은, 얼굴 자극에 사소한 수정 및 채점 시스템을 실시 할 수있다.

프로토콜을 의식 (또는 자주) 제어 동작을 통해 26 완전히 개발되지 않을 미만 7 세 어린이의 임상 적 진단을위한 것은 아니다. 또한,이 기술은 뇌 손상, 종양 또는 뇌 혈류 역학의 다른 위반 다음과 같은 정신과 적 동반 질환 환자에서 명확한 진단 결과를 얻을하지 않습니다.몇몇 연구는 월경주기 중 58, 59 공격성 및 여성 호르몬의 변화 사이의 관계를 발견 하였다. 또한, 에탄올 또는 마약의 관리가 감정적 인 반응 (60)을 변경하는 것으로 잘 알려져있다. 변경 이러한 유형의 건강한 및 AS 환자 모두에서 감정적 인 자극에 대한 뇌파 반응의 변동이 발생할 수 있습니다. 따라서, 월별 기간 또는 월 경전 증후군을 앓고 때, 또는 알코올이나 약물 중독에서 환자 중 여성 프로토콜을 적용하지 않는 것이 좋습니다. 감정의 의식과 비 의식 경로에 대한 뇌 영상 연구는 감정적 인 얼굴 자극에 거침과 중립성의 정도를 변화시킴으로써 프로토콜이 인구 통계 학적 AS와 건강한 환자와 일치하는 신청할 수 있습니다.

AS 환자는 상대적으로 높은 특성 불안 그룹 13,36에 속하고 눈이 깜박 및 모션 아티팩트가 심각 할 수 있습니다. 또한 근래하는 것이 바람직과학적 또는 임상 적 문제를 해결하기 전에 EEG 아티팩트를 제거하기위한 전자 숙련 된 데이터 프로세서와 효율적인 알고리즘. 실험 프로토콜은 뇌에서 감정의 의식과 비 의식적인 표현에 대한 연구 방향으로 노력을 나타냅니다. 이 프로토콜은 뇌파 실험에서 AS와 IQ / 성별 일치 컨트롤과 환자 모집에 의해 검증되었습니다. 반응 시간 및 반응 정도가 심리 행동 진단 추가적인 보조제이다. 이 기술은 실험 기간 동안 참가자의 주관적 분위기 독립적이므로 동안 정신적 또는 약물 치료 후 환자의 상태와 역학을 추적을 허용한다. 이 기술은 외상 후 스트레스의 불안 장애, 우울증, 연소 증후군, 감정적 정동 위반 병리 다른 종류의 고통받는 환자에 적용 할 수있다. 프로토콜에 대한 추가 수정이 인접 해에 사용 권장사회적, 정서적 장애 그룹을 r에. 컨트롤과 환자의 인터뷰와 잘 설계된 파일럿 연구는 프로토콜의 수정 된 버전의 검증에 도움이 될 것이다.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
Synamps 2/RT 128-channel EEG/EP/ERP Neuroscan
Quik-CapEEG 128 electrodes Neuroscan
Gel Quik-Gel
FASTRAK 3D digitizer Polhemus 

DOWNLOAD MATERIALS LIST

References

  1. Tamietto, M., De Gelder, B. Neural bases of the non-conscious perception of emotional signals. Nat Rev Neurosci. 11, 697-709 (2010).
  2. Harms, M. B., Martin, A., Wallace, G. L. Facial Emotion Recognition in Autism Spectrum Disorders: A Review of Behavioral and Neuroimaging Studies. Neuropsychol Rev. 20, 290-322 (2010).
  3. Vuilleumier, P., Armony, J. L., Driver, J., Dolan, R. J. Distinct spatial frequency sensitivities for processing faces and emotional expressions. Nat Neurosci. 6, 624-631 (2003).
  4. Phan, K. L., Wager, T., Taylor, S. F., Liberzon, I. Functional neuroanatomy of emotion: A meta-analysis of emotion activation studies in PET and fMRI. Neuroimage. 16, 331-348 (2002).
  5. Kano, M., et al. Specific brain processing of facial expressions in people with alexithymia: an (H2O)-O-15-PET study. Brain. 126, 1474-1484 (2003).
  6. Williams, L. M., et al. Fronto-limbic and autonomic disjunctions to negative emotion distinguish schizophrenia subtypes. Psychiat Res-Neuroim. 155, 29-44 (2007).
  7. Goffaux, V., et al. From coarse to fine? Spatial and temporal dynamics of cortical face processing. Cereb Cortex. , (2010).
  8. Balconi, M., Lucchiari, C. EEG correlates (event-related desynchronization) of emotional face elaboration: A temporal analysis. Neurosci Lett. 392, 118-123 (2006).
  9. Balconi, M., Lucchiari, C. Consciousness and emotional facial expression recognition - Subliminal/Supraliminal stimulation effect on n200 and p300 ERPs. J Psychophysiol. 21, 100-108 (2007).
  10. Balconi, M., Pozzoli, U. Face-selective processing and the effect of pleasant and unpleasant emotional expressions on ERP correlates. Int J Psychophysiol. 49, 67-74 (2003).
  11. Balconi, M., Pozzoli, U. Event-related oscillations (EROs) and event-related potentials (ERPs) comparison in facial expression recognition. J Neuropsychol. 1, 283-294 (2007).
  12. Balconi, M., Pozzoli, U. Arousal effect on emotional face comprehension Frequency band changes in different time intervals. Physiol Behav. 97, 455-462 (2009).
  13. Tseng, Y. L., Yang, H. H., Savostyanov, A. N., Chien, V. S., Liou, M. Voluntary attention in Asperger's syndrome: Brain electrical oscillation and phase-synchronization during facial emotion recognition. Res Autism Spectr Disord. 13, 32-51 (2015).
  14. Goffaux, V., Rossion, B. Faces are" spatial"--holistic face perception is supported by low spatial frequencies. J Exp Psychol Hum Percept Perform. 32, 1023 (2006).
  15. Knyazev, G. G., Bocharov, A. V., Levin, E. A., Savostyanov, A. N., Slobodskoj-Plusnin, J. Y. Anxiety and oscillatory responses to emotional facial expressions. Brain Res. 1227, 174-188 (2008).
  16. Adolphs, R. Recognizing emotion from facial expressions: psychological and neurological mechanisms. Behav Cogn Neurosci Rev. 1, 21-62 (2002).
  17. Acar, Z. A., Makeig, S. Neuroelectromagnetic Forward Head Modeling Toolbox. J Neurosci Methods. 190, 258-270 (2010).
  18. Balconi, M. Neuropsychology of facial expressions. The role of consciousness in processing emotional faces. Neuropsychol Trends. 11, 19-40 (2012).
  19. Gross, T. F. The perception of four basic emotions in human and nonhuman faces by children with autism and other developmental disabilities. J Abnorm Child Psychol. 32, 469-480 (2004).
  20. Behrmann, M., Thomas, C., Humphreys, K. Seeing it differently: visual processing in autism. Trends in cognitive sciences. 10, 258-264 (2006).
  21. Holroyd, S., Baron-Cohen, S. Brief report: How far can people with autism go in developing a theory of mind? J Autism Dev Disord. 23, 379-385 (1993).
  22. Duverger, H., Da Fonseca, D., Bailly, D., Deruelle, C. Theory of mind in Asperger syndrome. Encephale. 33, 592-597 (2007).
  23. Wallace, S., Sebastian, C., Pellicano, E., Parr, J., Bailey, A. Face processing abilities in relatives of individuals with ASD. Autism Res. 3, 345-349 (2010).
  24. Weigelt, S., Koldewyn, K., Kanwisher, N. Face identity recognition in autism spectrum disorders: a review of behavioral studies. Neurosci Biobehav Rev. 36, 1060-1084 (2012).
  25. Wilson, C., Brock, J., Palermo, R. Attention to social stimuli and facial identity recognition skills in autism spectrum disorder. J Intellect Disabil Res. 54, 1104-1115 (2010).
  26. American_Psychiatric_Association. The Diagnostic and Statistical Manual of Mental Disorders: DSM 5. , bookpointUS. (2013).
  27. Dahlgee, S., Gilberg, C. Symptoms in the First two years of Life. A Priliminary. Population Study of Infantile Autism European archives of Psychiatry and Neurology. Sciences. , (1989).
  28. Basar-Eroglu, C., Kolev, V., Ritter, B., Aksu, F., Basar, E. EEG, auditory evoked potentials and evoked rhythmicities in three-year-old children. Int J Neurosci. 75, 239-255 (1994).
  29. Ekman, P., Friesen, W. V. Pictures of Facial Affect. , Consulting Psychologist Press. (1976).
  30. Gillberg, C. Autism and Asperger's Syndrome. , Cambridge University Press. 122-146 (1991).
  31. Chiang, S. K., Tam, W. C., Pan, N. C., Chang, C. C., Chen, Y. C., Pyng, L. Y., Lin, C. Y. The appropriateness of Blyler's and four subtests of the short form of the Wechsler Adult Intelligence Scale-III for chronic schizophrenia. Taiwanese J Psychiatr. 21, 26-36 (2007).
  32. Delorme, A., Makeig, S. EEGLAB: an open source toolbox for analysis of single-trial EEG dynamics including independent component analysis. J Neurosci Methods. 134, 9-21 (2004).
  33. Makeig, S., Bell, A. J., Jung, T. P., Sejnowski, T. J. Independent component analysis of electroencephalographic data. Adv Neural Inf Process Syst. 8, 145-151 (1996).
  34. Başar, E. Brain Function and Oscillations: Volume I: Brain Oscillations. Principles and Approaches. , Springer Science & Business Media. (2012).
  35. Tsai, A. C., et al. Recognizing syntactic errors in Chinese and English sentences: Brain electrical activity in Asperger's syndrome. Res Autism Spectr Disord. 7, 889-905 (2013).
  36. Savostyanov, A. N., et al. EEG-correlates of trait anxiety in the stop-signal paradigm. Neurosci Lett. 449, 112-116 (2009).
  37. Ashwin, C., Baron-Cohen, S., Wheelwright, S., O'Riordan, M., Bullmore, E. T. Differential activation of the amygdala and the 'social brain' during fearful face-processing in Asperger Syndrome. Neuropsychologia. 45, 2-14 (2007).
  38. Kevin, K. Y., Cheung, C., Chua, S. E., McAlonan, G. M. Can Asperger syndrome be distinguished from autism? An anatomic likelihood meta-analysis of MRI studies. J Psychiatry Neurosci. 36, 412 (2011).
  39. Piggot, J., et al. Emotional attribution in high-functioning individuals with autistic spectrum disorder: A functional imaging study. J Am Acad Child Adolesc Psychiatry. 43, 473-480 (2004).
  40. Ilyutchenok, R. Y. Emotions and conditioning mechanisms. Integr Physiol Behav Sci. 16, 194-203 (1981).
  41. Kleinhans, N. M., et al. fMRI evidence of neural abnormalities in the subcortical face processing system in ASD. Neuroimage. 54, 697-704 (2011).
  42. Toivonen, M., Rama, P. N400 during recognition of voice identity and vocal affect. Neuroreport. 20, 1245-1249 (2009).
  43. Deruelle, C., Rondan, C., Gepner, B., Tardif, C. Spatial frequency and face processing in children with autism and Asperger syndrome. J Autism Dev Disord. 34, 199-210 (2004).
  44. Bentin, S., Deouell, L. Y. Structural encoding and identification in face processing: ERP evidence for separate mechanisms. Cogn Neuropsychol. 17, 35-55 (2000).
  45. Vuilleumier, P., Pourtois, G. Distributed and interactive brain mechanisms during emotion face perception: evidence from functional neuroimaging. Neuropsychologia. 45, 174-194 (2007).
  46. Basar, E., Guntekin, B., Oniz, A. Principles of oscillatory brain dynamics and a treatise of recognition of faces and facial expressions. Prog Brain Res. 159, 43-62 (2006).
  47. Basar, E., Schmiedt-Fehr, C., Oniz, A., Basar-Eroglu, C. Brain oscillations evoked by the face of a loved person. Brain Res. 1214, 105-115 (2008).
  48. Başar, E. Brain Function and Oscillations: Volume II: Integrative Brain Function. Neurophysiology and Cognitive Processes. , Springer Science & Business Media. (2012).
  49. Anokhin, A., Vogel, F. EEG alpha rhythm frequency and intelligence in normal adults. Intelligence. 23, 1-14 (1996).
  50. Klimesch, W. EEG alpha and theta oscillations reflect cognitive and memory performance: a review and analysis. Brain Res Rev. 29, 169-195 (1999).
  51. Knyazev, G. G., Slobodskoj-Plusnin, J. Y., Bocharov, A. V. Event-Related Delta and Theta Synchronization during Explicit and Implicit Emotion Processing. Neuroscience. 164, 1588-1600 (2009).
  52. Klimesch, W., Sauseng, P., Hanslmayr, S. EEG alpha oscillations: The inhibition-timing hypothesis. Brain Res Rev. 53, 63-88 (2007).
  53. Knyazev, G. G., Slobodskoj-Plusnin, J. Y. Behavioural approach system as a moderator of emotional arousal elicited by reward and punishment cues. Pers Individ Dif. 42, 49-59 (2007).
  54. Balconi, M., Brambilla, E., Falbo, L. Appetitive vs. defensive responses to emotional cues. Autonomic measures and brain oscillation modulation. Brain Res. 1296, 72-74 (2009).
  55. Dakin, S., Frith, U. Vagaries of visual perception in autism. Neuron. 48, 497-507 (2005).
  56. Curby, K. M., Schyns, P. G., Gosselin, F., Gauthier, I. Face-selective fusiform activation in Asperger's Syndrome: A matter of tuning to the right (spatial) frequency. Poster presented at Cogn Neurosci, New York, , (2003).
  57. American_Psychiatric_Association. Diagnostic and statistical manual of mental disorders. , (1994).
  58. Dougherty, D. M., Bjork, J. M., Moeller, F. G., Swann, A. C. The influence of menstrual-cycle phase on the relationship between testosterone and aggression. Physiol Behav. 62, 431-435 (1997).
  59. Van Goozen, S. H., Wiegant, V. M., Endert, E., Helmond, F. A., Van de Poll, N. E. Psychoendocrinological assessment of the menstrual cycle: the relationship between hormones, sexuality, and mood. Arch Sex Behav. 26, 359-382 (1997).
  60. Winward, J. L., Bekman, N. M., Hanson, K. L., Lejuez, C. W., Brown, S. A. Changes in emotional reactivity and distress tolerance among heavy drinking adolescents during sustained abstinence. Alcohol Clin Exp Res. 38, 1761-1769 (2014).

Tags

동작 113 호 아스퍼거 증후군 뇌 전기 활동 이벤트 관련 전위 이벤트 관련 스펙트럼 섭동 얼굴 감정 인식 공간 주파수
아스퍼거 증후군의 감정적 인 얼굴의 의식과 비 의식 표현
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Chien, V. S. C., Tsai, A. C., Yang,More

Chien, V. S. C., Tsai, A. C., Yang, H. H., Tseng, Y. L., Savostyanov, A. N., Liou, M. Conscious and Non-conscious Representations of Emotional Faces in Asperger's Syndrome. J. Vis. Exp. (113), e53962, doi:10.3791/53962 (2016).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter