인간 초상권 초자연적 인 밸리 가설 '차원의 인식 및 분류 처리 : 어떤 방법 론적 문제

Behavior
 

Summary

조사

Cite this Article

Copy Citation | Download Citations

Cheetham, M., Jancke, L. Perceptual and Category Processing of the Uncanny Valley Hypothesis' Dimension of Human Likeness: Some Methodological Issues. J. Vis. Exp. (76), e4375, doi:10.3791/4375 (2013).

Please note that all translations are automatically generated.

Click here for the english version. For other languages click here.

Abstract

모리의 초자연적 인 밸리 가설 1,2 등의 로봇으로 인간과 문자의 인식과는 확장, 아바타 (컴퓨터 생성 자)에 따라 시각 및 행동 리얼리즘의 객체의 정도에 따라 부정 긍정적 인 영향 (원자가)를 불러 일으킬 수 있다고 제안 인간 형상의 치수 (DHL) (그림 1). 그러나 여러가지 현실적인 인간이 아닌 문자 주관적인 반응의 감정적 인 원자가의 연구는 일관성 결과 3, 4, 5, 6을 생산했다. 이에 대한 여러 가지 이유 중 하나는 가설이 가정으로 인간의 형상이 인식되지 않습니다. DHL은 실제 인간과 유사성의 정도에 부드러운 선형의 변화에 따라 모리의 설명에 따라 정의 할 수 있지만, DHL을 따라 개체의 주관적 인식이 범주 지각 (CP) 7의 심리적 효과의 측면에서 이해 될 수있다. 캘리포니아의 추가 행동 및 신경 영상 연구DHL을 따라 정서적 경험 차원의 기본 범주 구조의 잠재적 인 영향 tegory 처리 및 CP가 필요합니다. 이 프로토콜은 따라서 DHL에 초점을 맞추고 CP의 검사를 할 수 있습니다. 예를 들어 비디오에서 제시 한 프로토콜을 기반으로, DHL을 나타내는 모프 컨티뉴에서 도출 자극의 "기괴한"연구 프로토콜과 사용 방법을 둘러싼 문제는 비디오를 함께 문서에 설명되어 있습니다. 카테고리 변경 및 범주 처리에 반응 것과 실제 인간과 같은 유사성에 신경을 반응 뇌 영역을 풀다하기 위해 DHL를 대표하는 신경 영상 및 모프 자극의 사용은 간략하게 설명되어 있습니다.

Protocol

그림 1
그림 1. 부정과 긍정적 인 영향 (원자가) 및인지 인간 형상의 경험 사이의 비선형 관계의 그림입니다. 그렇지 않으면 긍정적 인 관계는 매우 현실적인 아직보기에도 자연스러운 인간과 객체의 모양과 동작에 미묘한 차이가 권장되는 묘사 곡선의 첫 번째와 두 번째 반응 피크 사이의 리얼리즘의 수준에서 날카로운 네거티브 한 피크 (즉, 기괴한 계곡)를 보여줍니다 기묘 및 개인 불편 (기괴한 느낌을 즉)의 감각을 유도한다. 그림 2에서 적응.

우리는 다음과 같은 작업 각각에 대해 참가자의 다양한 그룹을 사용했다.

1. 강제 선택 분류 작업 1.1 자극

  1. DHL을 나타내는 선형 모프 컨티뉴를 생산 변신 프로 시저에서 부모의 얼굴 (즉, 컨티뉴 엔드 포인트)로 아바타와 인간의 이미지를 사용합니다. 우리는 각각 인간과 아바타 얼굴 32 이미지를 사용하여 32 인간의 아바타 컨티뉴를 만들었습니다. 모델링 스위트 젠체 7 (스미스 마이크로 소프트웨어 사용하여 아바타 생성 www.smithmicro.com을 다른 소프트웨어를 사용할 수 있지만이). 우리는 Funmorpher (Zealsoft 주식 회사, 에덴 프레리, 미네소타)를 사용하여 이러한 모프 컨티뉴를 생성하지만, 다른 모핑 소프트웨어를 사용할 수 있습니다.
  2. 모프 소프트웨어를 사용하여 부모 얼굴의 해당 기능을 제어 지점을 놓습니다. 각면, 우리는 입에 20 점, 각 눈에 18 점, 코에 20 점, 각 눈썹에 8 점을 배치합니다. 따라서 우리는 100 제어점 주위에 사용됩니다. 제어점의 개수를 일정하게 유지하려고 노력하지만, 지느러미의 모든 인공물을 제거하기 위해 추가 포인트를 추가컨티뉴 아의 알 변경해.
  3. 확인 잠재적 인 혼동을 모핑 프로 시저에 소개되지 않습니다. 예를 들어, 우리는 중립 식,​​ 직접 응시하며 얼굴, 머리카락이나 보석, 및 엔드 포인트 이미지로 다른 어떤 현저한 특징 알 수없는 띄지 남성 얼굴의 각 연속 이미지의 엔드 포인트로 사용이 밀접하게 연령, configural 단서 및 일반 얼굴 형상에 대해 일치했다 .
  4. 예를 들어 타원 모양으로 검은 오버레이를 사용하여 외부 기능을 자르려면 사진 편집 소프트웨어를 사용, 포토샵; CS3 (우리는 어도비 사용 www.adobe.com을 ). 모핑 전에, configural 신호의 끝점 이미지 사이의 정렬을 보장하기 위해 이미지의 위치를​​ 조정하고, 명암비, 전체적인 밝기와 일치하도록 각 연속체의 엔드 포인트 자극의 각 쌍의 피부 톤을 조정합니다.
  5. DHL 연속체의 각 모프 미리 정의 된 단위에 실제 인간과 유사성의 차이를 나타냅니다. 우리는 1 생성3 가지 변형 된 이미지와 라벨이, 두 개의 엔드 포인트와 11 중간 모프 (그림 2B)입니다 M0에 M12.

1.2 자극 프레 젠 테이션 및 지침

  1. 분명 아바타로 분류하고 인간이 모프의 결정하고 범주 경계 8의 위치를 정의하는 두 개의 대안 강제 선택 분류 작업을 사용합니다.
  2. 본 시험은 750 밀리 초에 대한 모프 이미지 뒤에 500 밀리 초 (참가자 고정을 유지하기 위해 필요합니다)에 대한 고정 점으로 시작. 우리는 프레 젠 테이션을 사용, 소프트웨어 (버전 14.1, www.neurobs.com 이 프로토콜의 모든 작업에 자극 프레 젠 테이션, 그러나 다른 자극 프리젠 테이션 플랫폼)을 사용할 수 있습니다.
  3. 두 RESPO 중 하나를 누르면 신속하고 정확하게 최대한 아바타이나 인간 중 하나로 제시 모프 자극을 식별하는 참가자를 지시 NSE 키.

1.3 데이터 분석

반응 함수의 형태를 설명하는 다항식 회귀 분석을 사용하여 아바타 인간의 분류 데이터를 요약합니다. 각 참가자와 연속체의 응답 데이터에 맞는 물류 기능 모델에서이 문제를 확인합니다. 첫째, 물류 기능을 가장 적합을 보장하기 위해 참가자에 걸쳐 개별 컨티뉴를 분석합니다. 각 연속체의 물류 기능에서 파생 된 매개 변수 추정을 사용하여 모든 컨티뉴를 통해 아바타 - 인간의 범주 반응 함수의 단계와 같은 형상 한 표본 t-검정에서 0에 대하여 다음 시험 참가자에 걸쳐 평균. 로짓 변환 9 각 연속의 물류 기능의 매개 변수 추정을 제출하여 각 연속 따라 분류 경계의 위치를 추정한다. 우리는 SPSS 버전 16을 사용하여 강제로 선택 분류 및 지각 차별 작업에 대한 모든 분석을 실시 (ibm.com / 소프트웨어 / 분석 / SPSS "대상 ="_blank "> www.ibm.com / 소프트웨어 / 분석 / SPSS).

응답 시간 (RT) 데이터도 분석 할 수 있습니다. 본 분석에서 모프 위치에 따라 응답 시간의 차이를 종속 변수로 모든 컨티뉴를 통해 각 개인의 평균 RT를 사용하여, 13 모프 위치와 함께, 하나의 요인 ANOVA에 입력됩니다.

그림 2
그림 2. 강제 선택 분류 작업 (A)와 모프 연속 (B)의 예에서 결과. 패널 B에서 아바타와 인간의 끝점 사이 13 모프 - 연속체를 따라 선형 물리적 변화의 상대적 정도를 백분율로 표시됩니다. M0와 M4는 일에 인간으로 아바타와 M8과 M12으로 확인되었습니다창에 표시된 전자는 선택의 여지가 분류 작업을 강요했다.

2. 지각 차별 작업

2.1 자극

  1. 동일한 다른 지각 차별 작업 10이 버전의 각 모프 연속체에서 아바타를 선택 (예를 들어 M0와 M4)과 인간과 같은 두 가지 (예 : M8 및 M12)로 앞의 분류 작업으로 분류 두 변경해. 모프 사이의 물리적 인 차이를 제어하려면 각 연속체에 따라 물리적 변화의 해당 단위를 나타내는 모프를 선택합니다. 우리는 33.33 %의 증가 (즉, M0, M4, M8, M12) (그림 2B)를 사용 하였다.

그림 3
"동일한 다른"인식 discrim에 대한 그림 3. 자극 조건ination 작업 (N = 20). 모프가 쌍을 형성하기 위해 선택됩니다. 한 쌍의 모프는 ( "내") ( "동일")와 동일, 또는 그들 ( "사이") 사이의 범주에서 변화를 보여 같은 범주 내에서 그려집니다. 변경해 M0, M4, M8과 인간의 실험 (B)에 대한 아바타 시험 (A)와 M4, M8 및 M12에 사용됩니다. 아바타 시험에서 모프 쌍의 첫 번째 모프는 M8 항상 M4와 인간의 시련과 그 아바타와 인간의 시련이 서로 다른 컨티뉴에서 가져온 변경해 기반으로하는주의.

  1. (한 쌍의 모프가 물리적 또는 범주 변경을 대표하지, 동일) "동일한"(쌍의 변경해은 "내"세 가지 실험 모프 쌍 조건 (그림 3)에 따라 쌍으로 선택한 변경해 정렬 ) 범주 내에서 그려지고 "사이"(쌍 변경해 다른 범주를 나타냅니다).
  2. 관련 모프 쌍 변경해 사이에 차별의 성능을 조사하기아바타 범주 (이 모프 쌍은 따라서 "아바타 시험"라고합니다)에 세 가지 조건의 각 모프 쌍의 첫 번째 모프 (그림 3A) (아바타 범주에서) 항상 M4 있는지 확인합니다. "동일한", M4에 대한 M4 - - 모프 쌍 M4이 결과 "에서"와 M4에 대한 M0 - 조건 "사이"에 대한 M8. 동일한 절차는 첫 번째 모프는 항상 M8되도록합니다 (즉 "인간 실험"라고) 인간의 범주와 관련 모프 쌍에 적용 할 수 있습니다 : "동일한"(M8 - M8) (M8 - M12) "에서" ,와 "사이"(M8 - M4) (그림 3B).
  3. 항상 모프 쌍의 두 변경해 그들이 원래 변신 것과 같은 연속체에서 도출되어 있는지 확인합니다. 동일한 연속체 내에서 어떤 쌍 가까운 순서로 표시되지 않도록 모프 쌍의 프레 젠 테이션을 의사 랜덤. 주어진 연속체에서 아바타이나 인간 실험 발표는 임의 있지만 각 참가자가 하나 보는 것을 보장하기 위해 모든 참가자에 걸쳐 상쇄하다아바타이나 인간 실험 같은 수의 특정 연속체에서 있지만 둘 다, 그 아바타 또는 인간의 시험을 볼 수 있습니다.

2.2 프리젠 테이션 및 지침

  1. 한 쌍의면 사이에 300 밀리의 상호 자극 간격 (ISI) 500 밀리를위한 얼굴 쌍의 각면 다음 500 밀리 초 (참가자 고정을 유지하기 위해 필요합니다)에 대한 고정 십자가를 제시한다. 우리는 또한 ISI의 다른 기간은 차동 차별의 성능에 영향을 미칠 것인지 확인하기 위해 75 밀리의 ISI를 사용했습니다. 모프 쌍의 시험과 변수 간 시험 간격을 제시 : 우리는 2500 밀리 초 평균 간격을 사용했습니다.
  2. 모프 쌍을 구성하는 각각의 시험을 볼 수 참가자를 지시, 변경해은 재판에 연속적으로 제시되고, 각면 쌍의면의 모양이 '동일한'또는 '다른'여부로 신속하고 정확하게 가능한 버튼을 누른로 표시하기 .

2.3 데이터 분석 차별 정확도는 경계의 동일한 측면에서 얼굴 쌍에 비해 범주 경계를 교차 얼굴 쌍 분석됩니다. 3 "얼굴 쌍,이 경우, '다른'반응은 (쌍의 두 얼굴 다른 물리적 외관을 나타내는) 모프 얼굴 쌍의 총 수의 비율로 계산되며 2 X 3 요인 분산 분석을 실시 시험 유형 "(내, 사이 같은) 및 2"ISI "조건 (75 밀리, 300 밀리 초). 구형의 가정이 위반 될 때 온실 Geisser 조정이 사용됩니다. 아바타 실험 및 인체 시험을위한 데이터 분석에 개별적으로 처리됩니다.

개인 정확도 점수는 사용하여 측정 할 수있다 '통계 47,79 (신호 탐지 이론에 대한 참조, 예를 들어 45, 46, 47). A'는 응답 편견 독립적 인 차별 감도의 측정을 제공합니다. 그것은 0.5 (기회), 1 (녹색 중국 사람 사이에 차이가CT 차별). 다양한 소프트웨어 패키지는 '차별 감도의 기타 조치 (와 바이어스) 46, 47, 48 49, 50를 계산하는 데 사용할 수 있습니다. 우리는 아바타 실험 및 인체에 실험에 대한 별도의 분석으로, 2 "얼굴 쌍 시험 유형"(사이에서)와 "ISI"조건 (75 밀리, 300 밀리 초)로, 2 X 2 반복 측정 ANOVA를 사용하여 차별 민감도를 분석 종속 변수로하고 A '. 응답 편견은 종종 일반적으로보고 있지만, 38 참조하지 않습니다. 응답 바이어스, 우리는 그렇지 않으면 같은 2 X 2 ANOVA 디자인을 사용하여 별도의 분석에서 종속 변수로 β "D 통계 47를 사용했습니다.

RT 데이터는 응답 "과" "동일한"와 "다른"을 분석 할 수 있습니다. 이 예제에서, 우리는 "다른" "동일한"모든 상황에 걸쳐 RT의 요약보기를 얻을 수있는 하나의 분석에서 아바타와 인간의 산책로 조건 "사이"를 비교합니다. 이를 위해, 우리는 함께 3 X 2 X 2 ANOVA를 실시로 모든 컨티뉴를 통해 각 개인의 올바른 응답의 평균 RT를 사용하여 요소 "얼굴 쌍 시험 유형"(같은, 다른, 간), "카테고리"(아바타, 인간)와 "ISI"(75 밀리, 300 밀리 초) 종속 변수.

3. fMRI를 작업

3.1 자극

자극 조건은,,, 내 같은과 아바타 조건과 인간의 실험 사이에 얼굴 쌍 모프 자극 앞의 지각 차별 작업에 설명 된대로 동일합니다.

3.2 프리젠 테이션 및 지침

  1. 그 자극에 참가자들의 관심을 유지하면서 DHL 함께 물리적 및 범주와 관련된 변화를 암시 적으로 처리 검사 대상 모니터링 작업을 사용합니다.
  2. 드문 표적 탐지에 응답 버튼을 눌러 참가자를 지시합니다. 우리는 목표 거꾸로 표시되는 얼굴로 모든 모프 쌍의 15 %를 발표했다. 대상으로 사용네 가지 변경해 중 하나 (M0, M4, M8 또는 M12) 그렇지 자극 프레 젠 테이션을 사용하지 모프 연속체에서 무작위로 선택. 대상 모프가 모프 쌍의 첫 번째 또는 두 번째 모프에 대상에 대한 모니터링 중에 차동 관심을 피하기 위해 모프 쌍의 첫 번째 또는 두 번째 모프로 표시되어 있는지 확인합니다.
  3. 각 스캔 세션 참가자에 걸쳐 순서로 상쇄 자극 프레 젠 테이션의 두 가지 실험로 구성됩니다. 실행 사이의 틈은 참가자들에게 짧은 휴식을 할 수 있습니다. 참가자는 MR 신호의 정상 상태를 설정하는 각 실행의 시작 부분에 십자가를 흥분시키는.

3.3 스캔 대상을 준비

  1. 실험 프로토콜이 수행되기 전에 모든 참가자는 서면 동의를 제공합니다. 프로토콜은 모든 절차와 동의 양식은 지역 윤리위원회에 의해 승인됩니다. 오른손 partic를 스캔하여 뇌 활성화의 편측화의 혼동을 피하기ipants. 아바타와 이전 경험의 잠재적 인 영향에 대해 제어 할 수 있습니다.
  2. 스캔하기 전에, 참가자는 검사 절차에 대한 정보 연구소, 대상 모니터링 작업에 주어진대로 명확한 지침, 총 스캔 시간과 방법에 필요한 경우 직원을 경고하는 데 익숙해있다.
  3. 스캔, 참가자는 검사 테이블에 눕는있다. 헤드 쿠션은 편안함을 보장하고 스캔 중에 머리의 움직임을 최소화하기 위해 사용됩니다. 참가자는 스캐너 노이즈의 영향을 줄이기 위해 실험자와의 통신을 가능하게하기 위해 귀마개와 헤드폰이 제공됩니다.
  4. 참가자 오른손 대상 모니터링 작업에 대한 응답 패널에 배치됩니다. 참가자가 스캔을 중지하려면해야 왼손 비상 정지 버튼 옆에 배치됩니다.
  5. 시각적 자극은 앞이나 MRI 스캐너의 뒤쪽에 배치 프로젝션 스크린에 표시 될 수 있습니다. - 우리는 MRI-호환 헤드 마운트 디스플레이 ( "VisuaStim 사용디지털 "공명 기술 주식 회사).이 광경​​에서 의도 된 자극 이외의 모든 시각적 입력을 제외 장점이 있습니다.
  6. 데이터 수집을 시작하기 전에, 그 자극 프레 젠 테이션, 응답 패널과 비상 정지 버튼이 제대로 작동을 보장합니다.

매개 변수를 기록하고 검사 3.4 데이터

우리는 3-T 전신 MR 장치 (필립스 의료 시스템, 최고, 네덜란드)를 사용하여 전체 뇌의 구조적, 기능적 이미지를 인수했다. 구조 이미지는 T1-가중 3D, 버릇 그라데이션 에코 펄스 시퀀스 (180 조각, TR = 20 밀리 초, TE = 2.3 밀리 초 = 20 °, FOV = 220mm × 220mm × 135mm, 매트릭스 크기 = 플립 각도를 사용하여 등록 된 224 × 187, 복셀의 크기 = 0.98 mm × 1.18 mm × 0.75 mm, 0.86 mm에 resliced​​ × 0.86 mm × 0.75 mm). 기능적 이미지는 단발 에코 평면 시퀀스를 사용하여 런타임 당 225 전체 머리 스캔 (반복 t에서 취득한IME, TR = 2.6 초, 에코 시간, TE = 35 밀리 초;보기 = 220mm의 필드 × 220mm × 132mm, 플립 각도 = 78 °, 매트릭스 크기 = 80 × 80, 복셀의 크기 = 2.75 mm × 2.75 mm × 4mm는 1.72 mm로 resliced​​ × 1.72 mm × 4mm)를.

3.5 데이터 분석

  1. 우리는 MATLAB 2006B (매스 웍스 주식, 틱, 미국 MA) 및 SPM5 소프트웨어 패키지 (사용 http://fil.ion.ucl.ac.uk/spm 사전 및 MRI 데이터 분석을위한 참조). 전처리는 일반적으로 첫 번째 녹음 볼륨, 모션 보정, 표준 stereotactical 공간으로 정상화에 이미지의 정렬을 수반하고, 평활 (예 : 6mm 3 커널).
  2. fMRI를 데이터 분석은 반복 억제 (RS) (11, 13, 14, 리뷰를, 15, 16 참조)로 불리는 현상을 사용합니다. DHL의 맥락에서 고려 모프 쌍의 모프가 빠르게 연속적으로 표시됩니다. 대표뇌 영역의 활성화 (즉, RS)의 감소의 첫 번째 모프 결과에 제시된 자극이나 자극 속성의 두 번째 모프의 etition은 특정 자극 또는 속성 (예 : 물리적 또는 범주 관련 특성)에 민감한입니다. 이 프로토콜에서는, 첫 번째와 두 번째 모프 사이의 자극이나 자극 속성의 반복은 "내", "사이"에서 조작되고, DHL의 물리적 및 카테고리 관련 속성의 유사성 또는 비 유사성의 관점에서 "같은"조건 . 이러한 조건을 대조하여 fMRI를 데이터 분석은 자극 반복 17, 18, ​​19, 20 다음의 신호 감소 상대적인 차이의 정도를 기준으로 특정 자극이나 물리적 또는 범주와 관련된 자극 속성을 처리에 종사하는 뇌 영역을 식별합니다.
  3. 물리적으로 그리고 자극 컨디셔닝 다음 대비를 사용하여 DHL 따라 범주와 관련된 변화에 반응하는 뇌 영역을 식별기능 (사이에서, 그리고 같은). 이러한 대조는 세 가지면 쌍 조건 (첫 번째 모프는 각각 아바타 인간 실험에서 동일합니다)의 두 번째 얼굴로 사용 모프의 관점에서 정의됩니다. 아바타 시험을위한 물리적 변화에 대한 민감도를 검색하려면, 대비에게 M0 플러스 M8> M4를 사용하고, 인체에 실험에 대한 M12 플러스 M4> M8을 사용합니다. 인간 (즉, 아바타 시험)에 방향 아바타의 경계를 넘어 카테고리 변화에 선택적으로 반응하는 뇌 영역을 감지, 대비 M8> M4 플러스 M0를 사용합니다. 아바타 인간의 방향, 명암 M4> M8 플러스 M12을 사용합니다.
  4. 개인 수준 분석을 위해, 여섯 모프 쌍 조건 (아바타와 인간의 시험을위한 즉, 같은, 내, 그리고 사이)의 각 각 모프 쌍의 두 번째 변신을 각 과목의 fMRI를 응답이 사이의 대조의 두뇌 활동에 사용할 수 있습니다 조건. 이러한 각각의 대조는 다음 그룹 수준 분석의 F에 입력됩니다또는 추론의 목적.

Representative Results

1. 강제 선택 분류 작업

N의 응답 데이터의 분석 = 25 참가자는 이미 7보고되었다. 이것은 각 개별 연속체의 모든 컨티뉴에 걸쳐 장착 회귀 곡선의 기울기는 물류 프로파일 (그림 2A)를 가지고 있음을 확인. 이 기울기는 컨티뉴의 모프 얼굴에 참가자의 응답에 범주 구성 요소의 DHL 함께 존재와 일치하는 S 자 단계와 같은 기능을 반영합니다. 곡선의 기울기는 이렇게 아바타의 하한 및 상한 점근선 또는 아바타와 인간을위한 100 % 100 %에 접근 인간의 분류 응답이 특징입니다. 반면, 분류 응답의 하한 및 상한 점근선 사이의 장착 물류 곡선 좌표의 중간에서 파생 된 의미 범주 경계 값의 추정치는 분류 판단 50 %의 최대 불확실성은 t와 연관되어 있음을 나타냅니다그는 모프 M6.

RT 데이터 분석 7도보고되었다. 모든 모프의 RT 분석 (그림 4 참조) 최대가되는 M6에서 컨티뉴의 아바타와 인간의 끝에서 큰 모프 거리에 RT를 증가하고, 긴 RT를, 컨티뉴의 아바타와 인간의 종료에 대한 짧은 RT를을 보였다 카테고리 의사 결정 응답의 불확실성은 같은 그림 2B에서 볼 수 있습니다. 더 명확하게 찾는 후자를 확인하려면, M6의 평균 RT 값은 다른 모든 모프 위치에서의 평균 RT 값과 비교할 수 있습니다. 편도 RM-ANOVA의 모프의 위치와 분석 (두 레벨 : M6 모든 변경해 대) 종속 변수는 컨티뉴를 통해 붕괴로 및 RT는 M6에 대한 RT (M = 1.42, SD = 0.26)이 대한 RT에서 매우 유의 한 차이 것으로 나타났다 다른 모프 위치 (M = 0.99, SD = 0.46), F (1,24) = 62.04, p <0.001.

함께 캘리포니아를 촬영tegorization 응답 데이터는 응답 데이터와 일치하는 CP의 존재에 대한 첫 번째 기준이 범주 결정의 범주 경계 (모든 기준에 대해, 예를 들어, 11 참조), 그리고 응답 시간이 있는지 즉, 충족되어 있는지 확인한다는 점에서 증가하는 분류의 불확실성에 더 이상 응답 시간을 보여줍니다.

그림 4
긴을 보여주는 강제 선택 분류 작업의 그림 4. 반응 시간 결과, 모프 위치 분류 모호성은 가장되는 M6의 자극에 대한 분류 판단에 대한 응답 지연을 의미합니다. 오차 막대는 ± 1 표준 오차를 표시합니다.

2. 지각 차별 작업

N = 20 참가자의 데이터 분석은 이미 REPO했다7 rted. 예를 들어 사용하는 연구 (그림 5) 아바타 실험에 대한 데이터를 분석 조건에서의 얼굴 쌍 감쇠 차별 정도에 비해 상태 사이에서 범주 경계를 교차 얼굴 쌍을위한 향상된 차별 정확도를 보여 주었다. 이 CP와 일치합니다. 데이터는 동일한 조건에서보다 조건 내 얼굴에 쌍에 대한 더 많은 차별 정확도가 있다는 점에서 범주 내에서 차별 정도에 상당한 차이가 있다는 것을 또한 보여줍니다. 75 300 밀리 초 ISI의 변화는 차동 아니라 인간의 실험에서, 참가자의 응답에 영향을 미쳤다.

그림 5
"동일한 다른"지각 차별 작업 F의 그림 5. 결과또는 아바타 시험. 참가자 (N = 20). 모프 쌍 변경해 물리적 외관에 동일하거나 서로 다른 하였다 여부를 판단. 컨티뉴 따라 변경해 상대 거리를 제어, 결과는 동일한에서 도출 쌍에 비해 범주 경계를 (강제 선택 분류 작업에서 결정된) 교차 얼굴 쌍에 대한 더 나은 차별 정도 (즉, 아바타 또는 인간)의 측면을 보여 경계는, 따라서 인간 형상의 컨티뉴 따라 범주 인식을 보여주는. 75 밀리와 300 밀리의 짧고 긴 ISI의 영향도 테스트 만 아바타 시험에 대한 차별의 성능에 영향을 미치는 것으로 나타났다. 오차 막대는 ± 1 표준 오차를 표시합니다.

응답 편견의 독립적 인 차별의 성능의 척도로 '통계를 사용하여, 얼굴 쌍 시험 유형 (즉, (내 사이)의 차별 감도에 미치는 주 효과는 아바타 시험에서이 있었다F (2,38) '에서 범주 쌍보다 (= 0.89, SD = 0.07 (A 교차 범주에 대한보다 차별 감도)'= 0.55, SD = 0.17) (그림 6 = 107.11, p <0.001, ). 마찬가지로, F (2,38)는 = 인간의 산책로에서 '내 범주 쌍보다 (= 0.94, SD = 0.1 (A 교차 범주에 상당히 큰 차별 감도)'= 0.56, SD는 = 0.22)가 있었다 107.11, p <0.001. ISI에 얼굴 쌍 시험 유형의 아무 효과가 없었다. 응답 바이어스의 척도로 β "D 통계를 사용하여, 얼굴 쌍 시험 유형의 편견에 미치는 주 효과가 있었다 [F (2,38) = 70.53, p <0.001], 판단하는 강한 경향을 보여 참가자 다른 (β로 내 범주의 쌍 "(D = -0.18, p = 0.59 D = 0.81, SD = 0.23) 카테고리 간 쌍 β)에 대한 응답과 비교".이 사기꾼참가자가 동일한 다른 의사 결정에서 범주 쌍에 대한 더 많은 어려운 때 특정 작업에서 "다른"의사 결정을 선호하는 경향이 아이디어 일관된.

그림 6
그림 6. 응답 바이어스의 독립적 인 차별의 성능 (N은 = 20)의 척도로 '통계를 사용하여, 차별 감도는 아바타와 인간의 실험 모두에서 범주 쌍보다 크로스 범주에 대한 컸다. 오차 막대는 ± 1 표준 오차를 표시합니다.

RT 데이터의 분석은 아바타와 인간의 시련 사이의 짧고 긴 ISI 사이에 차이가 없었다. 등 세 가지 자극 쌍 조건 (그림 7 참조), F (2,38) = 34.55, p <0.001 사이에 RT를위한 주요 상당한 영향을가 예상되었다. 사전내 피사체 대조의 계획된 테스트 카테고리 간 얼굴 RT는 (얼굴 쌍 시험 유형 '사이'즉) 상당히 빨라진 것으로 나타났다 (M = 0.79, SE = 0.05) 범주 내에서 얼굴 쌍 RT ( '내보다 '시험 형) (M = 1.26, SE = 0.09) [F (1,19) = 60.09, p <0.001] 및 얼굴 쌍 같은 얼굴 쌍 상태 (M = 0.88, SE = 0.08), F (1, 19) = 43.1, p <0.001.

그림 7
그림 7. 반응 시간 (RT) 아바타 인간 실험에 대해 "동일한 다른"지각 차별 작업 (N은 = 20)의 결과. 그래프는 범주 경계를 교차 자극 쌍 RT는 (조건 사이의 예) AC 내에서 얼굴의 RT보다 짧은 이었다는 것을 보여줍니다ategory. 오차 막대는 ± 1 표준 오차를 표시합니다.

분류 응답 데이터 따라서 범주 내에서 도출 등거리 쌍에 비해 범주 경계를 교차 쌍을위한 더 나은 차별 정확도가 있다는 점에서 CP의 존재에 대한 두 번째 조건을 확인하십시오. 이 범주의 경계에 가까운 물리적 자극 기능에 대한 향상된 감도를 가진 소위 차별 경계가 있다는 것을 보여줍니다. RT 데이터와 범주 얼굴 쌍에 비해 교차 범주에 대한 짧은 응답 대기 시간을 보여주는이 기능을 지원.

이 특정 지각 차별 작업은 DHL에 따라 차별 경계의 특정 지점을 정의하지 않습니다. 제시 모프의 쌍 사이의 매우 작은 모프 거리가이 문제를 해결하는 데 사용할 수 있습니다. 여기에서 우리는 기존의 ABX 차별 작업 12, 13을 사용하는 예를 보여줍니다. ABX 차별이 differen의 순차적 인 프리젠 테이션을 수반A 또는 B가 대상 자극 X.로 이미지 A, B 및 X을 확인한 후, 참가자는 A 또는 B가 X. 동일한 지 여부를 표시하는 데 필요한 두 번째 프레 젠 테이션 뒤에 t 얼굴 자극 (예 모프와 모프 B) 이 예에서는 모프 (예 : 1-3, 2-4, 3-5 등) 사이의 2 단계 차별 절차는 (그림 8B) 제공됩니다. 분석은 8에 설명되어 있습니다. 그림의 목적을 위해 ABX 차별 작업은 Cheetham 7.의 연구에서 도출 엔드 포인트 자극을 사용하여, 4 모프 컨티뉴 11 변경해 각을 사용하여 24 참가자에 수행되었다. ABX 차별 작업에 따라 강제 선택 분류 작업은 동일한 참가자 하였다. 작업 프레 젠 테이션의이 시퀀스는 ABX 차별 작업을하고 명시 적 범주 결정의 영향을 최소화하기 위해 생각됩니다. 그림 8b는 지각 차별 SENS의 피크가 있다는 것을 명확하게 나타냅니다모프 위치에 itivity는에 의해 예측하고 범주 경계 (그림 8A 참조)에 부합. 변경해 성능이 명확하게 변신 한 쌍 M5-M7 사이의 간격에서 확인 할 수있다 차별의 피크 사이의 2 단계 거리를 사용. 원숭이, 소와 컨티뉴의 끝점으로 사람의 얼굴과 인간 형상의 차원에서 도출 ABX 패러다임 모프 자극을 사용하여 결과에 대한 8을 참조하십시오.

그림 8
그림 8. ABX 지각 차별과 강제로 선택 분류 작업의 대표 결과. 패널 B에서 ABX 지각 차별 작업의 2 단계 차별 절차 (예 : 1-3, 2-4, 3-5 등) 지각 차별 감도의 피크가 예상되는 것을 보여줍니다창에 표시된 강제 선택 분류 작업에서 결정된 범주 경계 있습니다. 패널은 네 컨티뉴의 장착 회귀 곡선의 물류 프로필을 보여줍니다. 인간으로 변형 된 얼굴의 분류 판단의 50 %의 최대 불확실성 모프 M6와 연결되어 있습니다.

동일한 다른 차별 작업을 확인하는 차별 경계 범주 경계로 정렬되어 있는지 보여주는 CP의 존재에 대한 세 번째 기준. 즉, 범주 경계의 위치는 차별 경계의 위치를​​ 예측한다.

항상 CP 13, 14의 연구에 적용되지 않는 네 번째 기준은 그 차별의 범주 내에서 기회에서입니다. ABX 디자인을 사용하여 예시의 데이터는 차별이 약간 컨티뉴 끝점 사이에 위치하는 변경해을위한 기회와 고양이 위에 제안egory 경계.

3. fMRI를 작업

물리적 변화 4.3.1 민감도

그러한 변화 방추형 이랑 (그림 9A)의 뇌 영역의 미세 표현에 민감하게 표시됩니다 없습니다 수있는 조건 첫 번째와 두 번째 모프 사이에 물리적 인 변경이되는 조건을 비교하여 아바타 시험에서 얼굴 모프의 물리적 외관에있는 DHL 따라 세분화 변경됩니다. 인체에 실험에 대한 유사한 결과는 그림에 표시되지 않습니다. 이 영역 때문에 얼굴 정보를 처리하는 시각 시스템의 일부로서 그 역할의 방 추상 얼굴 영역으로 언급하고있다. 함께 인체에 실험으로,이 발견은 얼굴 물리적 특성의 차이 23 얼굴 형상 16, 21, 24 및 얼굴 텍스처 21 방추형 영역의보고 반응과 일치한다.

4.3.2 괜찮다카테고리 변경으로 nsitivity

DHL 함께 범주의 변화에 민감 아바타 시험, 뇌 영역의 예제를 사용하여, 9B 쇼를 그림. 이것은 그러한 변화가없는있는 조건 첫 번째와 두 번째 모프 사이에서 카테고리 변경이되는 조건을 비교하여 달성되었다. 영상 데이터는 아바타 시험에서 카테고리 변경 (예 : DHL을 따라 아바타 - 투 - 인간의 방향에서 변경) 해마, 편도체 및 섬엽의 응답을 계시 보여줍니다. 이 지역의 역할은 사용 패러다임과 분류의 맥락에서 해석되어야하고, 이미 7 설명했습니다이 필요합니다. 일반적으로, 편도체는 얼굴, 정서적 원자가, 참신, 불확실성 55, 56, 57, 58, 59에 대응합니다. 편도는 상황 (60)의 정서적 인 의미에 따라 분류와 관련된 다른 뇌 영역의 처리에 영향을 미칠 것이 좋습니다. 에서술라는 지속적으로 불확실성의 조건 61, 62, 63에서 분류 처리 및 처리와 관련하여보고됩니다. 사용되는 패러다임의 맥락에서,이 지역은 분류 처리 63 주의력 자원 향상에 기여할 수 있습니다. 활성화의 특정 영역은 불확실성, 위협, 또는 잠재적 인 위협 64, 65의 존재를 신호와 연관 될 수 있습니다. 해마는 Visual 분류 및 지각 학습 66에 참여하고있다. 인간의 실험에서 카테고리 변경 (DHL 따라 인간 - 투 - 아바타 방향 즉, 변경) 피질, 꼬리의 머리, 그리고 시상은이 조건에 반응하는 것으로 나타났다. 일반적으로,이 지역은 범주 구성원 및 담당자들이 조정을 설정하는 데 사용 가능한 범주 규칙 사이의 전환, 분류 과정, 의사 결정의 불확실성을 카테고리 회원 자격을 신호, 자극 범주 연관 학습과 관련된테드 범주 경계 오류 67, 68, 69, 70을 최소화하기 위해합니다.

다양한 수준과 사용 된 실험 패러다임의 컨텍스트 내에서 이러한 결과의 해석은 아바타와 인간의 얼굴은 지정된 카테고리 (예 : 25)로 이전 분류 경험의 정도에 따라 다른 분류 문제를 나타내는 제안, 참가자는 인간에있는 전문가입니다 얼굴을 처리하지만, 특히 그들이 같은 브리핑에서 확인 아바타 얼굴 (예를 들어, 비디오 게임, 영화, 세컨드 라이프)과, 이전에 우리가 제시 한 종류의 얼굴을 본 적이 없었와 이전 경험의 명시 적 지식을보고하지 않는 기준으로 선정되었다.

그림 9
그림 9. 신체의 신경 상관 관계아바타 시험에서 DHL을 따라 범주의 변화 라. 활성 맵은 관상에 겹쳐있다 (A), 횡단 (B)와 단일 주제의 시상 (C) 조망하실 수 있습니다. 컬러 바는 활성화지도 (P는 <0.005, 20 연속 복셀)의 t 값의 기울기를 의미.

Discussion

기괴한 계곡 가설의 핵심 예측은 긍정적 또는 부정적 valenced 경험인지 인간의 형상 77 (정보 개요에 대해, 78 참조)의 함수로 유발 될 수 있다는 것입니다. 인간의 형상을 실제로 인식하는 방법을주의 깊게 검사 때문에 그 자체로 중요한 연구 사업이다. 마찬가지로 중요한 DHL은 초자연적 인 경험을 실험에 표현하는 방법이다. 이 프로토콜은 DHL에 따라서 초점을 맞추고 있습니다. 한 가지 방법은 이미 "기괴한"연구 5에서 구현 모프 컨티뉴 아,, 6, 26, 27, 28을 사용하여 인간의 형상을 표현하는 것입니다. 모프 컨티뉴의 장점은 사용이 주관적 인식과 경험 (예를 들어 범주 결정, 기괴한 느낌)의 행동 대책과 신경 프로세스는 7 기본과 관계를 가져 할 인간과 외관에 실험적으로 통제 차이를 허용하는 것입니다. 이 세밀한 접근 방식은 일부입니다icularly 중요한 기괴한 계곡 가설이 긍정적 valenced와 기괴한 경험 사이의 전환은 78 발생해야하는 인간 형상의 실제 정도를 예측하지 않기 때문에. 모리의 추측이 맞다면, DHL 7에 따라 분류 처리에 관한 연구 결과는 초자연적 인 경험 지각 결정 모호성이 큰 것입니다 범주 경계에서 발생할 가능성이 가장 높은 것을 제안했다. 이것은 여전히​​ 테스트해야합니다.

모프 컨티뉴, 그리고 관심의 다른 변수 하나 모프 연속보다는 두 개 또는 세 개의 다른 병치 컨티뉴가 5,28를 사용한다를 사용하여 표현되는, DHL과 조사 관계를 해석 할 수 있어야합니다. 병치 컨티뉴을 표현하는 데 실패하고, 효과, DHL에 불연속을 도입하여 인간의 형상의 숲의 개념을 변경합니다. 이것은 지각 차별 작업의 성능에 영향을 미칠 수 있기 때문에 t의 점그는 불연속 모핑 과정에서 발생하는 불균형의이 지각 차별을 안내하는 참조는 신뢰할 수 있으나 실험적 의도하지 않은 점 (참조, 29)로 사용할 수 있습니다. 물리적 변화의 상당 증가는 전체 연속체 5,28 따라 표시되도록 각 모프 연속체 내의 모든 변경해주의 깊게 통제되어야한다. 컨티뉴 따라 모프 거리의 실험 제어 DHL 따라 실제 인간과 같은 유사 선형 차이에 관한 감각 정보를인지 선형 또는 비선형 방식으로 표현되는지 여부 검사를 할 수 있기 때문에,이 프로토콜에 특히 중요합니다. 비선형 (그림 4 5B 참조) 분류 응답 (그림 2A는5A)의 기울기와 DHL을 따라 자극 속성에 대한 지각 민감도의 차이에 단계와 같은 기능에 반영됩니다. 이 Protocol은 더 실험 조작을 적용하지 않고 끝점으로 얼굴을 사용합니다. CP 인간 형상의 추가 연구는 얼굴 텍스쳐 (참조, 30,38)에 비해 다른 얼굴 특징이나 얼굴 형상의 조작의 리얼리즘에 비해 같은 눈 리얼리즘 같은 특정 기능은 차동 DHL 따라 분류 처리에 영향을 미치는 방법을 예를 들어 검사 할 수 있습니다.

모핑 절차는 얼굴 configural 단서로 연속체의 엔드 포인트의 해당 기능을 함께 부드럽게 혼합 할 수 있습니다. 위의 얼굴 특징 및 헤어 프로필 26처럼 얼굴 정보를 모핑 어려움 모핑 절차를 수행하는 동안 기능의 정렬의 불균형에 주목하여 잠재적 인 편견 참가자의 응답이 있습니다. 이 편견은 컨티뉴 엔드 포인트 모프 콘틴의 중간에서 큰되는 불균형에서 모프 거리에 관련되는 모핑 불균형에 체계적으로 될 가능성이 높습니다UA. 우리 모프 컨티뉴를 들어, 컨티뉴의 중간 점은 큰 지각 감도있어 주위의 범주 경계에 해당합니다. 눈 영역 (가난한 변경해 사이에 눈 질감의 정렬에 아주 약간의 불일치의 결과 모핑)도 잘 또는 잘못하고 수정할 수있는 컨티뉴 비해 우리의 파일럿 연구 중 하나 (강제 선택 분류 작업)의 데이터 재분석. 재분석 가난한 효과적으로 차원의 인간의 끝을 향해 카테고리 경계의 상대적 변화를 야기 모핑 있도록 제대로 변신 컨티뉴의 분류 결정 반응의 체계적인 편견을 확인했다. 범퍼 차이는 "비인간 - 정의"기능으로 인식 되었기 때문 아마이었다.

응답 바이어스 컨티뉴 같은 머리 복장과 얼굴 보석 같은 비 얼굴 정보를 하나의 엔드 포인트 자극으로 만 존재하는 엔드 포인트의 자극에 기초하여 생성 사용에서도 발생할 수 있습니다27. 참가자는 연구 분야의 자극 정보보다는 이미지에 제시된 다른 현저한 특징에 참석 있도록이 경우 얼굴 이미지가 잘릴 수 있습니다. 이 이미지는 DHL 6 인간의 끝을 나타 내기위한 경우에도 체계적인 응답 바이어스, 비인간 속성은 인간의 특성과 함께 제공되는 연속체 끝점으로 이미지를 사용에서도 발생할 수 있습니다. 이 경우, 인간의 형상을하고 기괴한 경험 주관적인 조치와 같은 변수 사이의 관계는 DHL의 숲의 개념과 가설 기괴한 계곡의 관점에서 해석 할 수 없습니다.

CP 인간의 형상 31, 10, 22, 32, 33, 34, 35, 및 범주 관련 정보보다 다른 차원에 따라 발생할 수는 자동으로 다른 36 노출시 처리 할 수 있습니다. 이 프로토콜에서는, 치료는 differen의를 나타내는 시각적 단서의 효과를 제어 할 수 있으므로주의해야한다인간의 형상에 관한 참가자들의 반응에 카테고리 관련 다른 차원의 관점에서 DHL 함께 CES. 이 신호는 예를 들어 인종, 성별, 얼굴 특수성, 친숙와 정체성, 그리고 얼굴 표정 (참조, 5, 26, 27, 28)에 관련 될 수 있습니다. 본 프로토콜은 밀접하게 얼굴 형상과 연속 엔드 포인트로 사용되는 이미지의 얼굴 특징의 구성을 일치시켜 지각 차별 태스크와 fMRI를 연구에 빠르게 연속적으로 제시 얼굴 변경해 사이의 생물 모션 인식을 최소화하기 위해 노력한다. 이 방법 (함께 자극 조건에서 사용 변경해의 컨티뉴 따라 상대적 위치에)는 연속체 변경해 사이에 차이가 정체성의 인식을 최소화하는 것도 도움이됩니다.

강제 선택 분류 작업을 연속으로 변경해은 지각 discrim에 사용 변경해을 선택하기 위하여 명확하게 아바타로 분류하고 인간 결정ination 작업과 fMRI를 연구. 우리는 컨티뉴 각 (그림 2B2C)에서 4 개의 변경해 M0, M4, M8과 M12을 선택했습니다. DHL 따라 물리적 변화의 정도에 대한 제어뿐만 아니라, M4 및 M8의 선택은 다음과 같은 이론적 인 고려 사항을 기반으로합니다. 모리 원자가 인간 형상의 관계 (그림 1 참조)의 기울기의 두 양의 피크 사이 DHL 따라 지역에 해당하는 리얼리즘의 수준에서 발생으로 지각 불확실성 (및 관련 기괴한 경험) 설명했다. 이 봉우리에서, 객체는 비인간이나 인간의 하나로 간주된다. 카테고리 처리 프레임 워크의 관점에서 자신의 고려 사항을 프레이밍, 이러한 피크가 제대로 분류 범주 인스턴스 (즉, 인간이 아닌 인간)이 범주 경계를 벌리고하는 인간 형상의 정도를 반영으로 볼 수 있습니다. 그러나 모리 지정하지 않은 방법을 효율적으로이 분류 (즉, 지각 C각 피크 물체의 식별이 명확 상대적으로 효율적이고 손쉽게 간주됩니다하지만 ertainty)는,이 피크에 있어야합니다. 이러한 이유로, 컨티뉴 따라 두 모프 위치는 두 범주 사이에 두 개의 양의 피크는 종종 그렇지 CP 연구 (예 : 66 %, 32로 사용되는 것보다 더 보수적 인 기준을 사용하여 측정 된 반사로의 전환을 정의하는 것으로 간주 34). 따라서, 모프 M4는 시험의 85 % 이상에서 인간으로 시험의 85 % 이상 및 모프 M8의 아바타로 평균에 확인되었다. 이 기준은 하나 연속체 변경해 M4와 M8 모두에 적용됩니다 유의하시기 바랍니다. 이 방법을 사용하여 변경해이 선택은 CP와 가설의 숲의 설명에 대한 이해 양에 따라 인간이 아닌 인간 개체 사이의 DHL 따라 범주 변화의 감각을 포착하고자한다.

이 프로토콜은 동일한 다른 지각 차별의 변형을 사용하여국가 작업 10 CP를 검사한다. 이 작업의 장점은 참가자가 특정 유사점과 차이점을 식별해야합니다 무엇으로 설명을하지 않아도됩니다. 그것은 그들이 단순히 동일하거나 다른 것으로 자극을 식별하는 것이 충분하다. 또한, 참가자는 범주 레이블을 알 필요가 없습니다. 레이블은 같은 ABX 작업으로 차별 작업에 필요한 메모리 부하가 42 증가 할 때 자극을 구별하는 전략으로 사용될 수 있습니다. 동일한 다른 작업이 작업은 자극의 직접적인 비교를 장려하는 메모리 부하가 비교적 낮은 수 있다는 장점을 가지고 있으며. 라벨의 잠재적 영향을 줄이기 위해, 차별 작업은 일반적으로 강제 선택을 결정 작업을 40 전에 표시됩니다. 본 프로토콜은 차별에 대한 두 개의 다른 참가자 그룹을 기반으로하고 선택 의사 결정 작업 7, 41 강제로. 강제 선택 작업이 자극을 선택하는 데 사용되기 때문입니다차별 작업에. 그러나 동일한 참가자가 두 작업 모두에서 테스트 할 경우, 프로토콜은 차별 작업을 강제로 선택 결정 작업하기 전에 수행되도록 수정해야합니다.

고정 차별 디자인이 프로토콜의 동일한 다른 차별 작업에 적용됩니다 (디자인 로빙에 대한 예를 들어 39 참조). 이 M4와 M8은 항상 "동일한"에서 각 자극 쌍의 첫 번째 자극으로 표시 "에서"각각, 아바타와 인간의 실험 조건 "사이"는 것을 의미한다. 이 프로토콜은 각 참가자가 모프 주어진 연속에서 어느 아바타이나 인간 실험 자극 있지만 둘 만 보는 것이 실험 조건을 포함합니다. 예를 들어 아바타 시험을 사용하여 각 자극 쌍의 첫 번째 자극이 두 번째 "내"에서 자극 (즉, M1)와 "사이"(즉, M8) 조건이 동등 수시로 위해 제시하는, 항상 M4 것을 의미주어진 연속, 그리고 더 자극이 특정 연속체에서 인체에 실험을 위해 그려되지 않습니다. 이 방법은 선택적으로 강한 표현을 유도하고 주어진 연속체의 카테고리 간 얼굴 때문에 차별을 촉진하지 않도록하는 것을 목표로하고있다. 카테고리 간 표현 한 실험 블록에 설명 된 아바타와 인간의 시련을 제시 차별에 대한 가능한 영향을 조사, 비교 목적을 위해, 제외하거나, 디자인은 설명 아바타와 인간의 시련에 표시되는 구현 될 수 별도의 블록 (참가자에 걸쳐 순서로 상쇄 블록).

현재 동일한 다른 차별 작업은 1:2 동일 - 투 - 다른 시험의 비율을 가지고 있습니다. (다른 요인도이 편견 44, 51에 영향을 미칠 수 있지만)이 비율은 "다른"의 결정에 찬성 응답 편견을 유도 할 수 있습니다. 신호 탐지 이론 (SDT)에서 파생 된 조치는 종종 disentan하는 데 사용됩니다차별 감각 자극 (개요 참조하십시오, 44)에서 참가자의 감도 (A '또는 D')에서 다른 통해 하나의 응답을 선택하는 GLE 응답 바이어스 (β 또는 c). D로 53 '은 SDT 가정 (52)의 위반으로 인해 응답 바이어스에 따라 달라질 수 있습니다, 우리는 감성의 비모수 적 측정을 사용'. 응답 바이어스 우리는 β "D 47를 사용했습니다. 또는 C가 43, 44이 추천되었습니다, 그것은 D '54 변화의 독립적 부분적으로 때문입니다. 전반적으로, 본 결과에서 범주의 자극에 비해 범주 경계를 벌리고 모프 자극에 대한 큰 인식 감도를 나타냅니다.

이 프로토콜에서 차별 작업 모프의 선택은 작업 컨티뉴 함께 떨어져 네 단계 (아르 모프 사이의 차별을해야 함을 의미합니다 즉, 4 단계 discrimination) 그림 2B를 참조하십시오. 그러나 변경해 사이의 차이점이 네 단계 정도 차별 (차별 경계를 즉) (그림 5B) 가장 강화되는 실제 모프 위치의 더 나은 스펙을 할 수 있도록 너무 큽니다. CP (다른 기준을 위해, 예를 들어, 11 참조)에 대한 중요한 기준은 강제 선택 작업의 범주 경계와 차별 작업의 차별 경계 사이의 정렬이 있다는 것입니다. 즉, 범주 경계의 모프 위치는 차별 경계의 모프의 위치를​​ 예측해야한다. 정렬의 특정 지점을 확인하는 한 가지 방법은 모프의 쌍 사이 모프 거리가 감소되는 차별 작업을 사용하는 것입니다. 그림의 목적을 위해, 그림 5b는 동일한 다른 차별 작업에 가능한 대안, 기존의 ABX 차별로 사용하여 시험 데이터의 결과를 보여줍니다작업 12, 13. 그림의 범주 경계에 의해 예측 모프 위치에 지각 차별 감도의 피크가 있다는 것을 명확하게 나타냅니다. 참가자 분석에서 SDT의 응용 프로그램의 큰 숫자와 함께 연구에서 이러한 결과를 더 DHL 따라 CP의 효과의 발견을 확인합니다. 컨티뉴 엔드 포인트의 자극, 연속 생성 모프의 수와 차별되는 변경해있는 단계의 크기의 실제 선택은 강하게 인식에 영향을 미칠 것이다 참가자와 함께 모프를 구별하는 자신의 능력에 배치 요구 컨티뉴.

CP 중 하나 고전적인 기준은 범주 경계의 위치가 실제 차별 성능 피크 (차별 경계를 즉) 80의 위치를 예측한다는 것입니다. 이 틀림 CP 81의 가장 중요한 기준이다. 이 예측의 결정적인 테스트는 실험 DESI이 필요합니다GN하는 함께 모프 연속체의 전체 길이를 나타내는 모든 모프 쌍은 피크의 실제 위치를 결정하기 위해 차별 작업에 제시되어있다. 38 차별 성능은 모프 컨티뉴의 특정 세그먼트에 기초하여 조사 하였다. 이것은이 차례로 어려운 결론적으로 CP를 확인하기 위해 렌더링 성능의 실제 피크의 실제 위치가 누락되었을 수도 있다는 것을 의미 할 수 있습니다. 그것은 Lieberman는 심지어 초기 CP 연구. 82 연구 예측 및 수렴 차별의 성능 실제 피크 엄격한 기준을 가지고 충족하는 데 실패하고, 다른 연구자들은 (엄격 예를 들어 11이 기준을 적용하지 않은 것을 주목해야한다, 참조 80). 최고 성능의 실제 위치를 결정하는 것은이 기준의 자유주의 ​​해석이 적용되는 경우에도 역시 중요합니다. 모프 연속체의 전체 길이를 검사또한 다음과 같이 데이터의 검사를 가능하게하는 장점은 모핑 프로 시저에서 결과 인위적으로 예를 들어 인해 기대에 반하는 점에서 성능이 피크가 있는지있다.

답변뿐만 아니라, 강제 선택 분류 작업의 응답 시간 (RT) 데이터 "아바타"또는 "사람"으로 자극을 분류하는 자극 정보와 경쟁 반응 경향의인지 처리의 어려움 지표로 유용합니다 70, 71. RT 따라서이나 범주의 경계에 가장 가까운 위치에 자극의 분류 판단에 대한 긴해야한다. 그림 4 보여준다이 경우입니다. 함께 촬영 응답 기능과 범주 판단의 RT 데이터의 형태는 개별 범주 자극의 할당이 어려움을 처리 큰 차이가 될 수 있습니다 보여줍니다. RT를 평가하려면이 프로토콜은 간략히으로 분류하는 동안 응답하는 참가자를 지시ckly하고 정확하게 가능한. 응답 72, 73 속도 정확도 트레이드 오프의 잠재적 인 영향을 감안할 때, 우리는 조사하고 발표를 식별하는 지침에 의해 영향을받지되고, 아바타 인간의 범주에 반응 함수의 모양과 위치가 매우 강력한입니다 파일럿 테스트에서 발견 모프 자극도 빨리하고 정확하게 가능한 또는 단순히 가능한 한 정확하게. 이것은이 제안은 더 철저하게 테스트 할 수 있지만 참가자는 일반적으로 정확성을 위해 가중치를 결정 전략을 사용하는 것이 좋습니다 것입니다. 인간의 이미지에서 인간과 객체를 구별하는 어려움에 부정적인 valenced 경험을 불러 일으킬 수있는 모리의 가설을 유지, 그것은 인간과 자극에 대한 이상 RT가 부정적인 영향의 측정과 연결되어 있는지 여부를 설정하는 것이 재미있을 것이다. RT 데이터도 수집하고 동일한 다른 차별 작업에 대해 분석 하였다. RT는 응답 데이터 80을 지원하는 데 사용되었습니다. ABX t에 대비부탁 동일한 다른 작업은 RT 측정을위한 명확한 시점을 제공합니다. RT는이 작업을 75, 76 요인에 의해 영향을받을 수 있기 때문에 RT 데이터의 해석이 동일한 다른 판단을 위해 복잡 할 수 있지만 정확한 반응의 RT는 74에서 - 쌍 사이보다 더 짧은이어야한다. RT 데이터는 덜 어려운 크로스 카테고리 의사 결정이보다 신속하게 내에서 범주를 결정한다 (그림 7 참조)보다 만들어지는 아이디어 그러나 일치한다.

그것은 모리의 가설 신체적 특징이 실제로 인간의 범주 내에서 DHL (그림 2) 7에 따라 달라질 수있는 가능성을 고려하지 않는 것을 지적해야한다. 이 가설의 원래 원자가 인간 형상의 관계에있는 두 번째 긍정적 인 피크 DHL (그림 1)의 인간의 끝에 위치 이유입니다. DHL의 인간이 아닌 측면에 대한 강조는 영향력있는 한다른 연구는 DHL 3의 인간 측면을 표현하는 하나의 인간의 얼굴을 사용하는 동안, 모프 컨티뉴 4, 37 사용하지 않은 연구를 포함하여 가설의 인도 연구에서 재판. 이러한 연구는 불분명 결과, 초자연적 인 경험을 조사하기 위해 노력했다. CP에 관한 연구 결과는이 연구가 DHL에 따라 범주 모호성에 대한 응답으로 지각 의사 결정과 갈등 해결의 과정을 암시 적으로 또는 명시 적 프로세스를 연상하는 데 필요한 자극을 제시하지 않았을 것이 좋습니다.

이 프로토콜은 DHL을 나타내는 컨티뉴에서 가져온 변경해은 fMRI를 함께 식별하는 데 사용하고 반복 억제, 실제 인간과 유사성의 변경 및 카테고리 관련 정보를 변경하는 중요한 뇌 영역의 효과를 사용할 수있는 방법의 예를 보여줍니다. fMRI를 디자인의 효과는 모프 자극에주의 생성 및 선택에 의해 강하게 영향을 받는다. 강제 최CE 및 지각 차별 작업은 따라서 아바타 인간 분류 곡선 (응답 기능 즉, 기울기)의 모양과 차별의 성능 컨티뉴 사이의 비교를 보장하기 위해 사용되었다. 이 fMRI를 디자인의 장점은, 그것은 모리 (그들의 인간의 대응과는 외모의 미묘하게 다른 새로운 인간이 아닌 사물의 즉, 수동적 인 관찰)에 의해 기술 된 자극 조건이 fMRI를 방법론의 제약 조건 내에서 시뮬레이션 할 수 있다는 것입니다 DHL 따라 물리적 변화의 효과를 제어하면서 인간 형상의 가설 '정의에 따라 선택 자극 및 범주 처리 효과 조사를 사용하여. fMRI를 패러다임은 초자연적 인 경험을 조사하도록 설계되지 않았습니다, 그러나 범주의 경계 자체 예를 들어 관련된 정서적 경험을 조사하기 위해 적용 할 수 있습니다. 이것은 뇌의 categor의 효과를 조사하기위한 중요한 단계가 될 것입니다DHL에서 도출 자극에 대한 정서적 경험과 관련하여 Y 처리 및 범주 모호성.

Disclosures

관심 없음 충돌 선언하지 않습니다.

Acknowledgments

이 작품은 유럽 연합 (EU) FET 통합 프로젝트 PRESENCCIA (계약 번호 27731)에 의해 지원 연구를 기반으로합니다.

Materials

Name Company Catalog Number Comments
Funmorph Zealsoft Inc.
Poser 7 Smith Micro Software www.smithmicro.com
Adobe; Photoshop; CS3 Adobe www.adobe.com
Presentation; software Version 14.1, www.neurobs.com
SPSS Version 16 www.ibm.com/software/analytics/spss
MRI-compatible head-mounted display Resonance Technology Inc. "VisuaStim - Digital"
3-T whole-body MR unit Philips Medical Systems
MATLAB 2006b Mathworks Inc.
SPM5 software package http://fil.ion.ucl.ac.uk/spm

DOWNLOAD MATERIALS LIST

References

  1. Mori, M. Bukimi no tani [The uncanny valley. Energy. 7, 33-35 (1970).
  2. Androids as an experimental apparatus: Why is there an uncanny valley and can we exploit it?. MacDorman, K. Toward Social Mechanisms of Android Science: A CogSci 2005 Workshop, 106-118 (2005).
  3. Tinwell, A., Grimshaw, M., Williams, A. The uncanny wall. International Journal of Arts and Technology. 4, 326-341 (2011).
  4. Tinwell, A. Uncanny as usability obstacle. HCI. 12, 622-631 (2009).
  5. MacDorman, K. F., Ishiguro, H. The uncanny advantage of using androids in cognitive and social science research. Interaction Studies. 7, 297-337 (2006).
  6. Upending the uncanny valley. Hanson, D., Olney, A., Prillman, S., Mathews, E., Zielke, M., Hammons, D., Fernandez, R., Stephanou, H. E. 20th National Conf. on Artificial Intelligence and the 17th Innovative Applications of Artificial Intelligence Conf, 1728-1729 (2005).
  7. Cheetham, M., Suter, P., Jancke, L. The human likeness dimension of the "uncanny valley hypothesis": behavioral and functional MRI findings. Front Hum. Neurosci. 5, 126 (2011).
  8. Campbell, R., Pascalis, O., Coleman, M., Wallace, S. B., Benson, P. J. Are faces of different species perceived categorically by human observers? Proc. Biol. Sci. 264, 1429-1434 (1997).
  9. Finney, D. J. Probit analysis. (1964).
  10. Angeli, A., Davidoff, J., Valentine, T. Face familiarity, distinctiveness, and categorical perception. Q.J. Exp. Psychol. (Hove). 61, 690-707 (2008).
  11. Studdert-Kennedy, M., Liberman, A. M., Harris, K. S., Cooper, F. S. Theoretical notes. Motor theory of speech perception: a reply to Lane's critical review. Psychol. Rev. 77, 234-249 (1970).
  12. Liberman, A. M., Hariris, K. S., Hoffman, H. S., Griffith, B. C. The discrimination of speech sounds within and across phoneme boundaries. J. Exp. Psychol. 54, 358-368 (1957).
  13. Harnad, S. R. Introduction: Psychological and cognitive aspects of categorical perception: A critical overview. In: Categorical perception: The groundwork of cognition. Harnad, S. R. Cambridge University Press. New York. 1-25 (1987).
  14. Repp, B. H. Categorical perception: Issues, methods, findings. Speech Lang. Adv. Basic Res. Pract. 10, 243-335 (1984).
  15. Grill-Spector, K., Henson, R., Martin, A. Repetition and the brain: neural models of stimulus-specific effects. Trends. Cogn. Sci. 10, 14-23 (2006).
  16. Jiang, X., Rosen, E., Zeffiro, T., Vanmeter, J., Blanz, V., Riesenhuber, M. Evaluation of a shape-based model of human face discrimination using FMRI and behavioral techniques. Neuron. 50, 159-172 (2006).
  17. Henson, R. N. Neuroimaging studies of priming. Prog. Neurobiol. 70, 53-81 (2003).
  18. Grill-Spector, K., Malach, R. fMR-adaptation: a tool for studying the functional properties of human cortical neurons. Acta. Psychol. (Amst). 107, 293-321 (2001).
  19. Jiang, X., Bradley, E., Rini, R. A., Zeffiro, T., Vanmeter, J., Riesenhuber, M. Categorization training results in shape- and category-selective human neural plasticity. Neuron. 53, 891-903 (2007).
  20. van der Linden, M., van Turennout, M., Indefrey, P. Formation of category representations in superior temporal sulcus. J. Cogn. Neurosci. 22, 1270-1282 (2010).
  21. Jiang, F., Dricot, L., Blanz, V., Goebel, R., Rossion, B. Neural correlates of shape and surface reflectance information in individual faces. Neuroscience. 163, 1078-1091 (2009).
  22. Rotshtein, P., Henson, R. N., Treves, A., Driver, J., Dolan, R. J. Morphing Marilyn into Maggie dissociates physical and identity face representations in the brain. Nat. Neurosci. 8, 107-113 (2005).
  23. Xu, X., Yue, X., Lescroart, M. D., Biederman, I., Kim, J. G. Adaptation in the fusiform face area (FFA): image or person. Vision Res. 49, 2800-2807 (2009).
  24. Liu, X., Steinmetz, N. A., Farley, A. B., Smith, C. D., Joseph, J. E. Mid-fusiform activation during object discrimination reflects the process of differentiating structural descriptions. J. Cogn. Neurosci. 20, 1711-1726 (2008).
  25. Poldrack, R. A., Prabhakaran, V., Seger, C. A., Gabrieli, J. D. Striatal activation during acquisition of a cognitive skill. Neuropsychology. 13, 564-574 (1999).
  26. Ho, C. C., MacDorman, K. F., Pramono, Z. A. D. Human emotion and the uncanny valley: A GLM, MDS, and isomap analysis of robot video ratings. ACM/IEEE international conference on human-robot interaction, 169-176 (2008).
  27. Seyama, J., Nagayama, R. S. The Uncanny Valley: Effect of Realism on the Impression of Artificial Human Faces. Presence: Teleoperators and Virtual Environments. 16, 337-351 (2007).
  28. Hanson, D. Exploring the aesthetic range for humanoid robots. CogSci Workshop: Toward Social Mechanisms of Android Science, (2006).
  29. Pastore, R. E. Categorical perception: Some psychophysical models. Categorical perception: The groundwork of cognition. Harnad, S. New York. 29-52 (1987).
  30. MacDorman, K. F., Green, R. D., Ho, C. C., Koch, C. T. Too real for comfort? Uncanny responses to computer generated faces. Computers in Human Behavior. 25, 695-710 (2009).
  31. Levin, D. T. Race as a visual feature: using visual search and perceptual discrimination tasks to understand face categories and the cross-race recognition deficit. J. Exp. Psychol. Gen. 129, 559-574 (2000).
  32. Beale, J. M., Keil, F. C. Categorical effects in the perception of faces. Cognition. 57, 217-239 (1995).
  33. Calder, A. J., Young, A. W., Perrett, D. I., Etcoff, N. L., Rowland, D. Categorical perception of morphed facial expressions. Visual Cognition. 3, 81-117 (1996).
  34. Etcoff, N. L., Magee, J. J. Categorical perception of facial expressions. Cognition. 44, 227-240 (1992).
  35. Campanella, S., Quinet, P., Bruyer, R., Crommelinck, M., Guerit, J. M. Categorical perception of happiness and fear facial expressions: an ERP study. J. Cogn. Neurosci. 14, 210-227 (2002).
  36. Macrae, C. N., Bodenhausen, G. V. Social cognition: thinking categorically about others. Annu. Rev. Psychol. 51, 93-120 (2000).
  37. Schneider, E., Wang, Y., Yang, S. Exploring the Uncanny Valley with Japanese Video Game Characters. Conference proceedings of DIGRA 2007, SMU Press. (2007).
  38. Looser, C. E., Wheatley, T. The tipping point of animacy: How, when, and where we perceive life in a face. Psychological Science. 21, 1854-1862 (2010).
  39. Macmillan, N. A., Goldberg, R. F., Braida, L. D. Resolution for Speech Sounds: Basic sensitivity and context memory on vowel and consonant continua. Journal of the Acoustical Society of America. 84, 1262-1280 (1988).
  40. Newell, F. N., Bulthoff, H. H. Cognition Categorical perception of familiar objects. Cognition. 85, 113-143 (2002).
  41. Rotshtein, P., Henson, R. N., Treves, A., Driver, J., Dolan, R. J. Morphing Marilyn into Maggie dissociates physical and identity face representations in the brain. Nat. Neurosci. 8, 107-113 (2005).
  42. Massaro, D. W., Cohen, M. M. Categorical or continuous speech perception: A new test. Speech Communication. 2, 15-35 (1983).
  43. Snodgrass, J. G., Corwin, J. Pragmatics of measuring recognition memory: Applications to dementia and amnesia. Journal of Experimental Psychology: Genera. 117, 34-50 (1988).
  44. Macmillan, N. A., Creelman, C. D. Detection theory: A user's guide. Cambridge University Press. Cambridge. (1991).
  45. Snodgrass, J. G., Levy-Berger, G., Haydon, M. Human experimental psychology. Oxford University Press. New York. (1985).
  46. Donaldson, W. Accuracy of d' and A' as estimates of sensitivity. Bulletin of the Psychonomic Society. 31, 271-274 (1993).
  47. Donaldson, W. Measuring recognition memory. Journal of Experimental Psychology: General. 121, 275-278 (1992).
  48. Stanislaw, H., Todorov, N. Calculation of signal detection theory measures. Behavior Research Methods, Instruments, & Computers. 31, 137-149 (1999).
  49. Wright, D. B., Horry, R., Skagerberg, E. M. Functions for traditional and multilevel approaches to signal detection theory. Behavior Research Methods. 41, 257-267 (2009).
  50. Sorkin, R. D. Spreadsheet signal detection. Behavior Research Methods, Instruments, & Computers. 31, (1), 6-54 (1999).
  51. Verde, M. F., Macmillan, N. A., Rotello, C. M. Measures of sensitivity based on a single hit rate and false-alarm rate: The accuracy, precision, and robustness of d', Az, and A'. Perception & Psychophysics. 68, 643-654 (2006).
  52. Swets, J. A. Form of empirical ROCs in discrimination and diagnostic tasks: Implications for theory and measurement of performance. Psychological Bulletin. 99, 181-198 (1986).
  53. Pollack, I., Norman, D. A. A nonparametric analysis of recognition experiments. Psychonomic Science. 1, 125-126 (1964).
  54. Macmillan, N. A. Signal detection theory as data analysis method and psychological decision model. A handbook for data analysis in the behavioral sciences: Methodological issues. Keren, G., Lewis, C. Erlbaum. Hillsdale, NJ. 21-57 (1993).
  55. Todorov, A., Engell, A. The role of the amygdala in implicit evaluation of emotionally neutral faces. Soc. Cogn. Affect. Neurosci. 3, 303-312 (2008).
  56. Phelps, E. A., LeDoux, J. E. Contributions of the amygdala to emotion processing: from animal models to human behavior. Neuron. 48, 175-187 (2005).
  57. Herwig, U., Kaffenberger, T., Baumgartner, T., Jancke, L. Neural correlates of a "pessimistic" attitude when anticipating events of unknown emotional valence. Neuroimage. 34, 848-858 (2007).
  58. Levy, I., Snell, J., Nelson, A. J., Rustichini, A., Glimcher, P. W. Neural representation of subjective value under risk and ambiguity. 103, 1036-1047 (2010).
  59. Neta, M., Whalen, P. J. The primacy of negative interpretations when resolving the valence of ambiguous facial expressions. Psychol. Sci. 21, 901-907 (2010).
  60. Seger, C. A., Miller, E. K. Category learning in the brain. Annu. Rev. Neurosci. 33, 203-219 (2010).
  61. Volz, K. G., Schubotz, R. I., von Cramon, D. Y. Predicting events of varying probability: uncertainty investigated by fMRI. Neuroimage. 19, (1), 271-280 (2003).
  62. Grinband, J., Hirsch, J., Ferrera, V. P. A neural representation of categorization uncertainty in the human brain. Neuron. 49, 757-763 (2006).
  63. Heekeren, H. R., Marrett, S., Ungerleider, L. G. The neural systems that mediate human perceptual decision making. Nat. Rev. Neurosci. 9, 467-479 (2008).
  64. Gray, M. A., Critchley, H. D. Interoceptive basis to craving. Neuron. 54, 183-186 (2007).
  65. Wager, T. D., Phan, K. L., Liberzon, I., Taylor, S. F. Valence, gender, and lateralization of functional brain anatomy in emotion: a meta-analysis of findings from neuroimaging. Neuroimage. 19, 513-531 (2003).
  66. Poldrack, R. A., Rodriguez, P. How do memory systems interact? Evidence from human classification learning. Neurobiol. Learn. Mem. 82, 324-332 (2004).
  67. Seger, C. A., Cincotta, C. M. The roles of the caudate nucleus in human classification learning. J. Neurosci. 25, 2941-2951 (2005).
  68. Seger, C. A., Peterson, E. J., Cincotta, C. M., Lopez-Paniagua, D., Anderson, C. W. Dissociating the contributions of independent corticostriatal systems to visual categorization learning through the use of reinforcement learning modeling and Granger causality modeling. Neuroimage. 50, 644-656 (2010).
  69. Filoteo, J. V., Maddox, W. T., Salmon, D. P., Song, D. D. Information-integration category learning in patients with striatal dysfunction. Neuropsychology. 19, 212-222 (2005).
  70. Bonnet, C., Fauquet Ars, J., Estaún Ferrer, S. Reaction times as a measure of uncertainty. Psicothema. 20, (1), 43-48 (2008).
  71. Hyman, R. Stimulus information as a determinant of reaction time. J. Exp. Psychol. 45, 188-196 (1953).
  72. Wickelgren, W. A. Speed-accuracy tradeoff and information processing dynamics. Acta. Psychologica. 41, 67-85 (1977).
  73. Zacksenhouse, M., Bogacz, R., Holmes, P. Robust versus optimal strategies for two-alternative forced choice tasks. Journal of Mathematical Psychology. 54, (2), 230-246 (2010).
  74. Campanella, S., Chrysochoos, A., Bruyer, R. Categorical perception of facial gender information: Behavioural evidence and the face-space metaphor. Visual Cognition. 8, 237-262 (2001).
  75. Farrell, B. 'Same - different' judgments: A review of current controversies in perceptual comparisons. Psychological Bulletin. 98, 419-456 (1985).
  76. Palmer, J., Huk, A. C., et al. The effect of stimulus strength on the speed and accuracy of a perceptual decision. J. Vision. 5, 376-404 (2005).
  77. Mori, M. The uncanny valley (K. F. MacDorman & Norri Kageki, Trans.). IEEE Robotics and Automation. 19, (2), 98-100 (1970).
  78. MacDorman, K., Green, R., Ho, C. -C., Koch, C. Too real for comfort? Uncanny responses to computer generated faces. Comput. Hum. Behav. 25, 695-710 (2009).
  79. Grier, J. B. Nonparametric indexes for sensitivity and bias - computing formulas. Psychological Bulletin. 75, (6), 424-429 (1971).
  80. Repp, B. H. Categorical perception: Issues, methods and findings. Speech and language: Advances in basic research and practice. Lass, N. 10, Academic Press. Orlando, FL. 244-335 (1984).
  81. de Gelder, B., Teunisse, J. P., Benson, P. J. Categorical perception of facial expressions: Categories and their internal structure'. Cognition and Emotion. 11, (1), 1-23 (1997).
  82. Liberman, A. M., Harris, K., Hoffmann, H. S., Griffith, B. The discrimination of speech sounds within and across phoneme boundaries. J. Exp. Psychol. 54, 358-368 (1957).

Comments

0 Comments


    Post a Question / Comment / Request

    You must be signed in to post a comment. Please or create an account.

    Usage Statistics