Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

가상-손과 가상 얼굴 환상을 만드는 것은 자기 표현을 조사하기

doi: 10.3791/54784 Published: March 1, 2017

Summary

여기, 우리는 가상 손과 몸 관련 자기 인식 / -representation을 연구하는 데 사용할 수있는 가상 얼굴 환상의 패러다임을 설명합니다. 이들은 이미 특정 조건 하에서, 가상 손이나 얼굴 본체 표현 오히려가요임을 시사의 몸 표현으로 통합 될 수 있다는 것을 보여주기를 위해 다양한 연구에 사용되었다.

Abstract

사람들은 자신과 자신의 몸을 표현하는 방법을 조사 연구는 종종 기존의 고무 손 환상 또는 더 최근에 발견 된 enfacement 환상으로 "소유권 환상"의 변형을 사용합니다. 그러나, 이러한 예는 참가자가 쓰다듬어를 통제하거나 실제 또는 인공 이펙터의 움직임이없는 한 인공 이펙터는 참가자들의 실제 손이나 얼굴-상황과 동시성에 쓰다해야하는 오히려 인공 실험 설정을 필요로 . 여기, 우리는 더 직관적, 현실, 그리고 아마도 더 높은 생태 유효하다 셋업에 소유권 환상을 설정하는 방법을 설명합니다. 그것은 참가자가 화면 또는 그들의 앞에 가상 공간에 제시된 가상 손의 움직임을 제어함으로써 가상 손 환상을 만들 수 있습니다. 가상 손 참가자 '자신의 실제 손으로 동시성으로 이동하는 경우, 그들은 t 인식하는 경향이자신의 몸의 한 부분으로 그는 가상의 손입니다. 이 기술은 또한, 참가자들은 그들의 실제 얼굴 동시성으로 이동하면 자신로서 얼굴을 인식하는 경향 효과 다시 그들 앞에 가상면의 움직임을 제어하는 데에 의해 가상면 환상을 생성한다. 이런 종류의 환상이 생성 증가, 또는 사람들이 만들고 자신의 표현을 유지하는 방법에 대한 중요한 정보를 제공 줄일 수있는 상황을 공부.

Introduction

서양 철학에 따르면, 인간 자아는 두 가지 측면 1로 구성되어, 우리가 지금 여기, 놀라운 자기 표현을 생성하는 우리 자신의 몸과 우리의 활동을 감지 한은 (종종 최소한의 자기라고도 함). 또, 우리는 신흥 자기 개념에 대한 새로운 정보를 통합, 우리의 개인적인 역사에 대한 정보를 저장하여 자신의 더 지속적인 표현을 만들고, 소위 이야기 자체의 생성에 금액을 따라 우리의 사회 환경, 자신을 제시한다. 최소 또는 현상 자체는 정보의 두 소스에서 나오는 것을 주장하고있다. 하나는 우리가 소유하고있는 이펙터 또는 우리의 얼굴의 모양에 대한 정보와 같은 우리 몸의 이상 지속되는 측면에 대한 하향식 정보입니다. 다른 하나는 현재의 상황에 대한 인식 자체가 제공하는 상향식 정보이다.

후자의 조사는 stron했다의 Gly Botvinick와 코헨 (2)의 교묘 한 연구에서 영감을. 그러나보기에서 숨겨진 그들의 진짜 손 중 하나에 가까운 그들 앞의 거짓말 고무 손으로 인간의 참가자를 발표 이러한 저자. 실제 손과 고무 손이 너무 복합 동기 입력을 생성, 동시성에 쓰다 때, 참가자들은 자신의 몸 고무 손 환상의 일환으로 고무 손을 인식하는 경향이 있었다. 또한 연구는인지 소유권도 "상처"지금까지 참가자가 땀과 고무 손이되고, 그렇지 않으면 칼에 의해 공격이나되는 때 그들의 진짜 손을 인출하려고 시작할 것이라고 갔다 것으로 나타났다 3.

Botvinick와 코헨은 상향식 정보의 처리에서 그 자체 지각 발생을 입증하기 위해 자신의 연구 결과를 해석하고 있지만, 다른 저자는 주장이 복합 synchr 사이의 상호 작용에서 고무 손 환상 결과입력 정보의 상향식 소스 및 자신의 손에 저장된 표현 정보 (4)의 위에서 아래로 소스 ONY. 아이디어는 자극 동시성이 실제와 고무 손 하나 인상과 같은 일을 생성하고, 고무 손이 인상이 현실을 고려, 실제 손처럼 보이는 주어진 것입니다.

Kalckert 및 Ehrsson 5 나중에 조사 visuo 모터 모두 인식 소유권 (인공 이펙터는 자신의 신체에 속하는 노출)의 조사를 허용 고무 손 패러다임 요소 및 인식기구 (하나는 인상을 첨가 관찰 된 움직임 자신을) 생산. 참가자들은 자신의 검지 손가락을 이동하여 상하 고무 손의 집게 손가락을 움직일 수 있었고, 실제 고무 손의 손가락의 움직임 사이의 동시성 (액티브 모드 대 수동) 운동 모드와 positionin고무 손 g (참가자의 손에 관해서는 일치하는 대 부조리)을 조작 하였다. 운동의 동시성 소유권 및 기관, 운동 만 영향을받는 기관의 모드의 두 감각을 폐지하고, 고무 손 위치의 일치 성이 영향을에 있었을 때 : 연구 결과는 기관과 소유권이 기능적으로 별개의인지 적 현상이라는 개념에 대한 지원을 제공하기 위해 찍은 소유권 만. 후자의 두 가지 결과는 수직면에서 진짜 고무 손 사이의 거리가 6 변화하는 후속 연구에서 복제되었다 : 위치 점점 참가자의 실제 손 일치하지 같이 고무 손 소유 감소. 그러나 기관은 어떤 조건에서 고무 손의 오 배치에 의해 영향을받지 않았다.

그러나 인공 이펙터 위에 능동 제어와 참가자를 제공하는 가상 현실 기술을 이용한 최근의 연구 결과가 나왔다하는 하향식 역할부분 소유권 및 기관 사이의 구별은, 8 7 과대 평가되었을 수 있습니다. 이러한 기술은 그 앞의 화면 또는 가상 현실 유리 구에 의하여 참가자에게 표시 가상 손 고무 손을 대체하고있다. 참가자들은 일반적으로 (눈에 띄는 지연, 예를 들면) 중 동기 또는 비동기, 가상 손의 움직임에 참가자의 실제 손의 움직임을 변환하는 dataglove을 착용하십시오. 고무 손 환상과 유사하게, 동시 통역 용 강하게 가상의 손을 자신의 본체 (10)의 일부가되는 참가자의 인상을 증가시킨다.

고무 손 환상을 만드는 가상 현실 기술을 사용하면 기존의 고무 손 패러다임과 visuo 모터 componen와 고무 손 패러다임의 조합 모두에 비해 여러 가지 장점이 있습니다TS 11. 하나의 손을 이동하고 고무 손에 직면하고 실험자에 의해 쓰다 것보다 훨씬 더 자연스러운 상황을 만들어 함께 동시성 이동 이펙터를보고. 또한, 가상 조작은 훨씬 더 실험적인 유연성과 지각과 자신의 실제 손과 인공 이펙터에 의해 생성 된 이벤트 중 하나의 지각 이동과 지각의 관계를 통해 더 많은 제어 실험자를 제공합니다. 특히, 가상 기술을 이용하여 인식 소유권 기관에 영향을 미칠 가능성이 요소의 조작을 용이하게한다. 예를 들어, 가상의 손의 형상이 훨씬 쉽고 고무 손의 형상을보다 빠르게 변형 될 수 있고, 가상의 손의 움직임이 어떠한 수 있으며 예를 들어 생물학적 불가능한 움직임을 포함 할 수있다. 무엇보다도,이 인공 이펙터 손 같을 필요는없고 REPLAC 수있는 바와 같이, 환상의 한계를 탐구 용이정적 또는 동적 이벤트의 종류에 의해 에드. 모두 실용적이고 이론적 인 관심, 가상 이펙터는 많이 더 몰입 틀림이며, 현재의 상황을 이해하기 위해 하향식 해석을 호출 할 필요성을 줄일 가능성이 고무 손보다 훨씬 더 진짜 느낀다.

소유권 환상은, 그러나, 손에 한정되지 않았다. TSAKIRIS 12 그들 앞에 표시 화상의 정적 얼굴 자신임을 참가자의 노출을 만들 스트로 킹 기법을 사용하는 첫번째이었다. 스포르차 등. 13은 또한 그들은 enfacement로 참조하는 데,이 현상에 대한 증거를 발견 : 파트너의 얼굴 특징 통합 참가자들은 자신과 파트너의 얼굴은 동시성에 접촉했을 때. enfacement 환상의 기초가되는 신경 메커니즘은 최근 여러 연구자들에 의해 연구되었다; 포괄적 인 해설과 인터넷 용결과의 erpretation는 Bufalari 등의 알을 참조하십시오. 14. 최근 참가자들이 자신의 헤드 (15)를 이동하여 그 앞의 가상면의 움직임을 제어하는 가상 현실 버전 (가상면 환상)로 정규 enfacement 환상 설계되어있다.

여기서는 자기 표현을 조사하기 위해, 각각의 가상 손 환상 (7)와 환상 가상면 (15) 패러다임을 사용하는 두 가지 실험을 설명한다. 가상 손 실험은 세 완전히 넘어 실험적인 요소를 포함한다 : (a) (펠트) 실제 손과 같은 소유권 및 기관 또는 3 초 유도하거나 가까운 제로로 하였다 (본) 가상 이펙터의 움직임 사이의 동시성 제어 조건; (b) 인간의 손처럼 또는 직사각형과 같은 하나 보면서 가상 이펙터의 외관 (그래서 실제 가상 EFF의 효과를 테스트소유권 환상에 엑터 유사성); 및 (c) 활성화 된 상태에서 수동 상태에 존재하거나 또는 직접 있던 가상 이펙터의 동작을 제어 할 수있는 기회. 가상면 실험이 완전히 교차 실험 인자를 포함한다 : (a) 소유권 기관이나 제어 조건으로 3 초 유도 제로에 가까운 하나였다 실제 얼굴 가상 얼굴 움직임 간의 동시성; 및 (b) 중립 또는 미소를 보여주는 하나였다 가상 얼굴의 표정은 긍정적 인 분위기가 참가자의 분위기를 들어 올려 분위기에 맞는 창의성 작업에서 자신의 성능을 향상시킬 것입니다 여부를 테스트합니다.

Protocol

모든 연구는 헬싱키 선언의 윤리 기준을 따른다과 프로토콜은 라이덴 대학 인간 연구 윤리위원회에 의해 승인되었다. 각 조건은 약 20 참가자를 테스트했다.

1. 가상 손 환상

  1. 실험 설정
    1. 참가자 환영 연령, 성별, 같은 추가 정보를 수집
    2. 가상 현실 프로그래밍 환경을 포함하는 실험 장치를 설정; 손바닥의 중간에와 다섯 손가락의 각 (자료 목록 참조)의 내측 (초) 지골의 외부에 부착 육 프로그램 진동 자극과 오른 손잡이 dataglove; 자유 (DOF) 방향 추적기의 3 학위; SCR (피부 전도성 응답) 측정 장비; 블랙 박스 (깊이 : 50cm, 높이 : 24cm, 폭 : 38cm) 컴퓨터 화면 수평 위에 누워는 (가상 현실 ENVIRO을 제시하는 역할을nment); 와 케이프는 참가자의 손을 커버합니다.
    3. 오른쪽 손목에 자신의 오른손에 dataglove 및 방향 추적기를 넣어 참가자를 요청합니다. 왼쪽 손목에 끈으로 SCR 원격 송신기를 연결합니다. 인덱스 왼쪽 손의 가운데 손가락 (설정의 그림은 그림 1AB 참조)의 내측 (초) 지골에 SCR 전극을 넣습니다.
    4. 위쪽에있는 컴퓨터 화면과 함께 상자 배치되는 책상 앞에 참가자 좌석. 그들의 관점에서 그것을 보호하는 등, 깊이 축을 따라 상자에 자신의 오른손을 넣어 참가자를 요청합니다.
    5. 참가자의 오른쪽 어깨 위에 망토를 넣고 화면과 참가자 사이의 공간을 커버합니다. 책상의 빈 부분에 자신의 왼손을 휴식을 참가자에게 문의하십시오.
    6. 컴퓨터에 dataglove와 방향 추적기의 케이블을 연결하고 가상 현실 프로그램 environme 시작NT를. 가상 현실 환경이 시작되도록, 가상 현실 환경 인터페이스에서 "실행"버튼을 클릭하여 명령 창에서 미리 작성된 명령 스크립트를 실행합니다. 참가자는 참가자의 앞에 컴퓨터 화면에 표시되는 지시 사항을 준수하는지 모니터링합니다. 사전 서면 명령 스크립트가 자동으로 종료 될 때까지 기다립니다.

그림 1
그림 1 : (A) 참가자가 자신의 왼쪽에 방향 추적과 오른쪽에 dataglove 및 SCR 원격 송신기를 착용했다. 가상 손 환상 실험 (B) 설치. 가상 얼굴 환상 실험의 (C) 설정. (D) 컴퓨터 화면의 스크린 샷.이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

  1. 가상 핸드 디자인
    주 : 가상 현실 소프트웨어의 명령 창에서 사용 파이썬 명령 스크립트 및 저장합니다. 주 명령 스크립트는 아래에 설명 된 가져 오기 명령, 모듈 스크립트 및 기타 명령은 같은 스크립트 파일의 일부가 있는지 확인하십시오. 전체 파이썬 스크립트와 필요한 파일 (NB를 첨부 "가상 손 Illusion.zip"파일을 참조하십시오 : 압축 파일이 추가 원고의 재료 및 소프트웨어 패키지의 일부입니다 또한,이에 필요한 플러그인을 제외합니다. dataglove 및 방향 추적하고 스크립트에서 사용되는 다른 파이썬 모듈). 실험을 시작하기 위해 "가상 손 illusion_54784_R2_052716_KM.py"파일을 클릭하여 첫 번째 실험을 실행 임의의 폴더 (예 : 바탕 화면)에이 파일의 내용을 압축 해제 한 후 두 번하기 위하여. 스크립트가 있음을 유의명시된 가상 현실 프로그래밍 환경에서 작동하도록 설계 및 다른 프로그램을 사용하여 작동하지 않습니다.
    1. 미리 만들어진 가상 손 모델 및 가상 현실 환경에 (가상 현실 환경 소프트웨어 패키지의 분할 파일에서 찾아 볼 수있다)는 미리 작성된 핸드 스크립트 모듈을 가져. 핸드 스크립트 모듈 dataglove의 손가락 관절 제스추어 및 각도를 추적하고 dataglove 입고 실제 손을 이동시켜 가상의 손의 움직임을 제어 할 수있는 가상 손 모델에 정보를 공급한다.
      1. 이러한 수동의 크기를 변경하거나 매핑 된 이미지를 변경하기 위해 그것의 x, y 및 z로 스케일링 스크립트에 매개 변수를 지정하여 가상 크기와 손의 모양을 바꿀 필요.
      2. 가상 실제 손과 손으로 (약)을 동시에 같은 방향으로 이동하도록 동시성 조건, 어떠한 변환을 사용하지 않는다. 비동기를 만들려면 3 초 지연을 추가되도록 버추어난 손은 진짜 손으로하지만 눈에 띄는 지연으로 이동합니다.
    2. 가상 현실 환경 할부 파일에 적합한 미리 만들어진 방향 추적기 플러그인을 확인하고 명령 스크립트를 가져옵니다. 명령어 스크립트를 실행하는 배향 트래커 모듈은 다음을 설정하여 가상의 손의 방향 변경을 제어하기 위해 사용될 수있다 (추적 참가자들이 오른쪽 손목에 착용 방향으로 제공됨) 실제의 손의 방향 변경을 추적 할 수 있습니다 요 명령 윈도우의 가상 손의 피치 및 롤 데이터. 직접 동시성 조건에 대한 가상 손 모델로 방향 락카에 의해 감시 데이터 채널하지만 비동기 3 s의 지연을 삽입합니다.
    3. 그들이에 여기 (가상 손에서 이동할 수 있도록, 필요한 추가 가상 오브젝트와 이동 궤적을 설계, 막대기, 사각형, 공, 칼 설계 및 가져 오기 추가 모델은 다양한 파 중에 사용되는실험 RTS; "실험 조건")을 참조하십시오. 가상 손의 파라미터가 설정 될 때 수동으로 동일한 방식으로 명령 스크립트에서 이러한 객체들 각각에 대한 크기, 모양 및 위치를 변경. 개체의 이동 궤적과 이동되어야하는 속도의 개시 및 종료 위치를 설정하기 위해 적절한 명령을 사용하여 필요한 운동 궤적을 설정한다.
    4. 진동 강도 및 명령 스크립트의 각 진동 자극 타이밍을 결정하고; 어느 동시성 조건에 대해 지체없이 또는 비동기 3 s의 지연 (즉, 진동 가상 손이 다른 가상 객체에 의해 접촉되는 정확히 언제 시작). 가상 손이 다른 가상 오브젝트 (또는 지연된 시점)에 의해 터치되는 모든 진동자 동시에 진동. (0-1의 규모에 0.5 예) 중간 수준으로 진동 강도를 설정합니다. 진동의 실제 강도가 programmi에 따라 다를 수 있습니다NG 환경 진동자 실험에 사용하고, 다른 하드웨어 (예 바이브레이터 / dataglove) 또는 소프트웨어를 사용하는 경우 본 실험에서 진동의 중간 레벨은 반드시 실제 진동 강도가 일치하지 않음.
    5. 다음 사항을 제외하고 이전 단계와 동일한 실험 스크립트에 두 번째 부분을 추가합니다 :
      1. 가상 손과 동일한 크기의 가상 사각형 가상 손 모델을 교체 (따라서 실험의 모양 팩터를 실현할)
      2. 같은 방향 추적기에 의해 픽업 실제 손의 회전이 사각형의 회전 운동으로 변환되어 있는지 확인합니다.
      3. dataglove 의해 픽업으로 실제의 손의 개폐는 프로그래밍 환경에서의 물체의 색을 변경하기 위해 적절한 명령을 사용하여 구형의 색 변화로 변환되었는지 확인 (예를 들어, 녹색으로 사각형을 제시 할 때 시간그리고 완전히 완전히 열릴 때 빨간색으로 폐쇄하고 손)의 개폐로 색상이 점차 빨강 녹색 또는 적색에서 녹색으로 변경할 수있다.
  2. 실험 조건
    1. 참가자에 걸쳐 균형 또는 무작위 중 하나 인 순서로 (세 개의 실험 요인 동시성, 가상 이펙터의 모양 및 액티브 / 패시브를 횡단으로 인한) 여덟 실험 조건을 실행합니다.
    2. 각 조건의 경우, 가상 손 환상과 전기 생리 피부 반응을 측정하는 위협 단계 (SCR)을 유도하기 위해 약 2 각 분 3의 세 단계를 포함한다. 구체적인 프로토콜은 여덟 조건이 다소 상이하고 설명한다.
    3. 가상 손 / 액티브 / 동시성
      1. 다음 이벤트 사이의 지연이 제로에 가깝고 띄는되지 않도록 시스템을 구성하는 (A) 운동과 실제의 손의 방향 변경과 대응운동 및 visuo 모터 상관 단계에서 가상 손의 방향 변경을 보내고; (b) 가상 손 화면 부가 가상 오브젝트와 visuo 촉각 위상 실제 손의 진동을 유발 자극 해당 시점의 접촉 시점; 및 (c) 운동과 실제의 손의 방향을 변경하여 해당 움직임 가상 손의 방향 변화; 화면상의 가상 손 부가 가상 오브젝트의 접촉 시점과 visuo 모터 촉각 위상 실제 손의 진동을 유발 자극 해당 시점.
      2. visuo 모터 상관 단계의 경우, 참가자가 자유롭게 이동하거나, 개방 등의 폐쇄, 그리고 그들의 진짜 손을 회전하고, 개별적으로 각 손가락을 이동, 그들의 진짜 오른쪽으로 회전합니다. 참가자 컴퓨터 화면에 가상 손의 대응하는 움직임을 볼 갖는다.
      3. v를 들어isuo-촉각 자극 단계는, 화면을 보면서 참가자들이 여전히 그들의 진짜 손을 유지해야합니다. 감동의 인상을 생산 및 가상 손을 접촉하지에 가상 손에서 이동하는 등 (1.2.3에서 만든) 가상 공이나 스틱으로 화면에 다른 가상 객체를 제시한다.
        1. dataglove에 진동 활동에 의해이 추가 가상 객체와 가상 손 사이의 각각의 접촉을 동반합니다. 진동기가 추가 가상 객체 (감동되고있는 가상 손의 일부에 해당하는 실제 손의 그 부분을 자극 가지고 예를 들어, 가상 객체는 가상 손바닥, 참가자의 손바닥을 터치 보인다 경우 실제 손 진동기 16)에 의해 자극해야한다.
      4. visuo 모터 촉각 상관 위상 참가자 가상 성 진동을 터치하기 위하여 그들의 실제 손을 움직여 가상 손을 이동 한ICK 또는 유사 물체 (1.2.3 참조). 1.3.3.3에 설명 된대로 가상 손과 가상 스틱 / 객체 사이의 각각의 접촉이 참가자의 실제 손의 진동에 의한 자극을 동반되어 있는지 확인합니다.
      5. 위협 위상 가상 칼이나 바늘을 보면서 참가자 컴퓨터 화면에 표시 여전히 실제 우측 유지있다. 가상 칼이나 바늘과 가상 손에서 이동합니다. 눈에 보이는 명백한 "절단"의 각 접촉 결과 또는 가상 손의 "천공"있는지 확인합니다.
        1. 1.3.3.3에서 설명한대로 dataglove의 진동자를 사용하여 가상의 손의 절단 또는 천공 된 부분에 대응하는 실제의 손의 부분을 자극한다.
    4. 가상 손 / 액티브 / 비동기
      1. 중요한 이벤트 사이의 지연 시간 3 초 대신 제로에 가까운 있도록 시스템을 구성한 후 1.3.3에 설명 된 절차를 실행합니다.
      2. 가상 사각형 / 액티브 / 동시성
        1. 1.3.3 하에서 그러나 가상 직사각형 대신 가상 손으로 기재된 절차를 실행.
      3. 가상 사각형 / 액티브 / 비동기
        1. 1.3.4에서하지만 가상 사각형 대신 가상 손으로 설명 된 절차를 실행합니다.
      4. 가상 손 / 수동 / 동시성
        1. 1.3.3에 설명 된 프로 시저를 실행하지만 모든 단계에 걸쳐 여전히 자신의 실제 손을 유지하기 위해 참가자를 요청합니다.
      5. 가상 손 / 수동 / 비동기
        1. 1.3.4에 설명 된 프로 시저를 실행하지만 모든 단계에 걸쳐 여전히 자신의 실제 손을 유지하기 위해 참가자를 요청합니다.
      6. 가상 사각형 / 수동 / 동시성
        1. 1.3.5에 설명 된 프로 시저를 실행하지만 모든 단계에 걸쳐 여전히 자신의 실제 손을 유지하기 위해 참가자를 요청합니다.
      7. 가상 사각형 / 수동 / 비동기
        1. 1.3.6에 설명 된 프로 시저를 실행하지만 모든 단계에 걸쳐 여전히 자신의 실제 손을 유지하기 위해 참가자를 요청합니다.
    5. 데이터 수집
      1. 측정 장비 (자재 목록 참조)와 소프트웨어를 사용하여 SCR 데이터를 수집한다. 기록 주파수마다 0.1 밀리 초이다.
      2. 각각의 조건에 대한 소유권, 기관, 위치 및 모양의 감각을 측정하는 설문지를 작성하기 위해 참가자를 요청합니다. (1.4.2.3 참조)를 리 커트 척도와 함께 (1.4.2.1 및 1.4.2.2 항에서 설명), 각 질문에 인쇄되는 하나 종이 버전을 사용하고, 펜으로 작성 될 수있다; 또는 리 커트 척도와 함께, 각각의 질문에 화면에 표시되는 컴퓨터 화 된 버전을 사용하고있는 선택된 스케일 값을 입력 할 수있다.
        1. 최소한 하나 이상의 소유권 문제 (2) 설문지를 포함; 네 다음을 사용 : <BR /> (O1)는 "나는 화면에 손이 오른손 또는 내 몸의 일부인 것처럼 느꼈다";
          (O2)는 "내가 내 오른손에 느끼고 있었다하는 것은 내가 보는 것을 화면에 손에 스틱의 접촉에 의해 발생 된 것처럼 보였다";
          (O3)은 "나는 내 오른쪽에 느끼는 진동이 화면에 손이 스틱에 감동 된 동일한 위치에 있던 감각이 있었다";
          (O4)는 "그것은 내 오른쪽 화면에 손이 있던 위치에 있었던 것 같았다".
        2. 기관의 질문에 대한 추가 질문을 포함하여 고려; 다음을 사용 :
          (A1)은 (활성 조건) "나는이 가상의 손을 제어 할 수 있습니다 느꼈다";
          (수동 조건) (A1)는 "나는 싶었 더라면 나는이 화면에 손을 이동 한 수처럼 내 뜻에 순종하는 것처럼 그것은 보였다"; .
          1.4.2.1 및 1.4.2.2에 나열된 항목이 손 조건을 참조합니다. 사각형 조건에 대해 대체 가상 사각형에 대한 참조하여 가상 손에 대한 모든 참조.
        3. 각 질문에 대한 리 커트 척도 (2)를 사용하여 (예를 들어, 1-7), 참가자들이 질문에 동의하는 정도를 점수 수 있도록; 예 : "강력 반대"를위한 7 일을 사용하여 "강하게 동의합니다". 각 질문이 화면에 표시되고 숫자 1 리 커트 척도의 7 응답 옵션에 해당하는 7으로 응답 할 수 있는지 확인합니다; 외관 및 응답 옵션은 실험 스크립트 프로그래밍된다.

    2. 가상 얼굴 환상

    1. 실험 설정
      1. 참가자 환영 연령, 성별, 같은 추가 정보를 수집
      2. 가상 현실 프로그래밍 환경을 포함하는 실험 장치를 설정; 해당 하드웨어 및 소프트웨어를 포함하는 헤드 위치 추적 시스템f를 "> (17), 그리고 모자 또는 야구 모자의 상단에 부착 된 3-DOF 방향 추적.
        주 :이 실험 구성을 사용하여, 참가자는 자유롭게 이동하거나 가상면의 위치와 배향을 제어하도록 자신의 머리를 회전하지만, 가상 얼굴 표정을 제어 할 수있다
      3. 컴퓨터 화면 앞에 의자에 2m를 앉아 참가자를 요청합니다. 실험 장치의 그림은 그림 1C1D를 참조하십시오.
      4. 첨부 된 방향 추적기와 캡에 넣어 참가자를 요청합니다.
      5. 컴퓨터에 위치 추적 시스템 및 방향 추적기를 연결하고 가상 현실 환경이 시작되도록, 가상 현실 환경 인터페이스에서 "실행"버튼을 클릭하여 명령 창에서 미리 작성된 명령 스크립트를 실행합니다. 참가자는 참가자의 앞에 컴퓨터 화면에 표시되는 지시 사항을 준수하는지 모니터링합니다. 기다림사전 서면 명령 스크립트가 자동으로 종료 될 때까지.
    2. 가상 페이스 디자인
      참고 : 전체 파이썬 스크립트와 필요한 파일 (NB를 첨부 "가상 얼굴 Illusion.zip"파일을 참조하십시오 : 압축 파일이 추가 원고의 재료 및 소프트웨어 패키지의 일부이며 그것은 필요한 플러그인이 포함되어 있지 않습니다 위치 및 방향 추적하고 스크립트에서 사용되는 다른 파이썬 모듈)에 사용됩니다. 실험을 시작하기 위해 "가상 얼굴 illusion_54784_R2_052716_KM.py"파일을 클릭 첫째, 실험을 실행 임의의 폴더 (예 : 바탕 화면)에이 파일의 내용을 압축 해제 한 후 두 번하기 위하여. 스크립트가 여기에 제시된 가상 현실 프로그래밍 환경에서 작동하도록 설계되어 다른 프로그램을 사용하여 작동하지 않습니다.
      1. 에 대응 (해당 연령, 인종 및 성별과 가상 얼굴을 설계하는 가상 얼굴 빌딩 프로그램을 사용하여참가자들은 프로그램의 대응 비늘 가장 피팅 값을 선택함으로써) 테스트되고
      2. 프로그램의 해당하는 규모에 해당 값을 선택하여 각면의 두 가지 버전, 미소 중립 표정 하나 하나를 작성 (변경 눈의 크기에 따라 식을 변화, 입과 다른 얼굴 근육의 곡률)
      3. 대학생을 테스트하기 위해, 가상 얼굴 빌딩 프로그램을 사 20 세의 가상면을 생성, 중립 얼굴 표정, 미소 한 남성의 얼굴, 중립 얼굴 표정을 한 여성의 얼굴, 한 여성의 얼굴을 가진 한 남성의 얼굴 그 미소
      4. 가상 얼굴 빌딩 프로그램에서 3D VRML 형식의 파일에 얼굴을 내 보냅니다.
      5. 실험 기간 동안 사용하기 위해 가상 현실 환경, 즉, 가상면을 생성 VRML 파일을 가져 가상 현실 프로그래밍 환경의 적절한 명령을 사용하여. 버지니아이에 따라 해당 명령을 사용하여 매개 변수를 설정하여 크기 나 규모, 공예.
      6. 참가자의 선두 위치를 추적 할 수있는을 가상 환경의 분할 파일의 선두 위치 추적 시스템에 대해 미리 작성된 추적 모듈을 찾아서 가져. 스크립트에서, 헤드 위치의 데이터를 변경 한 헤드 위치가 가상면 위치로 변환 할 때의 시점을 (0 밀리 동시성 조건 지연 및 비동기위한 3 초 지연을 사용하여) 결정한다.
      7. 가상 환경의 분할 파일의 미리 만들어진 방향 추적기 플러그인을 찾아 명령 스크립트에 가져옵니다. 다시, 스크립트는 참가자의 헤드의 방향 변경은 가상 헤드의 방향 변화로 변환 할 때의 시점에 대한 시간 지연을 도입 허용하는 주 (0 밀리 동시성 조건 지연 및 비동기위한 3 초 지연을 사용 ).
      8. 디자인 추가 가상 산부인과(예 : 가상 스틱 등) jects과 그 궤적은, 그래서 그들은과 가상 얼굴에서 이동합니다. 가상 손가락의 크기에 유사하게 가상 오브젝트의 크기를 설정한다.
      9. 하드웨어를 연결하고 저장된 명령 스크립트를 구현하고 실험을 시작합니다.
    3. 실험 조건
      1. 명령어 스크립트를 실행하고, 뚜껑에 부착 된 3 방향 DOF 추적기에 의해 헤드 위치 추적 시스템과 참가자의 헤드 방향에 의해 참가자의 선두 위치를 추적.
      2. 30 초 동안 가상 얼굴에 참가자를 노출하고 움직이지 참가자를 지시합니다. 얼굴이 사라되면 참가자가 자신이 그를 - 또는 자신과 가상면 사이의 관계를 인식하는 방법을 평가하기 위해 (데이터 수집에서 설명) IOS 규모에 응답해야합니다.
      3. 이상적 상대에 걸쳐 균형 잡힌 중 하나 인 순서에 따라 네 개의 실험 조건 (아래에서 설명)을 실행cipants 또는 무작위. 각 조건은 가상의 얼굴 환상을 유도 대한 각 2 분 3의 세 단계를 포함한다.
      4. 중립 / 동시성
        1. 다음 이벤트 사이의 지연이 0 (제로)에 근접하고 띄는되지 않도록 시스템을 구성한다 : (a) 실제의 헤드의 움직임과 visuo 모터 상관 단계에서 가상 헤드 및 (b)는 시점의 대응 움직임 참가자의 실제 손과 참가자의 실제의 뺨 사이에 상기 가상 오브젝트와 visuo 촉각 자극 상에 가상 헤드 사이의 접촉.
        2. visuo 모터 상관 단계의 경우, 첨부 된 방향 추적기와 캡에 넣어 참가자가 있습니다. 이동하거나 가상면의 위치와 배향을 제어하도록 자신의 머리를 계속 회전하도록하자.
        3. visuo-촉각 자극 단계에 WA 동안, 참가자들은 오른쪽에 자신의 오른쪽 팔을 스트레칭하고 다시 반복, 자신의 오른 뺨을 터치화면을 tching. 터치는 순간입니다 : 참가자, 뺨을 터치 가서 오른쪽에있는 자신의 오른쪽 팔을 스트레칭하자,이 visuo-촉각 자극 단계의 기간 동안 반복합니다.
        4. 화면에서 가상 얼굴이 반복적으로 같은 가상 볼로 가상 객체에 의해 뺨에 접촉되는 것을 제시한다. (또는 오히려 일반적으로 손 떨림) 고객님 직접에게 참가자의 손 움직임을 매핑하도록 허용 3D 공간에서 참가자의 사지 (예 손)의 위치를 추적 할 수있는 이동 시스템을 통해 상기 가상 오브젝트와 동기화되는 터치되고 동기화 된 참가자의 실제 손 운동 궤적의 운동과 가상 오브젝트의 이동 궤적의 결과, 가상 오브젝트의 궤적. 가상 오브젝트가 가상 아바타 접촉 따라서 때, 이것은 자신의 뺨을 터치 참가자에 대응한다.
      5. 중립 / 비동기
        1. 프로 시저 드를 실행중요한 이벤트 사이의 지연 시간이 3 초 대신 제로에 가까운 있도록 시스템을 구성한 후에 2.3.4에서 스크라이브.
      6. 미소 / 동시성
        1. 중립 식으로 대신 얼굴의 웃는 얼굴을 제시하도록 시스템을 구성 한 후 2.3.4에 설명 된 절차를 실행합니다.
      7. 미소 / 비동기
        1. 중요한 이벤트 사이의 지연 시간이 3 초 대신 제로에 가까운 있도록 시스템을 구성한 후에 2.3.6에 설명 된 절차를 실행합니다.
    4. 데이터 수집
      1. 각각의 조건에 대한 소유권 및 기관의 감각을 측정하는 설문지를 작성하기 위해 참가자를 요청합니다.
        1. 최소한 하나 이상의 소유권 질문을 포함하는 설문지를 포함; 네 다음을 사용 :
          (O1)는 "나는 내 자신의 얼굴이었다 화면에 얼굴 같은 느낌";
          나는 것처럼 (O2)는 "그것은 듯거울 "내 자신의 반사를 찾고,
          (O3)은 "나는 움직임과 화면에 얼굴이 있던 위치에 내 얼굴에 터치를 감지 한 것 같았다";
          (O4)는 "내가 내 얼굴이 화면에 얼굴을 만지고 볼에 의해 발생 된에 느낌 터치처럼 보였다."
        2. 기관의 질문을 포함하여 고려; 두 가지를 다음을 사용 :
          (A1)는 "나는 화면에 얼굴에 본 운동이 내 자신의 움직임에 의해 발생 된 것처럼 보였다";
          (A2)는 "화면에 얼굴이 내 뜻에 순종하는 것처럼 나는 그것을 원처럼 이동".
      2. 7 포인트를 사용하여 만든 (IOS)은 "셀프 기타의 포함"(18) 확장을, 포함 (1-7) 리 커트 각 점수가 표시되어있는 스케일이 자기 다른 중첩의 다른 정도에 해당하는 . 그래픽 하나 repres 두 원의 중첩을 통해 중복의 정도를 나타냅니다은 "자기"다른 원 "기타"를 enting. 두 원의 제로 중복과 완벽한 중복하여 가장 높은 점수로 규모의 가장 낮은 점수를 특징. 높은 등급 따라서 자기 다른 오버랩 높은 정도를 나타낸다.
      3. 선택적으로,이 분위기를 평가하기 위해 그리드 (19)에 영향을 포함한다.
        1. 졸린 느낌에 대해 (-4에 이르기까지 흥분하는 리 커트 종류의 하나의 차원은 (즐거운 느낌을 위해 +4에 불쾌한 느낌을 위해 -4에 이르기까지) 원자가에 해당하는 그리드 및 다른 2 차원 (각성에 의해 원자가) 만들기 느낌 +4로 높은) 불러 일으켰다.
        2. 그들이 현재 느끼는 자극하는 방법을 적절한 방법에 해당하는 참가자 (펜 예) 하나의 지점을 선택해야합니다.
          참고 : 실험 단계의 각각의 종료 후 설문지, IOS 및 영향을주는 그리드가 화면에 나타납니다. 참가자들은 (가상 손 환상의 실험과 동일) 응답 키보드를 사용했다. </ 리>
      4. 선택적으로, 대안은 (AUT) (20) 작업을 사용이 포함됩니다.
        1. 같은 신문과 같은 일반적인 가정용 항목 등 여러 가지 용도를 나열하는 참가자에게 물어보십시오. 작업은 펜과 종이로 수행됩니다. 그들은 5 분에서와 가능한 한 개체에 대한 많은 용도를 적어 참가자가 있습니다.
        2. 또 다른 목적 (예를 들어, 벽돌)에 대해 반복합니다. 유창성 (사용 개수), 유연성 (용도의 종류의 수), 동화 (사용을 위해 제공되는 방법을 자세하게 설명 또는) 독창성 (이용 얼마나 고유)에 따른 결과 이상 점수. 높은 점수는 모든 항목에 대한 높은 발산 적 사고의 성능을 나타내는 지 확인하십시오. 두 개의 서로 다른 득점을 사용하고 간 득점의 상관 관계가 높은 것을 확인합니다. 이 작업의 가장 일관된 이론적으로 가장 투명 점수이기 때문에 추가 분석을위한 유연성 점수에 초점을 맞 춥니 다.
        3. 암시 적으로 AUT (수요 - characteristic-를 사용하여이 작업 성능과 같은 분위기를 나타내는 무료) 측정, 더 나은 분위기 21 증가한다.
          주 : 가상 얼굴이 화면에 남아있는 AUT는 스크립트가 실행 변화에 경우에 볼 수 있으며 그들이 AUT을 수행하는 동안 참가자의 통제하에 남아있다.

Representative Results

가상 손 환상

우리는 사람들이이 경우 그들의 손에 자신의 몸을 표현하는 방법을 조사하기 위해, 가상 손 환상 패러다임을 사용하여 여러 가지 실험을 달렸다. 시험 참가자들의 수는 일반적으로 각각의 조건에 대해 20 참가자 주위 조건의 양에 의존한다. 여기에서 우리는 우리가 우리의 실험실에서 수행 된 가장 정교한 연구 중 하나에 대한 관련성이 높은 결과를 제공합니다. 우리는 주관적 데이터에 대한 우리의 논의를 제한 할 것, 네 소유권 문제 (O1-O4) 및 기관 문제 (A1)에 대한 리 커트 스케일의 응답에 대한 리 커트 스케일 응답의 평균.

본 연구는 8에서는 체계적 partic에 동시성 (동기 대 비동기), 가상 이펙터 모양 (직사각형 대 가상 손) 및 활성 (활성 대 수동)의 효과를 조사소유권 및 기관의 감각 ipants '의미 (모든 조건이 참가자 내에서 시험 하였다). 결과는 소유권 및 기관에 대한 동일 하였다. 그림 2에 나타낸 바와 같이 현실과 가상 손 동시성의 [F (1,43) = 48.35 이동 한 경우, 인식 소유권 및 기관은 강했다; p <0.001; 및 F는 (1,43)는 54.64가 =; p <0.001; 소유권 및 기관, 각각, 가상 이펙터는 사각형이었던 것보다 손 있다면 [F (1,43) = 14.85에 대한; p <0.001; 및 F는 (1,43)가 6.94를 =; P <0.02], 그리고 참가자가 오히려 수동 [F (1,43) = 9.32보다 활성화 된 경우; P <0.005; 및 F는 (1,43)는 79.60가 =; P <0.001]. 동시성 효과는 표준 가상 손 환상을 복제합니다.

그림 2
그림 2 : 부분의 동시성의 기능, 가상 이펙터의 모양 및 활동 등의 소유권 및 기관 평가icipant. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

그림 3
그림 3 : 참가자의 동시성 및 활동의 함수로서 소유권 및 기관 평가. 동시성 효과가 활성화 참가자들에게 더 두드러 있음을 유의하십시오. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

더욱 흥미롭게도, 소유권과 기관 모두 활동과 동시성 [F (1,43) = 13.68 사이에 상당한 상호 작용을 보여 주었다; P = 0.001; 및 F는 (1,43)는 23.36가 =; p <0.001; ],하지만 모양과 동시성 사이의 그림 3을 참조하십시오. 이 패턴그 활동이 소유권에 대한 보이면서 역할을하고 외관보다 환상, 그것은 심지어 환상 소유권 인식이 전통적인 고무 손 환상 패러다임보다 가상의 강한 것으로 나타났다 않습니다 제안합니다. HOMMEL (22), 목적 기관 (즉, 정도가 외부 이벤트가 객관적으로 제어 할 수있는)을 설명하는 주관적 소유권 및 주관 기관에 모두 기여에 따르면이 실험에서, 가상 이펙터를 통해 활성, 동기 제어는 주관적 소유권을 모두 증가하는 이유 및 주관 기관입니다.

외관 소유권 환상 외관에 의존하지 않는다는 것을 시사 동시성과 상호 작용하는 데 실패 동안, 주요 효과를 생성했다. 이 모양이 소유인지에 영향을 가지고 있음을 나타낸다. 그것은 사람들이 와줘 외부 개체 또는하지 않을 수 있습니다에 대한 일반적인 기대를 가지고 있다고 가정하는 것이 합리적이다일반적으로 소유권 인식을 지원하지만 동시성의 영향을 완화하지 않습니다 자신의 신체의 ausible 부분. 일반적으로 하향식 기대와 상향식 동시성 정보 : 우리는 따라서 주관적 주인 의식에 기여하는 정보의 여러 소스를 결론 지었다. 이들 두 개의 정보 소스 사이의 관계는 일반적으로 기대 반대 동시성의 부재 지배하고 수 있도록 상호 작용하지만 보상 것으로 보이지 않는다.

가상 얼굴 환상

또 다른 연구에서, 우리는 사람들이 자신의 얼굴을 표현하는 방법을 연구 하였다. 우리는 우리가 가상 얼굴 환상 (12)로 참조 가상 환경에서 기존의 enfacement 환상을 복제 할 수 있었다. 우리는 또한 사람들이 함께 식별 가상 얼굴로 표현 분위기를 채택 여부를 조사 하였다. 내-참가자 하나가 있었다인자 동시성 (동기 대 비동기)과 1 사이-참가자 인자 표정 (중립 대 행복). 유도 단계 전에 IOS 등급은 유도 단계는 유도 단계 이후에 영향을주는 그리드 등급에서 제외되기 전에 또한 그리드 등급에 영향을 미치는, 유도 단계 후 IOS 등급에서 차감하고, 이러한 평가의 변화는 IOS로 사용에 영향을 하였다 그리드 결과.

소유권 점수의 분석 (O1-4), 기관 점수 (A1-2) 및 IOS 스케일 (18)의 변화는 모두 동시성의 주 효과 [F (1,58) = 38.24 보였다; p <0.001; F (1,58) = 77.33; p <0.001; 및 F는 (1,58)는 43.63가 =; p <0.001; 각각, 자기 헤드의 움직임을 가상면의 움직임 사이의 동시성을 나타내는 것은 소유권 기관 인식하고 자기 자신으로의 다른 쪽면의 통합을 용이하게 증가 (FI 참조gure 4). 영향을 그리드 (19)의 변화 [F (1,58) = 7.99에 동시성의 효과에 의해 표시된 바와 같이 동시성 또한, 분위기 개량; P <0.01].

그림 4
그림 4 : 동시성의 함수로서 소유권 및 기관 평가뿐만 아니라 IOS 변경됩니다. 긍정적 인 IOS의 변화는 자기 자신에 다른 통합의 증가를 의미합니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

그림 5
그림 5 : 영향을 그리드 변경 동시성의 기능과 가상 얼굴의 표현으로하고 AUT의 유연성 점수, (양의 값은 영향을 긍정적 지속적인을 의미). 동시성과 표현 사이의 상호 작용이 동시성과 행복 가상면의 조합에 대해 더 긍정적 인 진행 분위기와 특히 좋은 유연성 성능에 의해 구동되어 있습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

IOS 변경에 얼굴 표정의 유의 한 주 효과가,의 동시성 [F (1 상호 작용 점수 그리드 변화와 유연성에 영향을 미친다는 사실이었다 그리드 변경에 영향을하고, 유연성 AUT 20, 21, 23하지만, 더 중요한에 58) 4.40 =; p <0.05; F는 (1,58)는 4.98을 =; p <0.05; 각기]. 도 5에 도시 된 바와 같이, 참가자 향상된 기분보고 enfacing (즉, 동기 후 창의적인 동작을 보여LY는 행복한 얼굴로 또는 동 기적으로 중성 얼굴 비동기 이동 조건에 비해)와 함께 행복한 얼굴을 이동.

F / P / PES EFF 행위 SYN EFF * ACT EFF * SYN ACT * SYN EFF * ACT * SYN
O1 11.66 10.11 45.38 10.08
0.001 0.003 <0.001 0.003
0.21 0.19 0.51 0.19
O2 5.37 47.65
0.025 <0.001
0.11 0.53
O3 10.75 41.30 9.81
0.002 <0.001 0.003
0.20 0.49 0.19
O4 12.86 17.17 15.12 10.60
0.001 <0.001 <0.001 0.002
0.23 0.29 0.26 0.20
O1-4 14.85 9.32 48.35 13.68
0 0.001 0.004 <0.001 0.001
0.26 0.18 0.53 0.24
A1 6.94 79.60 54.64 23.36
0.012 <0.001 <0.001 <0.001
0.14 0.65 0.56 0.37

표 1 : F, P 및 부분 에타는 DF = 43 요인 EFF 있습니다로, 설문 항목 평가의 효과 (PES) 값을 제곱 : 가상 이펙터 (사각형 대 가상 손) ACT : (대 수동 자극 활성 탐색) 활동; 및 SYN : 동시성 (동기 대 비동기). 심각한 영향에 대한 결과 만이 표시됩니다.

M / SE HP-SY HP-AS HA-SY HA-AS RP-SY RP-AS RA-SY RA-AS
O1-4 4.37 3.44 5.09 3.50 3.79 3.14 4.68 3.05
0.20 0.23 0.19 0.25 0.23 0.23 0.20 0.21
A1 3.59 3.11 6.36 4.36 3.07 2.57 6.09 3.80
0.30 0.32 0.15 0.33 0.28 0.27 0.24 0.33

표 2 : 수단 (M)와 모든 팔 조건에서 소유권 및 기관 평가에 대한 표준 오차 (SE). H : 손; R : 사각형; A : 활성; P : 수동; SY : 동기; AS : 비동기.

F / P / PES 얼굴 표정 동시성 표정 *의의 Synchrony
소유권 (O1-4) 38.24
<0.001
0.40
기구 (A1-2) 77.33
<0.001
0.57
IOS 변경 4.03 43.63
0.049 0.001
0.07 0.43
그리드 발랑 변경에 영향을 미치는 6.06 7.99 4.40
0.017 0.007 0.041
0.10 0.13 0.07
AUT-유연성 5.42 4.98
0.024 0.03
0.09 0.08
AUT-유창성 7.89
0.007
0.12

표 3 : F, P 및 부분 에타는 및 DF = 56에 영향을 격자 무의 원자가 차원에 대한, 설문 조사 및 IOS 결과에 대한 DF = 58, 관련 의존 대책 (PES) 값을 제곱D와 AUT 결과. 심각한 영향에 대한 결과 만이 표시됩니다.

M / SE 중립-SY 중립-AS 행복-SY 행복-AS
소유권 (O1-4) 2.88 2.03 3.38 2.36
0.27 0.16 0.23 0.22
기구 (A1-2) 5.90 4.25 6.16 4.08
0.20 0.25 0.13 0.32
IOS 변경 0.37 -0.80 1.00 -0.40
0.21 0.25 0.20 0.24
그리드 발랑 변경에 영향을 미치는 -1.07 -1.33 0.60 -1.20
0.42 0.33 0.39 0.31
AUT-유연성 5.87 6.07 7.43 6.10
0.31 0.37 0.29 0.39
AUT-유창성 7.27 8.27 9.73 7.37
0.51 0.68 0.68 0.49

표 4 : 수단 (M)과 네 가지 조건에 해당 따라 조치에 대한 표준 오차 (SE). 중립 : 중립 표정; 행복 : 행복한 표정; SY : 동기; AS : 비동기.

Discussion

이 글에서 우리는 함께 대표 결과로, 우리의 가상 얼굴 연구는 가상 현실에서 전통적인 쓰다듬어 유도 얼굴 소유권 환상을 복제하는 첫번째이었다되는 가상 손과 가상 얼굴 환상 패러다임, 두 상세한 프로토콜을 설명 두 패러다임.

중요한 동시성 효과는 우리가 전통적인 환상의 패러다임과 유사한 가상 손에 대한 환상 소유권과 가상의 얼굴을, 유도에 성공했음을 나타냅니다. 가상 현실 기술에 의해 이들 효과를 재현 할 수 있다는 것은 24 상당한 이점 (11)을 갖는다. 가상 현실 기술은 오히려 인공 및 이용을 방해 쓰다듬어 과정에서 실험을 자유롭게 실험 조작을위한 새로운 가능성을 열고있다. 예를 들어, 모핑 가상 이펙터 체계적 appea의 영향을 조작하라고 허용가상 손 랜스 가상 및 실제 참가자의 손 또는 가상 얼굴 표정 유사도. 기관의 영향도 체계적 참가자 인공 이펙터의 이동을 제어 할 수있는 정도 (예를 들면, 즉시 성)을 변화시킴으로써 탐색 될 수있다.

미래의 가상 현실 연구를위한 또 다른 유망한 길을 먼저 사람의 관점 (1PP) 가상 현실 경험이다. 1PP 경험은 존재의 세 번째 사람의 관점 가상 현실 경험 25, 26, 27, 28보다 완전히 다른 규모의 몰입과 감정의 거대한 감각을 만들 수 있습니다. 1PP 하나가 아바타처럼 하나가 진정으로 느낄 수있는 경험에서, 하나는 말 그대로 아바타를 구현한다. 이 같은의 분리 부분과 같은 조작의 모든 종류의 가능성을 열어 인체 28 29 연신 본체 부 (30)를 재조정하거나, 사람의 피부색 31,32 변경.

현재와 ​​다른 많은 연구 결과가 입증 된 바와 같이, 동기 방식으로 가상 이벤트를 제어하는 ​​강력 자신의 몸에 속하는 이러한 이벤트의 인식을 증가시킨다. 예를 들어, 핸드 연구에서 우리의 결과는 즉각적인 제어 구별하는 중요한 신호임을 시사 자체 제작 등 제작 이벤트 (즉, 개인 기관) 간의 자기 관련된 다른 관련 이벤트 (즉, 신체의 소유권) . 여기에 다른 곳에서 제시된 연구 결과는 상향식 정보도 같이하지 않은 신체 부위에 대한 놀라운 자기 표현의 출현에 결정적인 역할을하는 것이 좋습니다 정체성과 관련된 자신의 신체 일부 (4)로.

jove_content "> 설명 프로토콜의 가장 중요한 부분은 시각, 촉각과 모터 사이의 상관 관계를 소개 유도 과정 (즉, 고유 수용성) 정보 이러한 상관 관계는 소유권과 기관을 유도하는인지 시스템을 수 있습니다. 이러한 상관 관계는 의지로 이러한 참가자 자신의 움직임 인공 이펙터의 운동 사이의 지연과 같은 각 이벤트의 상대적 타이밍, 특히 가상 이펙터의 운동에 dataglove 데이터의 변환에 관해서는 (처리 지연을 유지하기 위해 중요 최소로 화면)에. 우리의 실험 설정을 통해 최대 시간 지연이 거의 눈에 띄는과 인과 관계 및 기관의 인식을 방해하지 않는 40 밀리입니다. 시마다, 후쿠다하고, 히라 키 (33)는 제안이 중요한 시간 창 자기 신체 표현을 구성하는 감각적 통합 프로세스의 발생을 300 밀리 들면이는 더 이상 지연이 가상 이벤트 제어의 인식을 감소시킬 가능성이 있다는 것을 의미한다.

프로토콜의 또 다른 중요한 측면은 패러다임에 따라 참가자의 손이나 얼굴 움직임 위에 꽉 실험 제어한다. 필요한 intersensory 상관 관계 참가자 측 활성 답사 움직임에 의존 같이 유도시, 각 인자의 활성화 동작은 필수적이다. 자주 이동하는 참가자를 격려하고 활성화 탐사에 참여하는 것이 중요하다. 실험의 다른 위상에서 동작하지만, 측정을 방해 할 수있다. 예를 들어, 가상 손 환상 패러다임 (SCR이 기록되는) 좌측으로 이동 시키면 잡음 및 신뢰는 SCR 레벨 측정을 렌더링 할 가능성이있다.

가상 손 환상 패러다임 기술의 한계는 실용적인 이유로, 참가자는 일반적으로 dataglove 및 방향 TR을 착용한다는 것입니다애커 전체 실험 기간 동안 (그래서 혼란을 최소화하기 위해). 이것은 차례로 참가자의 기분이나 의욕에 영향을 미칠 수있는 편안하지 않을 수 있습니다. 그 문제에 대한 한 가지 해결책은 가벼운 장비 또는 맞춤형 웨어러블를 사용하는 것입니다. 현재 가상 얼굴 환상 패러다임 기술의 또 다른 제한은 장비는 머리의 움직임하지만 얼굴 표정에 전혀 변화를 등록하는 것입니다. 참가자들이 가상 얼굴의 표정을 제어 할 수 있도록 허용하는 소유권 환상에 기여할 가능성이 있지만, 인간 - 우리가 아직 우리가 실험실에서 사용할 수없는에서 안정적인 검출 및 얼굴 표정의 분류를 제공하는 하드웨어와 소프트웨어를 필요로한다. 예를 들어 실시간의 사용 (얼굴) 모션 캡처 유틸리티는 이러한 한계를 극복 큰 도움이 될 것입니다 우리가 기관과 아바타에 상당히 높은 수준의 주인 의식을 증가 할 수있다.

에 의해 제안우리의 연구 (8)의 연구 결과, 사람들은 다양한 정보 소스를 고려하고 지속적으로 자신의 신체 표현을 업데이트합니다. 그들은 하나의 정보 소스가 기관 (34)의 의미에 대해 상정 된 것과 다른 유사성의 부재 강력한 역할을 수행한다는 의미에서 보상 방식 상향식 정보 하향식 정보를 사용하는 것. 그것은 예를 들어 소유권이, 심지어 어색한 자세 인공 이펙터에 대한 인식 표면 유사성, 또는 그 반대 (충분한 정도를 제공 할 수 있음을 암시 하듯이, 앞으로의 연구에 대한 흥미있는 길을 제공 즉, 인공 이펙터 완벽하게 실제 이펙터에 맞춰 경우 하지만) 표면 기능면에서 다르다. 사용 가능한 연구 결과는 또한 자신과 타인 사이의 경계가 다른 사람 또는 에이전트의 기능은 자신의 기능으로 인식 될 수 있도록, 오히려 플라스틱있다가 SYN 어느 정도 제공하는 것이 좋습니다자신의 동작과 다른 35, 36의 사이 chrony.

Materials

Name Company Catalog Number Comments
Vizard (Software controlling the virtual reality environment) Worldviz Vizard allows importing hand models and integrating the hand, dataglove and orientation tracker modules through self-written command scripts. These scripts can be run to control the presentation of the virtual hand in the virtual environment, the appearance of the hand and the way it moves; they also control vibrator activities.
Cybertouch (Dataglove) CyberGlove Systems Cybertouch Participants wear this dataglove to control the movements of the virtual hand in the virtual environment. Measurement frequency = 100 Hz; Vibrator vibrational frequency = 0-125 Hz.
Intersense (Orientation tracker) Thales InertiaCube3 Participants wear the Intersense tracker to permit monitoring the orientation of their real hand (data that the used dataglove does not provide). Update rate = 180 Hz.
Biopac system (Physiological measurement device) Biopac MP100 The hardware to record skin conductance response.
Acquisition unit (Physiological measurement device) Biopac BN-PPGED The hardware to record skin conductance response.
Remote transmitter (Physiological measurement device) Biopac BN-PPGED-T Participants wear the remote transmitter on their left hand wrist; it sends signals to the Biopac acqusition unit.
Electrode (Physiological measurement device) Biopac EL507 Participants wear  the electrode on their fingers; it picks up skin conductance signals.
AcqKnowledge (Software controlling acquisition of physiological data) Biopac ACK100W, ACK100M The software to record skin conductance responses.
Box Custom-made Participants put their right hand into the box
Computer Any standard PC + Screen (could be replaced by VR glasses/devive) Necessary to present the virtual reality environment, including the virtual hand.
Cape Custom-made Participants wear this cape on their right shoulder so they cannot see their right hand and arm.
Kinect (Head position tracker) Microsoft Kinect tracks the X-Y position of the participant's head. Recording frame rate = 30 Hz.
FAAST (Head position tracker software) MXR FAAST 1.0 Software controls Kinect and is used to track the position of the participant's head.
Intersense (Head orientation tracker) Thales InertiaCube3 Intersense tracks rotational orientation changes of the participant's head. Update rate = 180 Hz.
Facegen (Face-model generator software) Singular Inversions FaceGen Modeller  Facegen allows creating various virtual faces by varying various parameters, such as male/female-ness or skin color.
Cap Any cap, e.g., baseball cap The cap carries the Intersense orientation tracker.
Computer Any standard PC + Screen Necessary to present the virtual reality environment, including the virtual head.

DOWNLOAD MATERIALS LIST

References

  1. Tsakiris, M., Schütz-Bosbach, S., Gallagher, S. On agency and body-ownership: Phenomenological and neurocognitive reflections. Conscious. Cogn. 16, (3), 645-660 (2007).
  2. Botvinick, M., Cohen, J. Rubber hands 'feel' touch that eyes see. Nature. 391, (6669), 756-756 (1998).
  3. Armel, K. C., Ramachandran, V. S. Projecting sensations to external objects: Evidence from skin conductance response. Proc. R. Soc. B. 270, (1523), 1499-1506 (2003).
  4. Tsakiris, M. My body in the brain: A neurocognitive model of body-ownership. Neuropsychologia. 48, (3), 703-712 (2010).
  5. Kalckert, A., Ehrsson, H. H. Moving a rubber hand that feels like your own: Dissociation of ownership and agency. Front. Hum. Neurosci. 6, (40), (2012).
  6. Kalckert, A., Ehrsson, H. H. The spatial distance rule in the moving and classical rubber hand illusions. Conscious. Cogn. 30C, 118-132 (2014).
  7. Ma, K., Hommel, B. Body-ownership for actively operated non-corporeal objects. Conscious. Cogn. 36, 75-86 (2015).
  8. Ma, K., Hommel, B. The role of agency for perceived ownership in the virtual hand illusion. Conscious. Cogn. 36, 277-288 (2015).
  9. Slater, M., Perez-Marcos, D., Ehrsson, H. H., Sanchez-Vives, M. V. Towards a digital body: The virtual arm illusion. Front. Hum. Neurosci. 2, (6), (2008).
  10. Sanchez-Vives, M. V., Spanlang, B., Frisoli, A., Bergamasco, M., Slater, M. Virtual hand illusion induced by visuomotor correlations. PLOS ONE. 5, (4), e10381 (2010).
  11. Spanlang, B., et al. How to build an embodiment lab: Achieving body representation illusions in virtual reality. Front. Robot. AI. 1, 1-22 (2014).
  12. Tsakiris, M. Looking for myself: Current multisensory input alters self-face recognition. PLOS ONE. 3, (12), e4040 (2008).
  13. Sforza, A., Bufalari, I., Haggard, P., Aglioti, S. M. My face in yours: Visuo-tactile facial stimulation influences sense of identity. Soc. Neurosci. 5, 148-162 (2010).
  14. Bufalari, I., Porciello, G., Sperduti, M., Minio-Paluello, I. Self-identification with another person's face: the time relevant role of multimodal brain areas in the enfacement illusion. J. Neurophysiol. 113, (7), 1959-1962 (2015).
  15. Ma, K., Sellaro, R., Lippelt, D. P., Hommel, B. Mood migration: How enfacing a smile makes you happier. Cognition. 151, 52-62 (2016).
  16. Ma, K., Hommel, B. The virtual-hand illusion: Effects of impact and threat on perceived ownership and affective resonance. Front. Psychol. 4, (604), (2013).
  17. Suma, E. A., et al. Adapting user interfaces for gestural interaction with the flexible action and articulated skeleton toolkit. Comput. Graph. 37, (3), 193-201 (2013).
  18. Aron, A., Aron, E. N., Smollan, D. Inclusion of Other in the Self Scale and the structure of interpersonal closeness. J. Pers. Soc. Psychol. 63, (4), 596 (1992).
  19. Russell, J. A., Weiss, A., Mendelsohn, G. A. Affect grid: a single-item scale of pleasure and arousal. J. Pers. Soc. Psychol. 57, (3), 493-502 (1989).
  20. Guilford, J. P. The nature of human intelligence. McGraw- Hill. New York, NY. (1967).
  21. Ashby, F. G., Isen, A. M., Turken, A. U. A neuropsychological theory of positive affect and its influence on cognition. Psychol. Rev. 106, (3), 529-550 (1999).
  22. Hommel, B. 34;Action control and the sense of agency". The sense of agency. Haggard, P., Eitam, B. Oxford University Press. New York. 307-326 (2015).
  23. Akbari Chermahini, S., Hommel, B. The (b)link between creativity and dopamine: Spontaneous eye blink rates predict and dissociate divergent and convergent thinking. Cognition. 115, (3), 458-465 (2010).
  24. Sanchez-Vives, M. V., Slater, M. From presence to consciousness through virtual reality. Nat. Rev. Neurosci. 6, (4), 332-339 (2005).
  25. Slater, M., Spanlang, B., Sanchez-Vives, M. V., Blanke, O. First person experience of body transfer in virtual reality. PLOS ONE. 5, (5), (2010).
  26. Maselli, A., Slater, M. The building blocks of the full body ownership illusion. Front. Hum. Neurosci. 7, (83), (2013).
  27. Pavone, E. F., et al. Embodying others in immersive virtual reality: Electro cortical signatures of monitoring the errors in the actions of an avatar seen from a first-person perspective. J. Neurosci. 26, (2), 268-276 (2016).
  28. Tieri, G., Tidoni, E., Pavone, E. F., Aglioti, S. M. Body visual discontinuity affects feeling of ownership and skin conductance responses. Sci. Rep. 5, (17139), (2015).
  29. Kilteni, K., Normand, J., Sanchez-Vives, M. V., Slater, M. Extending body space in immersive virtual reality: A long arm illusion. PLOS ONE. 7, (7), (2012).
  30. Banakou, D., Groten, R., Slater, M. Illusory ownership of a virtual child body causes overestimation of object sizes and implicit attitude changes. Proc. Natl. Acad. Sci. U.S.A. 110, (31), 12846-12851 (2013).
  31. Martini, M., Perez-Marcos, D., Sanchez-Vives, M. V. What color is my arm? Changes in skin color of an embodied virtual arm modulates pain threshold. Front. Hum. Neurosci. 7, (438), (2013).
  32. Peck, T. C., Seinfeld, S., Aglioti, S. M., Slater, M. Putting yourself in the skin of a black avatar reduces implicit racial bias. Consc. Cogn. 22, (3), 779-787 (2013).
  33. Shimada, S., Fukuda, K., Hiraki, K. Rubber hand illusion under delayed visual feedback. PLOS ONE. 4, (7), (2009).
  34. Synofzik, M., Vosgerau, G., Newen, A. Beyond the comparator model: A multifactorial two-step account of agency. Conscious. Cogn. 17, (1), 219-239 (2008).
  35. Hommel, B., Müsseler, J., Aschersleben, G., Prinz, W. The theory of event coding (TEC): A framework for perception and action planning. Behav. Brain. Sci. 24, (5), 849-878 (2001).
  36. Hommel, B. Action control according to TEC (theory of event coding). Psychol. Res. 73, (4), 512-526 (2009).
가상-손과 가상 얼굴 환상을 만드는 것은 자기 표현을 조사하기
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Ma, K., Lippelt, D. P., Hommel, B. Creating Virtual-hand and Virtual-face Illusions to Investigate Self-representation. J. Vis. Exp. (121), e54784, doi:10.3791/54784 (2017).More

Ma, K., Lippelt, D. P., Hommel, B. Creating Virtual-hand and Virtual-face Illusions to Investigate Self-representation. J. Vis. Exp. (121), e54784, doi:10.3791/54784 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
simple hit counter