Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

自己表現を調査するために、仮想手と仮想面のイリュージョンを作成します

doi: 10.3791/54784 Published: March 1, 2017

Summary

ここでは、仮想手と体関連の自己認識/ -representationを研究するために使用することができる仮想面錯覚パラダイムを記述しています。彼らは既に仮想の手や顔、身体表現はかなり柔軟であることを示唆し、自分の身体表現に組み込むことができ、特定の条件の下で、それを実証するために様々な研究で使用されてきました。

Abstract

人々は自分自身と自分の体を表す方法を調査した研究は、多くの場合、このような従来のゴム手の錯覚以上最近発見enfacementの錯覚として「所有権の幻想」、の変異体を使用しています。しかし、これらの例は、参加者がなでるに対する制御または彼らの本当のまたは人工エフェクターの動きを持っていないような人工的なエフェクターは、参加者の実際の手や顔の状況に同期してストロークする必要があるではなく、人工的な実験装置を必要とし、 。ここで、我々はより多くの、より直感的、現実的な、そしておそらくより高い生態学的妥当性のある設定に所有権幻想を確立するための技術について説明します。これは、参加者が画面上またはそれらの前の仮想空間に提示する仮想の手の動きを制御させることによって、仮想の手の錯覚を作成することができます。仮想手が参加者自身の本当の手に同期して移動すると、彼らはトンを知覚する傾向があります自分の体の一部として、彼の仮想の手。技術はまた、参加者が、彼らはそれが彼らの本当の顔に同期して移動した場合、自分のように顔を知覚する傾向が影響して、再び、彼らの前に仮想の顔の動きを制御させることによって、仮想面錯覚を作成します。この種の幻想は、作成した増加、または減少させることができる状況を研究することは、人々が作成し、自分自身の表現を維持する方法に関する重要な情報を提供します。

Introduction

西洋哲学によると、人間の自己二つの側面1で構成されています、私たちが今ここで、驚異的な自己表現を作成している私たち自身の体と私たちの活動を知覚一つは(多くの場合、 最小限の自己と呼ばれます)。別のために、我々は新興の自己概念に新たな情報を統合し、私たちの個人履歴に関する情報を格納することによって自分自身のより永続的な表現を作成し、いわゆる物語の自己の創造に達するに応じて私たちの社会環境、に自分自身を提示します。最小限または驚異的な自己は、2つの情報源から出現するように主張されてきました。一つは、私たちが所有するエフェクターや私たちの顔の形状に関する情報として、私たちの体のより長く持続側面に関するトップダウンの情報です。他には、現在の状況で自己認識が提供するボトムアップの情報です。

後者の研究はSTRONましたGlyをBotvinickとコーエン2の巧妙な研究に触発されました。これらの著者は、しかし、視界から隠されていた彼らの本当の手の1に近い彼らの前に横たわっているゴム手、と人間の参加を発表しました。実際の手とゴム手がそのようにインターモーダル同期入力を作成するには、同期して撫でたとき、参加者は自分自身の体ゴムの手の錯覚の一部としてゴム手を知覚する傾向がありました。さらなる研究は、知覚所有権があっても、これまでの参加者が発汗やゴム手がナイフで攻撃されたか、そうでなければ3」を傷つける」されたときに彼らの本当の手を撤回しようとし始めるだろうといったことを明らかにしました。

Botvinickとコーエンは、その自己認識はボトムアップ情報の処理から生じる実証するためにその結果を解釈しているが、他の著者は、インターモーダルsynchr間の相互作用からそのゴムの手の錯覚をもたらす主張してきました入力のONY、情報のボトムアップソース、そして自分の手の記憶表現、情報4のトップダウンのソース。アイデアは、刺激同期が本物とゴム手は1と同じものであるという印象を作成し、ゴム手は本物の手のように見えることを考えると、この印象が現実と見なされていることです。

KalckertとEhrsson 5によるその後の研究では、両方の知覚所有権(人工エフェクターは、自分の体に属していることを印象)の調査と知覚される代理店を可能にするゴム手のパラダイム、(1であることが印象にvisuo-モータ部品を追加しました観測された動き自分)を製造します。参加者は自分の人差し指を動かすことにより、上下のゴム手の人差し指を移動することができましたし、実際のゴム手の指の動きとの間の同期、(アクティブモード対パッシブ)運動のモード、およびpositioninゴム手のグラム(参加者の手に関する合同対ちぐはぐ)が操作しました。運動の同期は、運動のみ影響を受けた機関のモードを所有し、代理店の両方の意味を廃止し、ゴムの手の位置の一致は上の効果を有していた:調査結果は、政府機関と所有権が機能的に異なる認知現象であるという概念をサポートするために取られました所有権のみ。後者の2つの結果は、垂直面での実とゴム手との距離が6を変化させたフォローアップ研究にレプリケートされていました。その位置はますます参加者の実際の手を不整合などのゴム手のための所有権が減少しました。しかし、代理店はいずれかの条件でゴム手のmisplacementsによって影響を受けませんでした。

しかし、人工的なエフェクターを超えるアクティブ制御と参加者を提供するバーチャルリアリティ技術を用いた最近の研究では、トップダウンの役割を示唆しています一部と所有および政府機関との区別は7、8過大評価されていてもよいです。これらの技術は、彼らの前に画面上または仮想現実メガネ9によって参加者に提示する仮想手でゴム手に取って代わりました。参加者は、一般的に同期または非同期のいずれか( 例えば 、顕著な遅延で)、仮想の手の動きに参加者の実際の手の動きを変換datagloveを着用してください。ゴム手の錯覚と同様に、同期翻訳が強く、仮想手が彼または彼女自身の体10の一部になることを参加者の印象を向上させます。

ゴムの手の錯覚を作成するために、バーチャルリアリティ技術を採用することにより、従来のゴム手のパラダイムとvisuoモータcomponenとゴムの手のパラダイムの組み合わせの両方に対していくつかの利点がありますTS 11。手を動かすと、それはゴム手が直面しているよりもはるかに自然な状況を作成し、実験者が撫でた状態で同期して移動するエフェクターを見て。また、仮想操作ははるかに実験的な柔軟性と知覚と移動1の本当の手を人工エフェクターによって作成されたイベントの1の認識との間の知覚の関係をもっと自由に制御して実験を提供します。具体的には、仮想技術を使用して、知覚所有権および政府機関に影響を与える可能性がある要因の操作を容易にします。例えば、仮想の手の形状が非常に容易とゴム手の形状よりも速く変更することができ、仮想の手の動きは、任意の種類のものと、例えば生物学的に不可能な動きを含むことができます。とりわけ、これは人工的なエフェクターが手のように見える必要はなく、REPLACされるように、錯覚の限界を模索容易静的または動的なイベントの任意の種類によってエド。実用的かつ理論的な両方興味深いのは、仮想エフェクターは間違いなくより多くの没入型であり、現状の意味を理解するトップダウンの解釈を起動する必要性を軽減する可能性があるゴム手、より多くの実をたくさん感じています。

所有権の幻想は、しかし、手に限定されていません。 Tsakiris 12は、彼らの前に提示された画像内の静的な顔が独自であることを参加者の印象を作成するために、ストロークの技術を使用した最初のものです。スフォルツァら。 13はまた、彼らはenfacementとして参照するために、この現象の証拠を発見した:自分自身とパートナーの顔が同期して触れたとき、参加者は相手の顔の特徴を組み込みました。 enfacementの錯覚の基礎となる神経機構は最近、様々な研究者によって研究されてきました。総合的な解説とint型のために調査結果のerpretationはBufalari らを参照てください 14。我々は最近、参加者が自分のヘッド15を移動させることによって、彼らの前に仮想の顔の動きを制御している、バーチャルリアリティのバージョン(仮想面錯覚)にレギュラーenfacement錯視デザインになっています。

ここでは、自己表現を調査するために、それぞれ、15パラダイム仮想手の錯覚7と仮想面錯覚を使用する二つの実験を説明します。 (a)は(フェルト)の間の同期をリアルタイム手として所有権と代理店または3秒を誘導するためにゼロに近いのいずれかであった(見た)仮想エフェクターの動き、仮想の手の実験は3、完全に交差した実験的な要因を含んでいました制御条件。 (b)は、人間の手のようにまたは長方形のようにどちらかに見えた仮想エフェクターの外観は、(そのように実仮想EFFの効果をテストします所有権の錯覚にエクターの類似性)。そして、、(c)は、アクティブ状態でのパッシブ状態で存在しないか、直接のいずれかであった仮想エフェクターの動作を制御するための機会。仮想面の実験は2、完全に交差した実験的な要因を含んでいた:(a)の所有権と代理店または対照条件として3秒を誘導するためにゼロに近いのいずれかであった実顔と仮想面の動き、間の同期。および(b)は正のムードは参加者の気分を持ち上げ、気分に敏感な創造タスクで彼または彼女のパフォーマンスを改善するかどうかをテストするために、中性または笑顔を示すのいずれかであった仮想顔の表情を。

Protocol

すべての研究は、ヘルシンキ宣言の倫理基準に適合し、プロトコルはライデン大学人間研究倫理委員会によって承認されました。各条件は、約20の参加者をテストしました。

1.仮想手のイリュージョン

  1. 実験のセットアップ
    1. など 、年齢、性別、のように、参加者を歓迎し、追加情報を収集
    2. 仮想現実のプログラミング環境を備えて実験を確立します。手のひらの真ん中にし、5本の指のそれぞれの内側(第2)指骨(材料リストを参照してください)の外側に取り付けられた6プログラマブル振動刺激と右利きdataglove。フリーダム(DOF)配向トラッカーの3度。 SCR(皮膚伝導反応)測定装置。ブラックボックス(深さ:50 cm、高さ24センチメートル;幅38 cm)の仮想現実イロを提示するのに役立つ(水平上に横たわっているコンピュータの画面でnment);そして参加者の手をカバーする岬。
    3. 右手首に彼または彼女の右手にdatagloveと向きトラッカーを入れて参加者を確認して下さい。左手首にストラップ付きSCR遠隔送信機を取り付けます。 (設定については、 図1AおよびBを参照)、左手の人差し指と中指の内側(第2)指骨にSCR電極を置きます。
    4. 上にコンピュータの画面を持つボックスが置かれた机の前で参加者を収容。彼らの見解からシールドするように、深さ軸に沿ったボックスの中に右手を入れて参加者を確認して下さい。
    5. 参加者の右肩の上にマントを入れて、画面と参加者との間のスペースをカバーしています。机の空の部分に彼または彼女の左手を休ませる参加者を確認して下さい。
    6. コンピュータにdatagloveと向きトラッカーのケーブルを接続し、仮想現実のプログラミングenvironmeを開始NT。バーチャルリアリティ環境が起動するように、仮想現実環境インタフェースで「実行」ボタンをクリックして、コマンドウィンドウで事前に書かれたコマンドスクリプトを実行します。参加者は、参加者の前にコンピュータの画面に表示される指示に従っていることを監視します。あらかじめ書かれたコマンドスクリプトは自動的に終了するまで待ちます。

図1
1:(A)参加者は自分の左手側の配向トラッカーとその右手にdataglove、およびSCR遠隔送信機を身に着けていました。 (B)仮想手の錯覚実験のセットアップ。 (C)仮想面錯覚実験のセットアップ。 (D)コンピュータ画面のスクリーンショット。この図の拡大版をご覧になるにはこちらをクリックしてください。

  1. バーチャルハンドデザイン
    注記:バーチャルリアリティソフトウェアのコマンドウィンドウでの使用Pythonコマンドスクリプトと、それらを保存します。メインコマンドスクリプトは、以下に説明するインポートコマンド、モジュールスクリプト、およびその他のコマンドは、同じスクリプトファイルの一部であることを確認してください。完全なPythonスクリプトと、必要なファイルの場合(NBを結合した「バーチャルハンドIllusion.zip」ファイルを参照してください:ZIPファイルは、補足原稿の材料やソフトウェアパッケージの一部ではないさらに、それはのために必要なプラグインを除外します。 datagloveと向きトラッカー、スクリプト全体で使用される他の任意のpythonモジュール)。実験を実行するために、第1の( 例えばデスクトップ)任意のフォルダにこのファイルの内容を解凍した後、実験を開始するには、「仮想手illusion_54784_R2_052716_KM.py」ファイルをダブルクリックします。スクリプトがあることに注意してください述べた仮想現実のプログラミング環境で動作するように設計されており、他のプログラムを使用して動作しません。
    1. あらかじめ用意された仮想のハンドモデルと仮想現実環境に(バーチャルリアリティ環境のソフトウェアパッケージの割賦ファイルで確認できます)前書かれた手のスクリプトモジュールをインポートします。手のスクリプトモジュールは、指の関節ジェスチャーとdatagloveの角度を追跡し、datagloveを着て本物の手を動かすことによって、仮想の手の動きを制御することができる仮想の手のモデル、に情報を供給する。
      1. 必要に応じて手動でそのサイズを変更したり、マッピングされた画像を変更するなど、そのx、y、zのスケーリングなどのスクリプトでそのパラメータを指定することによって、仮想の手の大きさや外観を変更。
      2. 仮想手が本物の手のように(約)同時に同じように移動するように同期条件については、何の変換を使用しません。非同期を作成するには、3秒の遅延を追加することにより、バーチャリットルの手は、実際の手としてではなく顕著な遅延で移動します。
    2. バーチャルリアリティ環境割賦ファイル内の適切な既製の姿勢トラッカープラグインを識別し、コマンドスクリプトでそれをインポートします。コマンドスクリプトを実行すると、向きトラッカーモジュールは、次に設定することで、仮想の手の向きの変化を制御するために使用することができます(トラッカー参加者は自分の右手首に着用向きによって提供される)実際の手の向きの変更を追跡させることに注意してくださいコマンドウィンドウ内の仮想手のヨー、ピッチ、ロールデータ。直接同期条件のための仮想のハンドモデルに向きトラッカーによって監視されるデータチャネルが、非同期のために3秒の遅延を挿入します。
    3. それらが、ここで(仮想手から移動するように、必要な追加の仮想オブジェクトとその動きの軌跡を設計し、スティック、長方形、ボール、およびナイフの設計およびインポートの追加モデルは、様々なPAの間に使用されます実験のRTS。 )「実験条件」を参照してください。手動で仮想手のためのパラメータが設定されているのと同じ方法でコマンドスクリプトでこれらのオブジェクトのそれぞれについて、サイズ、外観や位置を変更します。オブジェクトの移動軌跡と、それが移動すべき速度の開始と終了位置を設定するために適切なコマンドを使用して、必要な移動軌跡を設定します。
    4. コマンドスクリプト内の各振動刺激の振動強度とタイミングを決定します。同期条件について遅滞なく( すなわち 、振動は、仮想手が他の仮想物体が接触しているときに、正確に開始)、または非同期のために3秒の遅延でどちらか。すべての振動子は、仮想の手を他の仮想物体(または遅延時点で)によってタッチされたと同時に振​​動します。中レベル( すなわち 0.5に0-1のスケールで)への振動の強さを設定します。振動の実際の強度はprogrammiに依存することに注意してくださいngの環境と振動実験のために使用され、異なるハードウェア( すなわち 、振動子/ dataglove)またはソフトウェアを使用した場合、当社の実験で振動の中レベルは必ずしも振動の実際の強さと一致しないこと。
    5. 以下の変更を除いて、前の手順と同じです実験スクリプトへの第二の部分を追加します。
      1. 仮想手と同様のサイズの仮想矩形を持つ仮想のハンドモデルを交換してください(そう実験の出現率を実現するために)
      2. 姿勢トラッカーによってピックアップ本物の手の回転が長方形の回転運動に変換されていることを確認します。
      3. datagloveによってピックアップとして、実際の手の開閉があなたのプログラミング環境でオブジェクトの色を変更するための適切なコマンドを使用して矩形の色の変化に翻訳されていることを確認してください( 例えば 、緑色で四角形を提示したとき時間そしてそれを完全に開けて、手の開閉としての色が徐々に)赤、緑または赤から緑に変更してみましょうされたときに赤で、完全に閉じています。
  2. 実験条件
    1. 参加者全体のバランスまたは無作為化のいずれかであるために、8実験(3つの実験の要因の同期性を交配から生じる、仮想エフェクターの外観、およびアクティブ/パッシブ)の条件を実行します。
    2. 各条件について、電気生理学的皮膚反応(SCR)を測定するために、仮想の手の錯覚と脅威相を誘導するために、約2各分〜3の3段階が含まれます。具体的なプロトコルは、8つの条件を若干異なり、以下に説明されます。
    3. 仮想手/アクティブ/同期
      1. 次のイベント間の遅延がゼロに近いと目立たないようにシステムを設定します。(a)の動きと実際の手の向きの変化と対応る動きとvisuoモータ相関段階における仮想手の向きが変化します。 (b)は、仮想手と画面上に追加の仮想物体とvisuo触覚相における実際の手の振動によって誘発される刺激の対応の時点との間の接触の時点;及び(c)の動きと実際の手の向きの変化と対応する動きと、仮想の手の向きの変更;そして、画面上の仮想手と追加の仮想物体との接触の時点とvisuo-モータ触覚相における実際の手の振動によって誘発される刺激の対応の時点。
      2. visuoモータ相関相については、参加者が自由に移動したり、開口部を含む閉じ、そして彼らの本当の手を回転させて、個別に各指を動かし、彼らの本当の右手を回転させています。参加者はコンピュータ画面上の仮想手の対応する動きを見てもらいます。
      3. Vのためのisuo-触覚刺激相は、画面を見ながら参加者はまだ彼らの本当の手を保持しています。感動の印象を生成し、仮想手を触れていない、と仮想手から移動するように(1.2.3で作成された)仮想ボールやスティックのように、画面上の別の仮想物体を提示します。
        1. dataglove上のバイブレータ活性によるこの追加の仮想物体と仮想手の間の各接触を添付する。バイブレーターを持っている仮想物体が仮想手のひらに触れるように見える場合は、追加の仮想物体( 例えば 、によってタッチされている仮想手の部分に対応する実際の手のその部分を刺激し、参加者の手のひら実際の手がバイブレータ16)によって刺激されるべきです。
      4. visuo-モータ触覚相関段階では、参加者が仮想振動目に触れるために、彼らの本当の手を動かすことによって、仮想の手を動かしています嫌なまたは類似のオブジェクト(1.2.3を参照)。 1.3.3.3で説明したように、仮想手と仮想スティック/オブジェクト間のそれぞれの接触は参加者の実際の手の振動によって誘発される刺激を伴っていることを確認してください。
      5. 脅威の段階では、仮想ナイフや針を見ながら、参加者がコンピュータの画面に表示され、まだ彼らの本当の右手を保つ必要があります。仮想ナイフや針はと仮想手から行かせます。目に見える明らか「切断」または仮想手の「パンクチャリング」の各接触の結果ことを確認してください。
        1. 1.3.3.3に記載されているようにdatagloveの振動子を使用して仮想手の切断やパンクチャー部分に対応する実際の手のその部分を刺激します。
    4. 仮想手/アクティブ/非同期
      1. 重要なイベント間の遅延が3秒の代わりにゼロに近くなるように、システムを構成した後、1.3.3で説明した手順を実行します。
      2. 仮想長方形/アクティブ/同期
        1. 1.3.3の下ではなく、仮想の手の仮想矩形で説明する手順を実行します。
      3. 仮想長方形/アクティブ/非同期
        1. 1.3.4の下ではなく、仮想の手の仮想矩形で説明する手順を実行します。
      4. 仮想手/パッシブ/同期
        1. 1.3.3で説明した手順を実行しますが、すべてのフェーズを通じてまだ彼または彼女の本当の手を保つために参加者に依頼してください。
      5. 仮想手/パッシブ/非同期
        1. 1.3.4で説明した手順を実行しますが、すべてのフェーズを通じてまだ彼または彼女の本当の手を保つために参加者に依頼してください。
      6. 仮想長方形/パッシブ/同期
        1. 1.3.5で説明した手順を実行しますが、すべてのフェーズを通じてまだ彼または彼女の本当の手を保つために参加者に依頼してください。
      7. 仮想長方形/パッシブ/非同期
        1. 1.3.6で説明した手順を実行しますが、すべてのフェーズを通じてまだ彼または彼女の本当の手を保つために参加者に依頼してください。
    5. データ収集
      1. 測定機器(材料リストを参照してください)とそのソフトウェアを使用してSCRデータを収集します。記録周波数は、すべて0.1ミリ秒です。
      2. それぞれの条件のために所有権、代理店、場所や外観の感覚を測定するアンケートに記入して参加者を確認して下さい。 (1.4.2.3で説明したように)リッカート尺度と一緒に(1.4.2.1と1.4.2.2で説明したように)各質問が印刷されているいずれかの紙版を、使用し、ペンで記入することができます。またはリッカート尺度と一緒に、それぞれの質問が画面に表示されるコンピュータ化されたバージョンを使用し、ここで選択されたスケール値は、で入力することができます。
        1. 最小限一つ以上の所有権の質問2を備えアンケートを含めます。次の4つを使用します。<BR />(01)は、「画面上の手が私の右の手や私の体の一部であるかのように私は感じました」。
          (O2)は「私が見ていたことを、画面上の手でスティックのタッチによって引き起こされた、私は私の右の手に感じていたものかのように見えました」。
          (O3)は、「私は私の右手に感じた振動は、画面上の手が棒で触れたのと同じ場所にあった感覚を持っていました」。
          (O4)は、「私の右手は、画面上の手があった場所にあったように見えました」。
        2. 代理店の質問に関するご質問など、考えてみましょう。次のコマンドを使用します。
          (A1)は、(アクティブ状態のために)「私は、この仮想の手を制御することができます感じました」。
          (A1)は(パッシブ状態のため)「私が望んでいた場合、それは私の意志に従うしているかのように私は、画面に手を移動している可能性のようにも見えました」。 。
          1.4.2.1と1.4.2.2に記載されているアイテムは手の状態を指すことに注意してください。矩形条件に置き換えます仮想矩形に参照することで、仮想の手へのすべての参照。
        3. 参加者が質問に同意する度合いをスコアすることができるように、各質問( 例えば 、1-7)のためのリッカート尺度2を使用します。 例えば 、「強く同意する」ために「強く反対する」と7のために1を使用しています。それぞれの質問が画面に表示され、リッカート尺度の7応答オプションに対応する7の数字1で応答することができることを確認します。外観と応答オプションは実験スクリプトでプログラムされています。

    2.仮想面イリュージョン

    1. 実験のセットアップ
      1. など 、年齢、性別、のように、参加者を歓迎し、追加情報を収集
      2. 仮想現実のプログラミング環境を備えて実験を確立します。対応するハードウェアおよびソフトウェアを含むヘッド位置追跡システム、F "> 17;および帽子や野球キャップの上部に取り付けられた3自由度の方位追跡。
        注:この実験を使用して、参加者が自由に移動または仮想顔の位置と方向を制御するために、自分の頭を回転させるが、それらは仮想の顔の表情を制御することはできません
      3. コンピュータの画面の前で椅子に2メートルを座って参加者を確認して下さい。実験のセットアップのイラストについては、 図1Cおよび1Dを参照てください。
      4. 添付の向きトラッカーにキャップを置くために参加者を確認して下さい。
      5. 位置追跡システムと向きトラッカーは、コンピュータに接続し、バーチャルリアリティ環境が起動するように、仮想現実環境インタフェースで「実行」ボタンをクリックして、コマンドウィンドウで事前に書かれたコマンドスクリプトを実行します。参加者は、参加者の前にコンピュータの画面に表示される指示に従っていることを監視します。待つあらかじめ書かれたコマンドスクリプトまで自動的に終了します。
    2. 仮想フェイスデザイン
      注:完全なPythonスクリプトと必要なファイルが(NBを結合した「バーチャル顔Illusion.zip」ファイルを参照してください:ZIPファイルは、補足原稿の材料やソフトウェアパッケージの一部ではありません 。それは、必要なプラグインが含まれていません位置姿勢追跡し、スクリプト全体で使用される他の任意のpythonモジュール)に使用されます。実験を実行するためには、まず任意のフォルダ( 例えばデスクトップ)にこのファイルの内容を解凍した後、実験を開始するには、「仮想面illusion_54784_R2_052716_KM.py」ファイルをダブルクリックします。スクリプトはここに提示仮想現実のプログラミング環境で動作するように設計されており、他のプログラムを使用して動作しませんので注意してください。
      1. (に対応する適切な年齢、人種、性別と仮想面を設計するために、仮想の顔建物のプログラムを使用しますプログラムの対応するスケールで最高のフィッティング値を選択することによってテストされている参加者)
      2. (変更の目の大きさ、口の曲率や他のいくつかの顔の筋肉によって表現が変化する)プログラムの対応するスケールに対応する値を選択することで、それぞれの顔の2つのバージョンは、中性表情と笑顔で1と1を作成します。
      3. 大学生をテストするために、仮想フェイスビルプログラムと4 20歳の仮想の顔を作成し、中立表情、笑顔されている1人の男性の顔、中立表情を持つ一人の女性の顔、そして一人の女性の顔を持つ1人の男性の顔それは笑っています
      4. 仮想顔ビルディングプログラムでは、3D VRML形式のファイルに顔をエクスポートします。
      5. 実験中の使用のための仮想現実環境に、 すなわち 、仮想の面を作成したVRMLファイルをインポートする仮想現実のプログラミング環境の適切なコマンドを使用します。バージニアそれに応じて適切なコマンドを使用して、そのパラメータを設定することで、その大きさやスケールをRY。
      6. 参加者の頭の位置を追跡することを可能にする、仮想環境の割賦ファイルにヘッド位置追跡システムのための事前書面による追跡モジュールを見つけ、それをインポートします。スクリプトでは、(同期条件に0ミリ秒の遅延と非同期のために3秒の遅延を使用)、ヘッド位置のデータを変更して、ヘッドの位置は、仮想面位置に換算されているときの時点を決定します。
      7. 仮想環境の割賦ファイルで既製の姿勢トラッカープラグインを見つけ、コマンドスクリプトでそれをインポートします。なお、再び、スクリプトが(同期条件に0ミリ秒の遅延と非同期のために3秒の遅延を使用して参加者の頭部の向きの変更は、仮想ヘッドの向きの変更に翻訳されたときの時間点に対する時間的な遅延を導入することができます)。
      8. デザイン追加の仮想OB(仮想スティックなど)jectsとその運動軌跡は、ので、彼らはと仮想面から移動します。仮想指のサイズに類似すると、仮想オブジェクトのサイズを設定します。
      9. ハードウェアを接続し、保存されたコマンドスクリプトを実装してから、実験を開始します。
    3. 実験条件
      1. コマンドスクリプトを実行し、キャップに取り付けられた3自由度の方位追跡によってヘッド位置追跡システムと参加者の頭部の向きによって、参加者の頭部の位置を追跡します。
      2. 30秒間の仮想面に参加者を公開し、移動しない参加者に指示します。顔が消えた後、参加者は、彼または彼女は彼自身または彼女自身と仮想面との間の関係をどのように知覚するか評価するために(データ収集で説明)IOSスケールに応答しています。
      3. パルティ全体でバランスのとれたいずれかであるために、4つの実験条件(後述)を実行しますcipantsまたはランダム化されました。各条件は、仮想面錯覚を誘導するために約2〜3分の三相それぞれを含みます。
      4. ニュートラル/同期
        1. 次のイベント間の遅延がゼロに近いと目立たないようにシステムを設定します。(a)は、実際のヘッドの動きとvisuoモータ相関段階における仮想ヘッドと、(b)の時点の対応する動き参加者の実際の手と参加者の実際の頬の間とvisuo-触覚刺激相における仮想物体と仮想ヘッドとの接触。
        2. visuoモータ相関相については、添付の向きトラッカーとキャップに入れて参加者を持っています。仮想顔の位置と方向を制御するために、自分の頭を動かしたり回転させ続けるためにそれらを確認して下さい。
        3. visuo-触覚刺激相については、WAながら参加者は、自分の右の頬に触れて、繰り返し戻って右に自分の右腕を伸ばし、持っています画面をtching。タッチだけで瞬間的である:参加者は、頬に触れて行くと、右側にその右腕を伸ばしてみましょう、とこのvisuo触覚刺激フェーズの期間のために繰り返します。
        4. 画面では、繰り返し、仮想ボールとして、仮想物体によって頬に触れている仮想の顔を提示します。タッチは(一般的に、またはむしろ手の動き)である私たちが直接への参加者の手の動きをマップするために許可された3D空間で、参加者の四肢( 例えば手)の位置を追跡することができ、モーションシステムを介して、仮想オブジェクトと同期されます同期された参加者の実際の手の移動軌跡の移動と仮想物体の移動軌跡が得られる仮想物体の軌跡。仮想オブジェクトは、仮想アバターを触れるとしたがって、これは、自分の頬に触れ参加者に対応します。
      5. ニュートラル/非同期
        1. 手順デを実行します。重要なイベント間の遅延が3秒の代わりにゼロに近くなるように、システムを構成した後2.3.4の下でスクライビング。
      6. 笑顔/同期
        1. ニュートラル表情で代わりに顔の笑顔を提示するシステムを構成した後2.3.4で説明した手順を実行します。
      7. 笑顔/非同期
        1. 重要なイベント間の遅延が3秒の代わりにゼロに近くなるように、システムを構成した後2.3.6で説明した手順を実行します。
    4. データ収集
      1. それぞれの条件の所有者と代理店の感覚を測定するアンケートに記入して参加者を確認して下さい。
        1. 最小限一つ以上の所有権の問題を含んでアンケートを含めます。次の4つを使用します。
          (01)は「私は自分の顔だった画面上の顔のように感じました」。
          私がしたように(O2)「それは見えました「鏡で自分の反射を見ています。
          (O3)は、「私は、画面上の顔があった場所に私の顔に動きやタッチを感知していたようにも見えました」。
          (O4)は、「それは私が私の顔が画面上の顔に触れるボールによって引き起こされたのを感じたタッチのように思えました」。
        2. 代理店の質問を含めることを検討。次の2つを使用します。
          (A1)は、「私は、画面上の顔で見た動きは私自身の動きによって引き起こされたかのようにも見えました」。
          (A2)は、「画面上の顔は、それが私の意志に従うたかのように私は、それを望んでいただけのように移動しました」。
      2. 各スコアは自己他の重なりの程度が異なるに対応するように示されている2その上に7点(1-7)リッカート尺度を使用して作成された「自己の他のインクルージョン」(IOS)18をスケールを含み、 。 1 represを持つ2つの円の重なりを通じてグラフィカルに重なりの程度を示します「自己」と他のサークル「その他」をenting。二つの円のゼロ重なり、完璧なオーバーラップによって最高得点により、スケールの最低スコアを特徴付けます。高い評価は、このように、自己他の重複度が高い表します。
      3. 必要に応じて、気分を評価するために、グリッド19に影響与える含まれています。
        1. 眠い感じのために-4の範囲(覚醒するために、1つの次元が原子価に相当するリッカート現物グリッド、2次元(覚醒によって価)(快感のために4に不快感のために-4の範囲)および他の作成感情のために4に非常に)呼びました。
        2. 参加者は、彼らが現在感じて興奮どのように快適な、どのように対応する(ペンで、 例えば )1点を選択しています。
          注:実験の各フェーズが終了した後にアンケート、IOSおよびグリッドに与える影響は、画面に表示されます。参加者は、(仮想ハンドイリュージョン実験と同じ)応答するために、キーボードを使用していました。</李>
      4. 必要に応じて、代替タスク(AUT)20を使用含まれています。
        1. 新聞紙などのように一般的な家庭のアイテムのような多くの可能な用途を一覧表示するには、参加者を確認して下さい。タスクは、ペンと紙を用いて行われます。彼らは5分でできるように、オブジェクトのような多くの用途を書き留めるために参加者を持っています。
        2. 他のオブジェクト( 例えば 、レンガ)のために繰り返します。流暢(使用回数)、柔軟性(用途のカテゴリの数)、精緻(どのくらいの詳細、または使用するために提供される説明)、そしてオリジナリティ(使用がどのようにユニーク)に応じて、後で結果をスコア。より高いスコアは、すべての項目に高い発散的思考の性能を示していることを確認してください。二つの異なる得点を使用し、インタースコアラーの相関が高いことを確認してください。これは、タスクの中で最も一貫して理論的に最も透明スコアであるように、さらなる分析のための柔軟性スコアに焦点を当てています。
        3. 暗黙的な(とデマンドcharacteristic-としてAUTを使用しますこのタスクのパフォーマンスなどの気分を表す無料)尺度は、より良い気分21とともに増加します。
          注:AUTが実装変化に仮想顔が画面上に残るようなスクリプトである場合に表示され、彼らはAUTをやっている間に、参加者の管理下に置かれたまま。

Representative Results

仮想手のイリュージョン

私たちは、人々がこのような場合には、手を自分の体を表す方法を調査するために、仮想の手の錯覚パラダイムを使用していくつかの実験を実行しました。テストした参加者の数は、通常、各条件について20の参加者の周りに、条件の量に依存していました。ここでは、私達が私達の研究室で行われ、最も精緻化の研究のいずれかの関連性の高い結果を提供します。私たちは、主観的データに4所有質問(O1-O4)と代理店の質問(A1)へのリッカート・スケール応答にリッカート・スケール応答の平均を我々の議論を制限します。

本研究8において、我々は体系的に気難しいに同期(同期対非同期)、仮想エフェクターの外観(長方形対仮想手)、および活性(アクティブ対パッシブ)の影響を調査しました所有権と代理店の感覚のipantsの感覚(すべての条件が、参加者の中に試験しました)。結果は、所有権や代理店のために同じでした。 図2に示すように、実と仮想の手が同期して、[F(1,43)= 48.35移動した場合、知覚される所有権および代理店は強かったです。 P <0.001;そして、F(1,43)= 54.64; P <0.001; ]は、それぞれ、所有権や代理店のために、仮想エフェクターは、[F(1,43)= 14.85、それは長方形だった場合よりも、手であった場合。 P <0.001;そして、F(1,43)= 6.94; P <0.02]、および参加者は、むしろ受動[F(1,43)= 9.32よりアクティブであった場合。 P <0.005;そして、F(1,43)= 79.60; P <0.001]。同期の効果は、標準的な仮想の手の錯覚を複製します。

図2
図2: 一部の同期の機能、仮想エフェクターの外観、アクティビティなどの所有権と代理店の評価icipant。 この図の拡大版をご覧になるにはこちらをクリックしてください。

図3
図3: 参加者の同期と活性の関数としての所有権と代理店評価。同期の効果は積極的に参加するためのより顕著であることに注意してください。 この図の拡大版をご覧になるにはこちらをクリックしてください。

さらにより興味深いことに、所有権と代理店の両方が活動と同期の間に有意な交互作用が認められた[F(1,43)= 13.68; P = 0.001;そして、F(1,43)= 23.36; P <0.001;ではないが、外観と同期の間に、 図3を参照てください。このパターン活動は、所有権のためのより多くの主要な役割を果たしており、外観より幻想がないことを示唆している、それも架空の所有権の認識は、従来のゴム手の錯覚パラダイムよりも仮想で強力であることを示しました。ホンメル22、客観的な機関による(外部イベントが客観的に制御することが可能にする、すなわち 、度)が、この実験では、仮想エフェクターオーバーアクティブ、同期制御が主観的な所有権の両方を増加させた理由を説明している、主観的な所有権と主観的な代理店の両方に貢献しますそして、主観的機関。

外観は所有権の錯覚外観に依存していないことを示唆し、同期と相互作用することができませんでしたが、それは主効果を生み出すんでした。これは、外観は知覚所有権に影響を持っていることを示しています。それは、人々は、外部のオブジェクトがまたはPLではないかもしれないかもしれないものについての一般的な期待を持っていると仮定することが理にかなっています一般的には所有権の認識をサポートしていますが、同期の影響を緩和しない自分の体のausible一部。一般的なトップダウンの期待とボトムアップの同期情報を:私たちは、このように主観的な所有権の感覚に寄与する情報の複数のソースを締結します。これら二つの情報源との間の関係は、一般的な期待が同期、およびその逆の不在下で支配することができるように、インタラクティブしかし代償ではないようです。

仮想顔イリュージョン

別の研究では、人々が自分の顔を表す方法を検討しました。我々は、仮想面錯覚 12と呼ぶ仮想環境、伝統的なenfacementの錯覚を複製することができました。我々はさらに、人々は彼らが特定した仮想面によって表現気分を採用するかどうかを調べました。内-参加者1がありました因子同期(同期対非同期)と1の間、参加者因子表情(中性対幸せ)。また、誘導期が誘導期の後、IOSの評価から減算される前に、IOSの評価、誘導期が誘導期の後にグリッド・評価に影響を与えるから減算し、これらの格付け変更は、IOSとして使用し、影響を与えたの前にグリッドの評価に影響を与えますグリッド結果。

所有スコア(O1-4)、政府機関のスコア(A1-2)、およびIOSスケール18変化の分析はすべて、F(1,58)= 38.24 [同期の主な効果を示しました。 P <0.001; F(1,58)= 77.33; P <0.001;そして、F(1,58)= 43.63; P <0.001;それぞれ]、自分の頭の動きとの間の同期および仮想顔の動きが感知される所有権や代理店の増加、そして自分自身への他方の面の統合を容易にしたこと(Fi回線を参照てください示しますグレ4)。グリッドに影響を与える19の変更[F(1,58)= 7.99に同調効果によって示されるように、同期はまた、気分を改善し、 P <0.01]。

図4
図4:所有権と代理店評価だけでなく、IOSの変更、同期の関数として。正IOSの変更は1の自己への他の統合の増加を意味することに注意してください。 この図の拡大版をご覧になるにはこちらをクリックしてください。

図5
図5: 同期の機能と仮想顔の表現として、AUTのグリッド変化(正の値が正方向に影響を与える暗示)と柔軟性のスコアに影響を与えます。同期と発現との間の相互作用がより正方向気分や同期と幸せ仮想顔の組み合わせのために特に良好な柔軟性性能によって駆動されることに注意してください。 この図の拡大版をご覧になるにはこちらをクリックしてください。

IOS変更の表情の有意な主効果があった、同期[F(1と相互作用スコアグリッド変更と柔軟性に影響を与えているという事実があったグリッドが変化し影響を与え、柔軟性AUT 20、21、23しかし、より重要で58)= 4.40; P <0.05。そして、F(1,58)= 4.98; P <0.05。それぞれ]。 図5に示すように、参加者は、改善されたムードを報告しenfacing( すなわち 、同期した後に、より創造的な挙動を示しました。lyが、彼らは幸せそうな顔で、または同期中立顔とは非同期に移動した条件と比較して)との幸せそうな顔を動かします。

F / P / PES EFF 行為 SYN EFF * ACT EFF * SYN ACT * SYN EFF * ACT * SYN
O1 11.66 10.11 45.38 10.08
0.001 0.003 <0.001 0.003
0.21 0.19 0.51 0.19
O2 5.37 47.65
0。025 <0.001
0.11 0.53
O3 10.75 41.30 9.81
0.002 <0.001 0.003
0.20 0.49 0.19
O4 12.86 17.17 15.12 10.60
0.001 <0.001 <0.001 0.002
0.23 0.29 0.26 0.20
O1-4 14.85 9.32 48.35 13.68
0; 0.001 0.004 <0.001 0.001
0.26 0.18 0.53 0.24
A1 6.94 79.60 54.64 23.36
0.012 <0.001 <0.001 <0.001
0.14 0.65 0.56 0.37

1:F、P と部分イータは、DF = 43要因がEFFていると、アンケート項目の評価の影響を(PES)の値を乗 :仮想エフェクター(長方形対仮想手)。 ACT:アクティビティ(アクティブ探査対受動的刺激)。そして、SYN:同期(同期対非同期)。有意な効果のための唯一の結果が示されています。

M / SE HP-SY HP-AS HA-SY HA-AS RP-SY RP-AS RA-SY RA-AS
O1-4 4.37 3.44 5.09 3.50 3.79 3.14 4.68 3.05
0.20 0.23 0.19 0.25 0.23 0.23 0.20 0.21
A1 3.59 3.11 6.36 4.36 3.07 2.57 6.09 3.80
0.30 0.32 0.15 0.33 0.28 0.27 0.24 0.33

表2: すべての8条件の所有権および政府機関評価のための手段(M)と標準誤差(SE)。 H:手。 R:長方形。 :アクティブ; P:パッシブ。 SY:同期; AS:非同期。

F / P / PES 表情同調性表情*同期性
所有権(O1-4) 38.24
<0.001
0.40
庁(A1-2) 77.33
<0.001
0.57
IOSの変更 4.03 43.63
0.049 0.001
0.07 0.43
グリッドヴァランスの変更に影響を与えます 6.06 7.99 4.40
0.017 0.007 0.041
0.10 0.13 0.07
AUT-柔軟性 5.42 4.98
0.024 0.03
0.09 0.08
AUT-流暢 7.89
0.007
0.12

影響を与えるグリッド武の価数ディメンションのF、Pと部分イータは、アンケートおよびIOSの結果を得るためにDF = 58で、該当する依存対策(PES)の値を二乗し、DF = 56: 表3dおよびAUT結果。有意な効果のための唯一の結果が示されています。

M / SE ニュートラル-SY ニュートラル-AS ハッピー-SY ハッピー-AS
所有権(O1-4) 2.88 2.03 3.38 2.36
0.27 0.16 0.23 0.22
庁(A1-2) 5.90 4.25 6.16 4.08
0.20 0.25 0.13 0.32
IOSの変更 0.37 -0.80 1.00 -0.40
0.21 0.25 0.20 0.24
グリッドヴァランスの変更に影響を与えます -1.07 -1.33 0.60 -1.20
0.42 0.33 0.39 0.31
AUT-柔軟性 5.87 6.07 7.43 6.10
0.31 0.37 0.29 0.39
AUT-流暢 7.27 8.27 9.73 7.37
0.51 0.68 0.68 0.49

4:4 つの条件の関連する依存対策のための手段(M)と標準誤差(SE)。ニュートラル:ニュートラル表情。ハッピー:幸せな表情。 SY:同期; AS:非同期。

Discussion

この記事では、私たちの仮想面の研究では、一緒にから代表的な結果で、仮想現実の中で伝統的なストロークによって誘発される顔所有権の錯覚を再現した最初のする仮想手と仮想面錯覚パラダイムのための2つの詳細なプロトコルを、記載しました2パラダイム。

重要な同期の効果は、我々は、より伝統的な錯覚パラダイムに似た仮想手のための架空の所有権と仮想顔を誘導することに成功したことを示しています。バーチャルリアリティ技術を用いてこれらの効果を再現することができることはかなりの利点が11、24有しています。バーチャルリアリティ技術ではなく、人工および中断のストローク手順から実験者を解放し、実験操作のための新たな可能性を開きますされています。例えば、モーフィング仮想エフェクターは系統的appeaの影響を操作することができました仮想手のランスと仮想し、参加者の実際の手、または仮想顔の表情との間の類似性。機関の影響も系統的に参加者が人工エフェクタの動きを制御することができる程度( 例えば 、即時性)を変化させることによって探索することができます。

将来のバーチャルリアリティ研究のためのもう一つの有望な手段は、一人称視点(1PP)仮想現実体験です。 1PP経験は三人称視点の仮想現実体験25、26、27、28は完全に異なるスケールで、存在感の浸漬や感情の巨大な感覚を作成することができます。 1PPは1がアバターであるように1が本当に感じることができる経験では、その一つは、文字通りのアバターを具現化されています。これは、このようなの着脱部品などの操作のすべての種類の可能性を開きます人体28、29伸長本体部分30を再スケーリング、または人の皮膚の色31,32変えます。

存在し、他の多くの調査結果が示すように、同期方式で仮想イベントを制御することを強く自分の体に属するこれらのイベントの認識を向上させます。例えば、手の研究から、我々の調査結果は、即時制御がセルフプロデュースや他の生産のイベント( すなわち 、個人の代理店)との間で、セルフ関連およびその他の関連イベント( すなわち 、身体の所有権)とを区別するための重要な手がかりであることを示唆しています。ここや他の場所で提示所見は、ボトムアップの情報があってもID関連自分の体のように一部4としてではない体の部分のために、驚異的な自己表現の出現に決定的な役割を果たしていることを示唆しています。

jove_contentは">記載されているプロトコルの最も重要な部分は、視覚、触覚とモータとの間の相関関係を紹介する誘導過程、( すなわち 、固有受容性)情報-これらの相関関係は、認知システムは所有権や代理店を導出することができますされています。これらの相関関係はに依存しているようにこのような参加者自身の動きや人工エフェクターの動きの間の遅延等の各イベントの相対的なタイミングは、特に、仮想エフェクターの運動にdatagloveからのデータの翻訳に関して(処理遅延を維持することが重要です最小限に)画面上に。私たちの実験のセットアップと最大時間遅延がほとんど目立たないで、因果関係および政府機関の認識を妨げない、約40ミリ秒である。島田、福田、及び平木33は、重要な時間ウィンドウことを示唆しています自己身体表現を構成する多感覚統合プロセスの発生は300ミリ秒であるために、これより長い遅延は、仮想イベントの制御の知覚を減少させる可能性が高いことを意味しています。

プロトコルのもう一つの重要な側面は、パラダイムに応じて、参加者の手や顔の動きを厳しく実験的な制御です。必要な複数の感覚機能を同時に使った相関は、参加者側の積極的な探索的な動きに依存しているよう誘導中、それぞれの因子の積極的な動きが、不可欠です。頻繁に移動するには、参加を奨励するために、アクティブな探査に従事することが重要です。実験の他の段階では、運動はしかし、測定を損なう可能性があります。例えば、仮想の手の錯覚パラダイムにおいて、(SCRが記録された)左手を移動すると、騒々しいと信頼性の低いSCRレベルの測定をレンダリングする可能性があります。

仮想手の錯覚パラダイム技術の限界は、実用的な理由のために、参加者は一般的にdatagloveと方向TRを着用し、ということですアッカー全体の実験中に(そう気晴らしを最小限にするため)。これにより、参加者の気分や意欲に影響を与える可能性がある、快適ではないかもしれません。その問題の1つの可能な解決策は、軽量化機器やカスタムメイドウェアラブルの使用であろう。当社の現在の仮想面錯覚パラダイム技術の別の制限は、機器が唯一の頭の動きが、表情に変化を登録することです。参加者は、仮想の顔の表情を制御できるようにすると、所有権の幻想に貢献する可能性があるが、これは人間-我々はまだ我々のラボで利用できていない中で確実に検出し、顔の表情の分類を提供するハードウェアとソフトウェアを必要とするであろう。例えばリアルタイムの使用は、(顔の)モーションキャプチャユーティリティは、これらの制限を克服するには非常に有益であろうと、私たちは、政府機関やアバターへの有意に高いレベルの所有感を高めることができるでしょう。

によって示唆されるように我々の研究8で得られた知見は、人々が情報の様々なソースを検討し、継続的に自分の体の表現を更新します。彼らは、情報源の一つは、機関34の感覚のために想定されたものと、他の相似の不在下でより強力な役割を果たしているという意味で、補償の方法でボトムアップ情報とトップダウンの情報を使用するように見えます。例えば、それは人工的なエフェクターは完全に本物のエフェクターと整合する場合、所有権は、表面類似性、またはその逆( すなわち 、十分な程度を提供し、あっても厄介な姿勢で人工エフェクターのために知覚できることを示唆しているように、これは、今後の研究のための興味深い手段を提供しますしかし)表面機能の面で異なっています。利用可能な知見は、別の人または薬剤の特徴は自分の特徴として認識できるように、自分自身と他の境界がなく、プラスチックであることを示唆し、SYNある程度の提供しました自分の行動や他の35、36のそれとの間chrony。

Materials

Name Company Catalog Number Comments
Vizard (Software controlling the virtual reality environment) Worldviz Vizard allows importing hand models and integrating the hand, dataglove and orientation tracker modules through self-written command scripts. These scripts can be run to control the presentation of the virtual hand in the virtual environment, the appearance of the hand and the way it moves; they also control vibrator activities.
Cybertouch (Dataglove) CyberGlove Systems Cybertouch Participants wear this dataglove to control the movements of the virtual hand in the virtual environment. Measurement frequency = 100 Hz; Vibrator vibrational frequency = 0-125 Hz.
Intersense (Orientation tracker) Thales InertiaCube3 Participants wear the Intersense tracker to permit monitoring the orientation of their real hand (data that the used dataglove does not provide). Update rate = 180 Hz.
Biopac system (Physiological measurement device) Biopac MP100 The hardware to record skin conductance response.
Acquisition unit (Physiological measurement device) Biopac BN-PPGED The hardware to record skin conductance response.
Remote transmitter (Physiological measurement device) Biopac BN-PPGED-T Participants wear the remote transmitter on their left hand wrist; it sends signals to the Biopac acqusition unit.
Electrode (Physiological measurement device) Biopac EL507 Participants wear  the electrode on their fingers; it picks up skin conductance signals.
AcqKnowledge (Software controlling acquisition of physiological data) Biopac ACK100W, ACK100M The software to record skin conductance responses.
Box Custom-made Participants put their right hand into the box
Computer Any standard PC + Screen (could be replaced by VR glasses/devive) Necessary to present the virtual reality environment, including the virtual hand.
Cape Custom-made Participants wear this cape on their right shoulder so they cannot see their right hand and arm.
Kinect (Head position tracker) Microsoft Kinect tracks the X-Y position of the participant's head. Recording frame rate = 30 Hz.
FAAST (Head position tracker software) MXR FAAST 1.0 Software controls Kinect and is used to track the position of the participant's head.
Intersense (Head orientation tracker) Thales InertiaCube3 Intersense tracks rotational orientation changes of the participant's head. Update rate = 180 Hz.
Facegen (Face-model generator software) Singular Inversions FaceGen Modeller  Facegen allows creating various virtual faces by varying various parameters, such as male/female-ness or skin color.
Cap Any cap, e.g., baseball cap The cap carries the Intersense orientation tracker.
Computer Any standard PC + Screen Necessary to present the virtual reality environment, including the virtual head.

DOWNLOAD MATERIALS LIST

References

  1. Tsakiris, M., Schütz-Bosbach, S., Gallagher, S. On agency and body-ownership: Phenomenological and neurocognitive reflections. Conscious. Cogn. 16, (3), 645-660 (2007).
  2. Botvinick, M., Cohen, J. Rubber hands 'feel' touch that eyes see. Nature. 391, (6669), 756-756 (1998).
  3. Armel, K. C., Ramachandran, V. S. Projecting sensations to external objects: Evidence from skin conductance response. Proc. R. Soc. B. 270, (1523), 1499-1506 (2003).
  4. Tsakiris, M. My body in the brain: A neurocognitive model of body-ownership. Neuropsychologia. 48, (3), 703-712 (2010).
  5. Kalckert, A., Ehrsson, H. H. Moving a rubber hand that feels like your own: Dissociation of ownership and agency. Front. Hum. Neurosci. 6, (40), (2012).
  6. Kalckert, A., Ehrsson, H. H. The spatial distance rule in the moving and classical rubber hand illusions. Conscious. Cogn. 30C, 118-132 (2014).
  7. Ma, K., Hommel, B. Body-ownership for actively operated non-corporeal objects. Conscious. Cogn. 36, 75-86 (2015).
  8. Ma, K., Hommel, B. The role of agency for perceived ownership in the virtual hand illusion. Conscious. Cogn. 36, 277-288 (2015).
  9. Slater, M., Perez-Marcos, D., Ehrsson, H. H., Sanchez-Vives, M. V. Towards a digital body: The virtual arm illusion. Front. Hum. Neurosci. 2, (6), (2008).
  10. Sanchez-Vives, M. V., Spanlang, B., Frisoli, A., Bergamasco, M., Slater, M. Virtual hand illusion induced by visuomotor correlations. PLOS ONE. 5, (4), e10381 (2010).
  11. Spanlang, B., et al. How to build an embodiment lab: Achieving body representation illusions in virtual reality. Front. Robot. AI. 1, 1-22 (2014).
  12. Tsakiris, M. Looking for myself: Current multisensory input alters self-face recognition. PLOS ONE. 3, (12), e4040 (2008).
  13. Sforza, A., Bufalari, I., Haggard, P., Aglioti, S. M. My face in yours: Visuo-tactile facial stimulation influences sense of identity. Soc. Neurosci. 5, 148-162 (2010).
  14. Bufalari, I., Porciello, G., Sperduti, M., Minio-Paluello, I. Self-identification with another person's face: the time relevant role of multimodal brain areas in the enfacement illusion. J. Neurophysiol. 113, (7), 1959-1962 (2015).
  15. Ma, K., Sellaro, R., Lippelt, D. P., Hommel, B. Mood migration: How enfacing a smile makes you happier. Cognition. 151, 52-62 (2016).
  16. Ma, K., Hommel, B. The virtual-hand illusion: Effects of impact and threat on perceived ownership and affective resonance. Front. Psychol. 4, (604), (2013).
  17. Suma, E. A., et al. Adapting user interfaces for gestural interaction with the flexible action and articulated skeleton toolkit. Comput. Graph. 37, (3), 193-201 (2013).
  18. Aron, A., Aron, E. N., Smollan, D. Inclusion of Other in the Self Scale and the structure of interpersonal closeness. J. Pers. Soc. Psychol. 63, (4), 596 (1992).
  19. Russell, J. A., Weiss, A., Mendelsohn, G. A. Affect grid: a single-item scale of pleasure and arousal. J. Pers. Soc. Psychol. 57, (3), 493-502 (1989).
  20. Guilford, J. P. The nature of human intelligence. McGraw- Hill. New York, NY. (1967).
  21. Ashby, F. G., Isen, A. M., Turken, A. U. A neuropsychological theory of positive affect and its influence on cognition. Psychol. Rev. 106, (3), 529-550 (1999).
  22. Hommel, B. 34;Action control and the sense of agency". The sense of agency. Haggard, P., Eitam, B. Oxford University Press. New York. 307-326 (2015).
  23. Akbari Chermahini, S., Hommel, B. The (b)link between creativity and dopamine: Spontaneous eye blink rates predict and dissociate divergent and convergent thinking. Cognition. 115, (3), 458-465 (2010).
  24. Sanchez-Vives, M. V., Slater, M. From presence to consciousness through virtual reality. Nat. Rev. Neurosci. 6, (4), 332-339 (2005).
  25. Slater, M., Spanlang, B., Sanchez-Vives, M. V., Blanke, O. First person experience of body transfer in virtual reality. PLOS ONE. 5, (5), (2010).
  26. Maselli, A., Slater, M. The building blocks of the full body ownership illusion. Front. Hum. Neurosci. 7, (83), (2013).
  27. Pavone, E. F., et al. Embodying others in immersive virtual reality: Electro cortical signatures of monitoring the errors in the actions of an avatar seen from a first-person perspective. J. Neurosci. 26, (2), 268-276 (2016).
  28. Tieri, G., Tidoni, E., Pavone, E. F., Aglioti, S. M. Body visual discontinuity affects feeling of ownership and skin conductance responses. Sci. Rep. 5, (17139), (2015).
  29. Kilteni, K., Normand, J., Sanchez-Vives, M. V., Slater, M. Extending body space in immersive virtual reality: A long arm illusion. PLOS ONE. 7, (7), (2012).
  30. Banakou, D., Groten, R., Slater, M. Illusory ownership of a virtual child body causes overestimation of object sizes and implicit attitude changes. Proc. Natl. Acad. Sci. U.S.A. 110, (31), 12846-12851 (2013).
  31. Martini, M., Perez-Marcos, D., Sanchez-Vives, M. V. What color is my arm? Changes in skin color of an embodied virtual arm modulates pain threshold. Front. Hum. Neurosci. 7, (438), (2013).
  32. Peck, T. C., Seinfeld, S., Aglioti, S. M., Slater, M. Putting yourself in the skin of a black avatar reduces implicit racial bias. Consc. Cogn. 22, (3), 779-787 (2013).
  33. Shimada, S., Fukuda, K., Hiraki, K. Rubber hand illusion under delayed visual feedback. PLOS ONE. 4, (7), (2009).
  34. Synofzik, M., Vosgerau, G., Newen, A. Beyond the comparator model: A multifactorial two-step account of agency. Conscious. Cogn. 17, (1), 219-239 (2008).
  35. Hommel, B., Müsseler, J., Aschersleben, G., Prinz, W. The theory of event coding (TEC): A framework for perception and action planning. Behav. Brain. Sci. 24, (5), 849-878 (2001).
  36. Hommel, B. Action control according to TEC (theory of event coding). Psychol. Res. 73, (4), 512-526 (2009).
自己表現を調査するために、仮想手と仮想面のイリュージョンを作成します
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Ma, K., Lippelt, D. P., Hommel, B. Creating Virtual-hand and Virtual-face Illusions to Investigate Self-representation. J. Vis. Exp. (121), e54784, doi:10.3791/54784 (2017).More

Ma, K., Lippelt, D. P., Hommel, B. Creating Virtual-hand and Virtual-face Illusions to Investigate Self-representation. J. Vis. Exp. (121), e54784, doi:10.3791/54784 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
simple hit counter