Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Création Illusions Virtual-main et Virtual-face d'enquêter sur les auto-représentation

Published: March 1, 2017 doi: 10.3791/54784

Summary

Ici, nous décrivons virtuelle à la main et les paradigmes d'illusion virtuelle-face qui peuvent être utilisés pour étudier liés à corps auto-perception / -représentation. Ils ont déjà été utilisés dans diverses études pour démontrer que, dans des conditions spécifiques, une main virtuelle ou du visage peuvent être incorporés dans sa représentation du corps, ce qui suggère que les représentations du corps sont plutôt souples.

Abstract

Les études portant sur la façon dont les gens eux-mêmes et leur propre corps représentent souvent recours à des variantes de «illusions de propriété», comme l'illusion du caoutchouc à la main traditionnelle ou l'illusion d'estampillage plus récemment découvert. Toutefois, ces exemples requièrent des configurations expérimentales plutôt artificielles, dans laquelle l'effecteur artificiel doit être caressé en synchronie avec la main réelle des participants ou face à une situation dans laquelle les participants ont aucun contrôle sur les caresses ou les mouvements de leur effecteur réelle ou artificielle . Ici, nous décrivons une technique pour établir des illusions de propriété dans une configuration qui est plus réaliste, plus intuitive, et de validité écologique vraisemblablement plus élevé. Il permet de créer l'illusion virtuelle à la main en demandant aux participants de contrôler les mouvements d'une main virtuelle présentée sur un écran ou dans l' espace virtuel en face d'eux. Si la main virtuelle se déplace en synchronie avec la propre main réelle des participants, ils ont tendance à percevoir til main virtuelle dans le cadre de leur propre corps. La technique crée également l'illusion virtuelle-face en demandant aux participants de contrôler les mouvements d'un visage virtuel en face d'eux, à nouveau avec l'effet qu'ils ont tendance à percevoir le visage comme leur propre si elle se déplace en synchronie avec leur vrai visage. Étudier les circonstances que les illusions de ce genre peuvent être créés, augmenté ou réduit fournit des informations importantes sur la façon dont les gens créent et maintiennent des représentations d'eux-mêmes.

Introduction

Selon la philosophie occidentale, le moi humain se compose de deux aspects 1: D'une part , nous percevons notre propre corps et de nos activités dans l'ici et maintenant, ce qui crée une auto-représentation phénoménale (souvent appelée l'auto minime). D'autre part , nous créons des représentations plus durables de nous - mêmes en stockant des informations au sujet de notre histoire personnelle, l' intégration de nouvelles informations dans l'auto-concept émergent, et nous présentons à notre environnement social en conséquence, ce qui revient à la création d'un soi-disant récit auto. L'auto minime ou phénoménale a été avancé à émerger de deux sources d'information. La première est l' information de haut en bas sur les aspects plus durables de notre corps, tels que des informations sur les effecteurs que nous possédons ou la forme de notre visage. L'autre est l' information bottom-up fourni par la perception de soi dans la situation actuelle.

Les enquêtes de ce dernier ont été STRONgly inspiré par une étude intelligente de Botvinick et Cohen 2. Ces auteurs ont présenté des participants humains avec une main en caoutchouc se trouvant en face d'eux, à proximité de l'une de leurs mains réelles, ce qui a toutefois été cachés à la vue. Lorsque la vraie main et la main en caoutchouc ont été caressés en synchronie, afin de créer l' entrée synchrone intermodal, les participants avaient tendance à percevoir la main en caoutchouc dans le cadre de leur propre corps l'illusion du caoutchouc à la main. D' autres études ont révélé que la propriété perçu est même allé si loin que les participants commencer à transpirer et d' essayer de retirer leur vraie main lorsque la main de caoutchouc a été attaqué par un couteau ou autre étant "mal" 3.

Alors que Botvinick et Cohen ont interprété leurs résultats pour démontrer que pose l'auto-perception du traitement de l'information bottom-up, d'autres auteurs ont fait valoir que les résultats de l'illusion du caoutchouc à la main de l'interaction entre Synchr intermodalony d'entrée, une source d'information ascendante, et les représentations stockées de ses propres mains, une source de haut en bas de l' information 4. L'idée est que la synchronie de relance crée l'impression que le réel et la main en caoutchouc sont une seule et même chose, et étant donné que la main en caoutchouc ressemble à une vraie main, cette impression est considérée comme la réalité.

Des recherches ultérieures par Kalckert et Ehrsson 5 ajouté un composant visuo-moteur au paradigme de la main en caoutchouc, ce qui permet de l'enquête à la fois la propriété perçue (l'impression que l'effecteur artificiel appartient à son propre corps) et l' agence perçue (l'impression que l' on est produire des mouvements observés soi-même). Les participants ont pu se déplacer de l'index de la main en caoutchouc de haut en bas en déplaçant leur index, et la synchronie entre les mouvements réels et de la main en caoutchouc doigt, le mode de mouvement (passive vs. mode actif), et le POSITIONNEMENTont été manipulés g de la main en caoutchouc (incongrue par rapport à congruente à l'égard de la main du participant). Les conclusions ont été prises pour apporter un soutien à l'idée que l'agence et la propriété sont des phénomènes cognitifs fonctionnellement distinctes: alors que la synchronie de mouvement aboli les deux sens de la propriété et de l'agence, le mode de circulation seulement affecté l'agence, et la congruence de la position de la main en caoutchouc eu un effet sur la propriété seulement. Ces deux derniers résultats ont été reproduits dans une étude de suivi dans lequel la distance entre la main réelle et de caoutchouc dans le plan vertical variait 6: la propriété pour la main en caoutchouc diminue à mesure que sa position de plus en plus réelle correspondra pas la main du participant. Cependant, l'agence n'a pas été affectée par égarements de la main en caoutchouc dans toutes les conditions.

Cependant, des recherches récentes en utilisant des techniques de réalité virtuelle, qui fournissent au participant un contrôle actif sur l'effecteur artificiel, suggère que le rôle du haut vers le baspart , et la distinction entre la propriété et l' agence ont peut - être été surestimés 7, 8. Ces techniques ont remplacé la main en caoutchouc par une main virtuelle présentée aux participants sur un écran en face d'eux ou au moyen de lunettes de réalité virtuelle 9. Les participants portent généralement un DataGlove qui traduit les mouvements de la main réelle du participant dans les mouvements de la main virtuelle, de manière synchrone ou asynchrone (par exemple, avec un retard notable). Semblable à l'illusion du caoutchouc à la main, la traduction synchrone augmente fortement l'impression du participant que la main virtuelle devient une partie de son propre corps 10.

Employant des techniques de réalité virtuelle pour créer l'illusion du caoutchouc à la main a plusieurs avantages par rapport à la fois le paradigme du caoutchouc à la main traditionnelle et la combinaison du paradigme caoutchouc à la main avec le componen visuo-moteurts 11. Déplacer sa main et de voir un effecteur se déplaçant dans la synchronie avec elle crée une situation beaucoup plus naturel que face à une main en caoutchouc et être caressé par un expérimentateur. De plus, la manipulation virtuelle fournit l'expérimentateur avec beaucoup plus expérimental flexibilité et beaucoup plus de contrôle sur la relation perceptuelle entre la perception et le déplacement sa main réelle et la perception qu'on a de l'événement créé par l'effecteur artificiel. En particulier, en utilisant des techniques virtuelles facilite la manipulation de facteurs qui sont susceptibles d'influer sur la propriété et l'agence perçue. Par exemple, la forme de la main virtuelle peut être modifiée beaucoup plus facile et plus rapide que la forme d'une main en caoutchouc, et les mouvements de la main virtuelle peut être de toute nature et, par exemple entraîner des mouvements biologiquement impossibles. Entre autres choses, ce qui facilite l'exploration des limites de l'illusion, comme l'effecteur artificielle ne doit pas ressembler à une main, mais peut-être remplaced par tout type d'événement statique ou dynamique. Intérêt à la fois pratique et théorique, un effecteur virtuel est sans doute beaucoup plus immersif et se sent beaucoup plus réel que d'une main en caoutchouc, ce qui est susceptible de réduire la nécessité d'invoquer des interprétations de haut en bas pour donner un sens de la situation actuelle.

illusions de propriété ont toutefois pas été restreinte aux mains. Tsakiris 12 a été le premier à utiliser la technique de caresser pour créer l'impression de participants un visage statique dans un tableau présenté devant eux leur est propre. Sforza et al. 13 ont également trouvé des preuves de ce phénomène, auquel ils se réfèrent comme estampillage: les participants sont intégrés les traits du visage d'un partenaire lorsque leur propre et le visage de leur partenaire ont été touchés en synchronie. Le mécanisme neuronal qui sous-tend l'illusion d'estampillage a été étudiée récemment par divers chercheurs; pour un commentaire complet et interpretation des conclusions voir Bufalari et al. 14. Nous avons récemment tourné la conception régulière estampillage d'illusion dans une version de réalité virtuelle (l'illusion virtuelle-face), dans lequel les participants contrôlent les mouvements d'un visage virtuel en face d'eux en déplaçant leur tête 15.

Ici, nous décrivons deux expériences qui ont utilisé l'illusion 7 et le virtuel-face illusion virtuelle à la main 15 paradigmes, respectivement, pour enquêter sur l' auto-représentation. L'expérience virtuelle à la main comprenait trois facteurs expérimentaux complètement croisés: (a) la synchronie entre (feutre) réel à la main et les mouvements (vu) virtuel effectrices, qui était soit proche de zéro pour induire la propriété et l'agence ou trois secondes comme condition de contrôle; (B) l'apparition de l'effecteur virtuel, qui avait l'air soit comme une main humaine ou comme un rectangle (donc pour tester l'effet de eff réel virtuelecteur similitude sur l'illusion de la propriété); et (c) la possibilité de contrôler le comportement de l'effecteur virtuel, qui était soit inexistante dans un état passif ou directement dans un état actif. L'expérience virtuelle face inclus deux facteurs expérimentaux complètement croisés: (a) la synchronie entre réel et virtuel-face-face des mouvements, ce qui était soit proche de zéro pour induire la propriété et l'agence ou trois secondes comme une condition de contrôle; et (b) l'expression faciale du visage virtuel, qui était neutre ou montrant un sourire, pour vérifier si l'humeur positive allait lever l'humeur du participant et d'améliorer sa performance dans une tâche de créativité humeur sensible.

Protocol

Toutes les études étaient conformes aux normes éthiques de la déclaration d'Helsinki et les protocoles ont été approuvés par le comité d'éthique de la recherche humaine Université de Leiden. Chaque condition testée environ 20 participants.

Illusion 1. Virtual main

  1. Montage expérimental
    1. Bienvenue participant et recueillir des informations supplémentaires, comme l' âge, le sexe, etc.
    2. Mettre en place un dispositif expérimental qui comprend un environnement de programmation de réalité virtuelle; un DataGlove main droite avec six stimulateurs de vibrations programmables attachées au milieu de la paume et à l'extérieur des médiaux (seconde) phalanges de chacun des cinq doigts (voir la liste des matériaux); un 3-degrés de liberté (DOF) orientation suivi; SCR (réponse de conductance de la peau) de l'équipement de mesure; une boîte noire (profondeur: 50 cm, hauteur: 24 cm; largeur: 38 cm) avec un écran d'ordinateur se trouvant sur le dessus horizontalement (servant à présenter la réalité virtuelle environnement); et une cape pour couvrir la main du participant.
    3. Demandez au participant de mettre le DataGlove sur sa main droite et le suivi de l'orientation sur le poignet droit. Joindre une télécommande SCR avec un bracelet au poignet gauche. Mettez les électrodes SCR sur les médiaux (seconde) phalanges de l'index et le majeur de la main gauche (voir la figure 1A et B pour une illustration de la configuration).
    4. Siège du participant devant le bureau sur lequel la boîte à l'écran de l'ordinateur sur le dessus est placé. Demandez au participant de sa main droite mis dans la boîte le long de l'axe de profondeur, comme pour le protéger de leur point de vue.
    5. Mettez une cape sur l'épaule droite du participant et couvrir l'espace entre l'écran et le participant. Demandez au participant de sa main gauche repose sur une partie vide du bureau.
    6. Branchez les câbles de DataGlove et de l'orientation tracker pour l'ordinateur et démarrer le environme de programmation de la réalité virtuelleNT. Exécutez le script de commande pré-écrite dans la fenêtre de commande en cliquant sur le bouton "run" dans l'interface de l'environnement de réalité virtuelle, de sorte que l'environnement de réalité virtuelle commence. Surveiller que le participant suit les instructions affichées à l'écran de l'ordinateur devant les participants. Attendez jusqu'à ce que le script de commande pré-écrite ferme automatiquement.

Figure 1
Figure 1: (A) Les participants portaient un traqueur d'orientation et un DataGlove sur leur main droite, et SCR émetteur à distance sur leur main gauche. (B) Mise en place de l'expérience de l' illusion virtuelle à la main. (C) Mise en place de l'expérience de l' illusion virtuelle face. (D) Une capture d' écran de l'écran d'ordinateur.S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

  1. Main Virtual Design
    REMARQUE: Utiliser Python scripts de commande dans la fenêtre de commande du logiciel de réalité virtuelle et de les enregistrer. Assurez-vous que le principal script de commande, les commandes à l'importation, les scripts de module et d'autres commandes décrites ci-dessous font partie du même fichier de script. Pour le script python complet et les fichiers nécessaires voir le fichier joint "Hand virtuel Illusion.zip" (NB: le fichier zip est un matériel supplémentaire du manuscrit et ne fait pas partie du package de logiciels En outre, il exclut les plugins nécessaires pour le. DataGlove et orientation tracker, et tous les autres modules python utilisés dans le script). Pour exécuter la première expérience décompresser le contenu de ce fichier dans un dossier (par exemple , le bureau), puis double - cliquez sur le "virtuel main illusion_54784_R2_052716_KM.py" fichier pour démarrer l'expérience. Notez que le script estconçu pour fonctionner avec l'environnement de programmation de la réalité virtuelle indiquée et ne fonctionnera pas avec d'autres programmes.
    1. Importer un modèle de main virtuelle pré-faites et un module de script main pré-écrite (qui peut être trouvé dans le fichier tranche du progiciel-réalité environnement virtuel) dans l'environnement de réalité virtuelle. Le module de script à la main suit le geste articulation du doigt et des angles de l'DataGlove et alimente les informations dans le modèle de main virtuelle, qui permet de contrôler les mouvements de la main virtuelle en déplaçant la main réelle portant le DataGlove.
      1. Manuellement modifier la taille et l'apparence de la main virtuelle si nécessaire en spécifiant ses paramètres dans le script, comme son x, y, et z mise à l'échelle pour modifier sa taille ou modifier l'image mappé.
      2. Pour les conditions synchronie, ne pas utiliser de transformation, de sorte que la main virtuelle se déplace de la même façon que la main réel et à (environ) en même temps. Pour créer asynchronisme, ajouter un délai de 3 s, de sorte que la virtual la main se déplace comme la main réelle, mais avec un retard notable.
    2. Identifier un pré-faites le plugin approprié orientation tracker dans le fichier tranche de réalité virtuelle et l'environnement et l'importer dans les scripts de commande. Notez que l'exécution des scripts de commande rend le module de suivi de l'orientation de suivre les changements d'orientation de la main réel (fournies par l'orientation des participants tracker portent sur leur poignet droit), qui peuvent ensuite être utilisés pour contrôler les changements d'orientation de la main virtuelle en définissant la lacet, données tangage et roulis de la main virtuelle dans la fenêtre de commande. Canaliser les données suivies par le tracker d'orientation directement dans le modèle virtuel à la main pour des conditions de synchronie, mais insérer un délai de 3 s pour asynchronisme.
    3. Concevoir les objets virtuels supplémentaires nécessaires et leurs trajectoires de mouvement, de sorte qu'ils se déplacent vers et de la main virtuelle (ici, la conception et l'importation de modèles supplémentaires pour un bâton, rectangle, balle, couteau, à utiliser pendant plusieurs parts de l'expérience; voir «Conditions expérimentales»). Manuellement modifier la taille, l'apparence et la position de chacun de ces objets dans le script de commande de la même manière que les paramètres de la main virtuelle sont fixés. Définissez les trajectoires de mouvement nécessaires à l'aide des commandes appropriées pour définir la position de début et de fin des trajectoires de mouvement pour un objet et la vitesse à laquelle il doit se déplacer.
    4. Déterminer la force de vibration et le calendrier de chaque stimulateur de vibration dans le script de commande; soit sans délai pour les conditions de synchronie (c. -à- vibration commence exactement quand la main virtuelle est contacté par l'autre objet virtuel) ou avec un retard de 3 s pour asynchronisme. Tous les vibrateurs vibrent en même temps que la main virtuelle est touché par l'autre objet virtuel (ou au point de temps différé). Réglez la force de vibration à un niveau moyen (c. - à 0,5 sur une échelle de 0-1). A noter que la résistance réelle de la vibration dépend de la Programmienvironnement ng et vibrateurs utilisés pour l'expérience, et qu'un niveau moyen de vibrations dans notre expérience ne correspond pas nécessairement la force réelle des vibrations lorsque le matériel différent (c. -à- vibrateurs / DataGlove) ou le logiciel est utilisé.
    5. Ajouter une seconde partie du script de test qui est identique aux étapes précédentes à l'exception des modifications suivantes:
      1. Remplacer le modèle virtuel de la main avec un rectangle virtuel d'une taille similaire à celle de la main virtuelle (afin de réaliser le facteur d'apparition de l'expérience)
      2. Assurez-vous que la rotation de la main réel capté par le tracker d'orientation se traduit par des mouvements du rectangle de rotation.
      3. Assurez - vous que l'ouverture et la fermeture de la main réel capté par le DataGlove se traduit par des changements de couleur du rectangle à l' aide de la commande appropriée pour changer la couleur d'un objet dans votre environnement de programmation (par exemple, présenter le rectangle en vert lorsque le het est complètement fermé, en rouge quand il est complètement ouvert, et que la couleur change progressivement du rouge au vert ou vert au rouge comme la main ouvre ou ferme).
  2. Conditions expérimentales
    1. Exécutez les huit conditions expérimentales (résultant de traverser la synchronie trois facteurs expérimentaux, l'apparence de l'effecteur virtuel, et actif / passif) dans un ordre qui est soit équilibrée entre les participants ou aléatoire.
    2. Pour chaque condition, comprendra trois phases d'environ 2 à 3 min chacun pour induire l'illusion virtuelle à la main et une phase de menace pour mesurer les réponses électrophysiologiques de la peau (SCR). Le protocole concret diffère quelque peu pour les huit conditions et est décrit ci-dessous.
    3. main virtuelle / actif / synchronie
      1. Configurez le système de telle sorte que le délai entre les événements suivants est proche de zéro et ne se remarque pas: (a) les mouvements et les changements d'orientation de la main réelle et correspondenttion des mouvements et des changements d'orientation de la main virtuelle dans la phase de corrélation visuo-moteur; (B) les points de temps de contact entre la main virtuelle et l'objet virtuel supplémentaire sur l'écran et les points temporels correspondants de la stimulation induite par des vibrations de la main réelle dans la phase visuo-tactile; et (c) les mouvements et les changements d'orientation de la main réelle et les mouvements correspondants et les changements d'orientation de la main virtuelle; et les points de temps de contact entre la main virtuelle et l'objet virtuel supplémentaire sur l'écran et les points de temps correspondant de la stimulation induite par des vibrations de la main réelle dans la phase visuo-moteur-tactile.
      2. Pour la phase de corrélation visuo-motrice, demandez aux participants de se déplacer librement ou de faire pivoter leur main droite réelle, y compris l'ouverture, la fermeture, et à faire tourner leur main réelle, et en déplaçant chaque doigt individuellement. Demandez aux participants de regarder les mouvements correspondants de la main virtuelle sur l'écran d'ordinateur.
      3. Pour le vphase de stimulation isuo-tactile, ont les participants gardent leur vraie main encore tout en regardant l'écran. Présenter un autre objet virtuel sur l'écran, comme une balle ou un bâton virtuel (qui a été créé en 1.2.3) qui se déplace vers et de la main virtuelle, produisant l'impression de toucher et ne pas toucher la main virtuelle.
        1. Accompagnez chaque contact entre cet objet virtuel supplémentaire et la main virtuelle par l'activité vibrateur sur le DataGlove. Avoir le vibrateur stimuler cette partie de la main réelle qui correspond à la partie de la main virtuelle qui est touché par l'objet virtuel supplémentaire (par exemple, si l'objet virtuel semble toucher la paume de la main virtuelle, la paume du participant de main réelle devrait être stimulée par le vibrateur 16).
      4. Pour la phase de corrélation visuo-moteur-tactile, ont les participants déplacer la main virtuelle en déplaçant leur main réelle afin de toucher un st vibrant virtuelobjet ick ou similaire (voir 1.2.3). Veiller à ce que chaque contact entre la main virtuelle et virtuelle bâton / objet est accompagné par la stimulation induite par des vibrations de la main réelle du participant comme décrit dans 1.3.3.3.
      5. Pour la phase de menace, demandez aux participants de garder leur main droite réelle encore tout en regardant un couteau virtuel ou aiguille apparaître sur l'écran d'ordinateur. Faire le couteau virtuel ou aiguille aller à et de la main virtuelle. Veiller à ce que chaque contact entraîne une "coupe" visible ou apparent "ponction" de la main virtuelle.
        1. Stimulez cette partie de la main réelle correspondant à la coupe ou partie crevée de la main virtuelle en utilisant les vibreurs du DataGlove comme décrit dans 1.3.3.3.
    4. main virtuelle / actif / asynchronisme
      1. Exécutez la procédure décrite à la rubrique 1.3.3 après la configuration du système de telle sorte que le délai entre les événements critiques est de trois secondes au lieu de près de zéro.
      2. rectangle virtuel / actif / synchronie
        1. Exécutez la procédure décrite à la rubrique 1.3.3, mais avec le rectangle virtuel au lieu de la main virtuelle.
      3. rectangle virtuel / actif / asynchronisme
        1. Exécutez la procédure décrite à la rubrique 1.3.4, mais avec le rectangle virtuel au lieu de la main virtuelle.
      4. main virtuelle / passive / synchronie
        1. Exécutez la procédure décrite au 1.3.3, mais demander au participant de sa vraie main rester immobile pendant toutes les phases.
      5. main virtuelle / passive / asynchronisme
        1. Exécutez la procédure décrite au 1.3.4, mais demander au participant de sa vraie main rester immobile pendant toutes les phases.
      6. rectangle virtuel / passif / synchronie
        1. Exécutez la procédure décrite au 1.3.5, mais demander au participant de sa vraie main rester immobile pendant toutes les phases.
      7. rectangle virtuel / passif / asynchronisme
        1. Exécutez la procédure décrite au 1.3.6, mais demander au participant de sa vraie main rester immobile pendant toutes les phases.
    5. Collecte de données
      1. Recueillir des données SCR utilisant l'équipement de mesure (voir la liste des matériaux) et de son logiciel. La fréquence d'enregistrement est toutes les 0,1 ms.
      2. Demandez au participant de remplir le questionnaire de mesure de sentiment d'appartenance, l'agence, l'emplacement et l'apparence pour la condition respective. Utilisez soit une version papier, dans lequel chaque question (comme décrit dans 1.4.2.1 et 1.4.2.2) est imprimé, avec une échelle de Likert (tel que décrit dans 1.4.2.3), et qui peut être rempli avec un stylo; ou utiliser une version informatisée, dans laquelle chaque question est affichée sur l'écran, ainsi que l'échelle de Likert, et dans lequel la valeur d'échelle choisie peut être saisi.
        1. Inclure un questionnaire qui comprend au minimum une ou plusieurs questions de propriété 2; utiliser les quatre suivantes: <br /> (O1) «Je me sentais comme si la main sur l'écran étaient ma main droite ou une partie de mon corps»;
          (O2) "Il semblait que ce que je ressentais à ma main droite a été causée par le contact du bâton sur la main sur l'écran que je voyais";
          (O3) «J'ai eu la sensation que la vibration je me sentais à ma main droite était sur le même endroit où la main sur l'écran a été touché par le bâton";
          (O4) "Il semblait ma main droite était à l'endroit où la main sur l'écran était".
        2. Envisager d'inclure d'autres questions concernant les questions de l'agence; utilisez le suivant:
          (A1) «Je sentais que je peux contrôler cette main virtuelle" (pour la condition actif);
          (A1) "Il semblait que je pourrais avoir déplacé la main sur l'écran si je l'avais voulu, comme si elle obéissait à ma volonté" (pour la condition passive); .
          Notez que les éléments énumérés à 1.4.2.1 et 1.4.2.2 se réfèrent à la condition de la main. Pour l'état de rectangle, remplacer toutes les références à la main virtuelle par les références au rectangle virtuel.
        3. Utilisez une échelle de Likert 2 pour chaque question (par exemple, 1-7), de sorte que les participants peuvent marquer la mesure dans laquelle ils ont convenu de la question; par exemple, utiliser 1 pour «fortement en désaccord» et 7 pour «fortement d' accord». Assurez-vous que chaque question apparaît à l'écran et peut être répondu à avec les numéros 1 à 7 correspondant aux options de réponse 7 de l'échelle de Likert; l'apparence et la réponse des options sont programmées dans le script de test.

    2. Virtual-face Illusion

    1. Montage expérimental
      1. Bienvenue participant et recueillir des informations supplémentaires, comme l' âge, le sexe, etc.
      2. Mettre en place un dispositif expérimental qui comprend un environnement de programmation de réalité virtuelle; un système tête position de suivi, y compris le matériel et le logiciel correspondantf "> 17, et un tracker orientation 3-DOF fixé au sommet d'un chapeau de chapeau ou de baseball.
        NOTE: L'utilisation de ce dispositif expérimental, les participants peuvent se déplacer librement ou de faire pivoter leur tête pour contrôler la position et l'orientation du visage virtuel, mais ils ne peuvent pas contrôler les expressions faciales du visage virtuel
      3. Demandez au participant de s'asseoir sur la chaise 2 mètres en face de l'écran d'ordinateur. Voir la figure 1C et 1D pour une illustration de l'installation expérimentale.
      4. Demandez au participant de mettre sur le bouchon avec le tracker d'orientation ci-joint.
      5. Connecter le système de suivi de position et l'orientation tracker pour l'ordinateur et exécuter le script de commande pré-écrite dans la fenêtre de commande en cliquant sur le bouton "run" dans l'interface de l'environnement de réalité virtuelle, de sorte que l'environnement de réalité virtuelle commence. Surveiller que le participant suit les instructions affichées à l'écran de l'ordinateur devant les participants. Attendezjusqu'à ce que le script de commande pré-écrite ferme automatiquement.
    2. Face Design virtuel
      REMARQUE: Pour le script python complet et fichiers nécessaires voir la "Face virtuelle Illusion.zip" fichier joint (NB: le fichier zip est un matériel supplémentaire du manuscrit et ne fait pas partie du package de logiciels, il ne comprend pas les plugins nécessaires utilisé pour la position et le suivi de l'orientation et de tous les autres modules python utilisés dans le script). Pour exécuter l'expérience, d' abord décompresser le contenu de ce fichier dans un dossier (par exemple , le bureau), puis double - cliquez sur le "virtuel face illusion_54784_R2_052716_KM.py" fichier pour démarrer l'expérience. Notez que le script est conçu pour fonctionner avec l'environnement virtuel de programmation de la réalité présentée ici et ne fonctionnera pas avec d'autres programmes.
      1. Utilisez un programme de renforcement du visage virtuel pour concevoir des visages virtuels avec les appropriés âge, la race, et les sexes (correspondant àles participants à l'essai) en sélectionnant les meilleures valeurs d'ajustement sur les échelles correspondantes du programme
      2. Créez deux versions de chaque face, l'une avec une expression faciale neutre et l'autre avec un sourire, en sélectionnant les valeurs correspondantes sur les échelles correspondantes du programme (qui varie expressions en changeant la taille des yeux, de la courbure de la bouche et d'autres muscles du visage)
      3. Pour tester les étudiants universitaires, créer quatre 20 ans visages virtuels avec le programme de construction de visage virtuel, un visage masculin avec une expression faciale neutre, une face mâle qui est souriant, un visage féminin avec une expression faciale neutre et un visage féminin qui est souriant
      4. Dans le programme de construction du visage virtuel exporter les visages aux fichiers 3D VRML-formatés.
      5. En utilisant les commandes appropriées de l'environnement de programmation de réalité virtuelle importer les fichiers VRML créés, à savoir, les visages virtuels, dans l'environnement de réalité virtuelle pour une utilisation au cours de l'expérience. Virginiery leur taille ou d'échelle en définissant leurs paramètres en conséquence en utilisant les commandes appropriées.
      6. Trouver le module pré-écrit suivi pour le système de suivi de position de tête dans le fichier tranche de l'environnement virtuel et l'importer, ce qui permet de suivre les positions de la tête du participant. Dans les scripts, modifier les données des positions de tête et de déterminer le point de savoir quand les positions de tête sont convertis en positions virtuelle-face temps (utiliser un retard de 0 ms pour les conditions de synchronie et de retard d'un 3 pour asynchronisme).
      7. Trouver un plugin orientation suivi pré-faites dans le fichier tranche de l'environnement virtuel et l'importer dans les scripts de commande. Notez que, encore une fois, le script permet l'introduction de retards temporels par rapport au point quand les changements d'orientation de la tête du participant sont traduits par des changements d'orientation de la tête virtuelle de temps (utiliser un retard de 0 ms pour les conditions de synchronie et de retard d'un 3 pour asynchronisme ).
      8. Conception ob virtuel supplémentaireprojets (comme un bâton virtuel) et leurs trajectoires de mouvement, de sorte qu'ils se déplacent vers et depuis le visage virtuel. Définissez la taille de l'objet virtuel d'être similaire à la taille d'un doigt virtuel.
      9. Branchez le matériel et mettre en œuvre les scripts de commandes enregistrées, puis commencer l'expérience.
    3. Conditions expérimentales
      1. Exécutez les scripts de commande et de suivre la position de la tête du participant au moyen du système de suivi de position de tête et la tête de l'orientation du participant au moyen d'un tracker orientation 3-DOF fixé à un plafond.
      2. Exposer le participant à la face virtuelle pour 30 s et demandez aux participants de ne pas bouger. Une fois que le visage a disparu, demandez aux participants de répondre à l'échelle IOS (décrite dans la collecte des données) pour évaluer comment il ou elle perçoit la relation entre lui-même ou elle-même et le visage virtuel.
      3. Exécutez les quatre conditions expérimentales (décrites ci-dessous) dans un ordre qui est soit équilibrée entre participants ou aléatoire. Chaque condition comprend trois phases d'environ 2 à 3 min chacun pour induire l'illusion virtuelle face.
      4. Neutre / synchronie
        1. Configurez le système de telle sorte que le délai entre les événements suivants est proche de zéro et ne se remarque pas: (a) les mouvements de la tête réelle et les mouvements correspondants de la tête virtuelle dans la phase visuo-moteur de corrélation et (b) les points de temps de contact entre la main réelle du participant et réelle joue du participant et entre l'objet virtuel et la tête virtuelle dans la phase de stimulation visuo-tactile.
        2. Pour la phase de corrélation visuo-moteur, demandez aux participants de mettre sur le bouchon avec le tracker d'orientation ci-joint. Demandez-leur de continuer à avancer ou tourner leur propre tête pour contrôler la position et l'orientation du visage virtuel.
        3. Pour la phase de stimulation visuo-tactile, ont participants étirer leur bras droit vers la droite et de façon répétée, de toucher la joue droite, tandis que watching l'écran. Le toucher est seulement momentané: les participants touchent la joue, se laisser aller et étirer leur bras droit vers la droite, et répéter pour la durée de cette phase de stimulations visuo-tactile.
        4. Sur l'écran, présente le visage virtuel avoir été touché à plusieurs reprises à la joue par un objet virtuel, comme une balle virtuelle. Le toucher est (ou plutôt le mouvement de la main en général) est synchronisé avec l'objet virtuel à travers le système de mouvement qui permet de suivre l'emplacement de la branche d'un participant (par exemple à la main) dans l' espace 3D, qui nous a permis de cartographier directement les mouvements de la main du participant à la trajectoire de la de l'objet virtuel, ce qui entraîne un mouvement synchronisé de la main mouvement réel de la trajectoire du participant et le mouvement de la trajectoire de l'objet virtuel. Ainsi, lorsque l'objet virtuel touche l'avatar virtuel, ce qui correspond au participant de toucher leur propre joue.
      5. Neutre / asynchronisme
        1. Exécutez la procédure dedécrit sous 2.3.4 après avoir configuré le système de telle sorte que le délai entre les événements critiques est de 3 s au lieu de près de zéro.
      6. Sourire / synchronie
        1. Exécutez la procédure décrite au 2.3.4 après avoir configuré le système pour présenter le visage souriant à la place du visage avec une expression neutre.
      7. Sourire / asynchronisme
        1. Exécutez la procédure décrite au 2.3.6 après avoir configuré le système de telle sorte que le délai entre les événements critiques est de 3 s au lieu de près de zéro.
    4. Collecte de données
      1. Demandez au participant de remplir le questionnaire de mesure de sentiment d'appartenance et l'agence pour la condition respective.
        1. Inclure un questionnaire qui comprend au minimum une ou plusieurs questions de propriété; utiliser les quatre suivantes:
          (O1) «Je me sentais comme le visage sur l'écran était mon propre visage";
          (O2) "Il semblait que j'étaisregardant mon propre reflet dans un miroir ";
          (O3) "Il semblait comme je ressens les mouvements et le toucher sur mon visage à l'endroit où le visage sur l'écran était";
          (O4) "Il semblait toucher je me sentais sur mon visage a été causé par la balle de toucher le visage sur l'écran".
        2. Envisager d'inclure les questions de l'agence; utiliser les deux suivantes:
          (A1) "Il semblait que les mouvements que je voyais sur le visage sur l'écran a été causé par mes propres mouvements»;
          (A2) "Le visage sur l'écran déplacé juste comme je le voulais, comme si elle obéissait à ma volonté".
      2. Inclure la «inclusion d'autres dans le Soi" (IOS) échelle 18, qui est créé en utilisant un point 7 (1-7) Likert échelle 2 sur lequel chaque score est indiqué pour correspondre à un degré différent de soi-autre chevauchement . Indiquez le degré de chevauchement graphiquement par le chevauchement des deux cercles avec un repréEnting le «Soi» et l'autre cercle «Autre». Caractériser le score le plus bas de l'échelle par zéro chevauchement des deux cercles et le meilleur score en chevauchement parfait. Des cotes plus élevées représentent donc un degré plus élevé d'auto-autre chevauchement.
      3. En option, comprennent l'effet de grille 19 pour évaluer l' humeur.
        1. Créer un 2 dimensions (valence par excitation) Likert-type grille, dans laquelle une dimension correspond à valence (allant de -4 pour se sentir désagréable à +4 pour se sentir agréable) et l'autre à l'excitation (allant de -4 pour une sensation de somnolence à +4 pour le sentiment très excité).
        2. Demandez aux participants de choisir un point (par exemple, avec un stylo) qui correspond à la façon agréable et la façon dont ils se sentent actuellement éveille des .
          NOTE: Les questionnaires, IOS et affecter la grille apparaissent à l'écran après chacune des phases expérimentales est terminée. Les participants ont utilisé le clavier pour répondre (identique à l'expérience de l'illusion de la main virtuelle). </ Li>
      4. En option, inclure l'Alternative Utilise des tâches (AUT) 20.
        1. Demandez aux participants d'énumérer autant d'utilisations possibles pour un objet domestique commun comme un journal. La tâche est effectuée avec un stylo et du papier. Demandez aux participants d'écrire vers le bas que de nombreuses utilisations de l'objet comme ils peuvent dans 5 min.
        2. Répétez l' opération pour un autre objet (par exemple, une brique). Note les résultats plus tard selon la fluidité (nombre d'utilisations), la flexibilité (nombre de catégories d'utilisations), l'élaboration (la quantité de détails ou d'explication qui est fournie pour l'utilisation), et l'originalité (faire unique l'utilisation est). Veiller à ce que des scores plus élevés indiquent des performances de pensée plus divergente pour tous les articles. Utilisez deux marqueurs différents et veiller à ce que la corrélation inter-marqueur est élevé. Focus sur le score de flexibilité pour d'autres analyses, comme cela est le score le plus cohérent et théoriquement la plus transparente de la tâche.
        3. Utilisez le AUT comme implicite (et la demande characteristic-gratuit) mesure indiquant l' humeur, la performance dans cette tâche augmente avec une meilleure humeur 21.
          NOTE: Si l'AUT est de changement mis en œuvre le script de sorte que le visage virtuel reste à l'écran, est visible pour et reste sous le contrôle du participant pendant qu'ils font l'AUT.

Representative Results

Illusion virtuelle à la main

Nous avons couru plusieurs expériences en utilisant le paradigme de l'illusion virtuelle à la main, pour étudier comment les gens représentent leur corps, dans ce cas, leurs mains. Le nombre de participants testés dépendait de la quantité de conditions, généralement autour de 20 participants pour chaque condition. Ici, nous fournissons des résultats pertinents pour l'une des études les plus élaborées que nous avons menées dans notre laboratoire. Nous limiterons notre discussion aux données subjectives, la moyenne des réponses Likert échelle aux quatre questions de propriété (O1-O4) et la réponse échelle de Likert à la question de l'agence (A1).

Dans cette étude 8, nous avons systématiquement étudié les effets de la synchronie (synchrone vs. asynchrone), l' apparition de l'effecteur virtuel (main virtuelle vs rectangle), et l' activité (passive et active) sur la particle sens de la propriété et des pants sens de l'agence (toutes les conditions ont été testées dans les participants). Les résultats ont été les mêmes pour la propriété et l'agence. Comme indiqué dans la figure 2, la propriété et l' agence perçue étaient plus forts si la main réelle et virtuelle déplacé en synchronie [F (1,43) = 48.35; p <0,001; et F (1,43) = 54,64; p <0,001; pour la propriété et l'agence, respectivement], si l'effecteur virtuelle une main que si elle était un rectangle [F (1,43) = 14,85; p <0,001; et F (1,43) = 6,94; p <0,02], et si le participant était actif plutôt que passif [F (1,43) = 9,32; p <0,005; et F (1,43) = 79,60; p <0,001]. L'effet de synchronie reproduit l'illusion virtuelle main standard.

Figure 2
Figure 2: Propriété et agence note en fonction de la synchronie, l' apparence de l'effecteur virtuel, et l' activité de la partieicipant. S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

figure 3
Figure 3: Propriété et agence note en fonction de la synchronie et l' activité du participant. Notez que l'effet de synchronie est plus prononcée pour les participants actifs. S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Plus intéressant encore, la propriété et l'agence ont montré une interaction significative entre l'activité et de la synchronie [F (1,43) = 13,68; p = 0,001; et F (1,43) = 23,36; p <0,001; voir la figure 3], mais pas entre l' apparence et la synchronie. Ce modèlesuggère que l'activité joue un rôle plus important pour la propriété et l'illusion que l'apparence ne, il a même montré que la perception de la propriété illusoire est plus forte dans virtuelle que paradigme traditionnel de l'illusion de la main en caoutchouc. Selon Hommel 22, agence objective (ie, le degré auquel un événement extérieur peut objectivement être contrôlé) contribue à la fois la propriété subjective agence subjective, ce qui explique pourquoi , dans cette expérience, commande synchrone actif sur l'effecteur virtuel augmenté à la fois la propriété subjective agence subjective.

Bien que l'apparence n'a pas réussi à interagir avec synchronie, ce qui suggère que l'illusion de la propriété ne repose pas sur l'apparence, il n'a produit un effet principal. Cela indique que l'apparence a une incidence sur la propriété perçue. Il est logique de supposer que les gens ont des attentes générales sur ce que les objets extérieurs peuvent ou non être un plpartie ausible de leur corps, qui soutient la perception de la propriété en général, mais ne modère pas l'effet de la synchronie. Nous concluons donc que de multiples sources d'information contribuent au sentiment d'appropriation subjective: attentes top-down générale et de l'information de synchronie bottom-up. La relation entre ces deux sources d'information ne semble pas être interactif mais compensatoire, de sorte que les attentes générales peuvent dominer en l'absence de synchronie, et vice versa.

Virtual-face Illusion

Dans une autre étude, nous avons étudié comment les gens représentent leur visage. Nous avons été en mesure de reproduire l'illusion d'estampillage traditionnelle dans un environnement virtuel, que nous appelons l'illusion virtuelle face 12. Nous avons étudié plus avant si les gens adoptent l'humeur exprimée par un visage virtuel qu'ils identifient. Il y avait un sein-participantfacteur-synchronie (synchrone vs. asynchrone) et une expression entre-participant facteur-facial (heureux vs neutre). Les évaluations IOS avant la phase d'induction ont été soustraites des notes IOS après la phase d'induction, aussi Affect évaluations grille avant la phase d'induction ont été soustraite de l'effet évaluations grille après la phase d'induction, et ces changements de notation ont été utilisés comme IOS et affectent les résultats de la grille.

L'analyse des scores de propriété (O1-4), l'agence scores (A1-2) et l'échelle IOS 18 changements ont tous montré principaux effets de synchronie [F (1,58) = 38.24; p <0,001; F (1,58) = 77,33; p <0,001; et F (1,58) = 43,63; p <0,001; respectivement], montrant que la synchronie entre ses propres mouvements de la tête et les mouvements du visage virtuel a augmenté perçu la propriété et l' agence, et a facilité l'intégration de la face de l'autre dans son propre soi (voir Figurer 4). Synchrony a également amélioré l' humeur, comme indiqué par un effet synchronie sur la grille affecter 19 changements [F (1,58) = 7,99; p <0,01].

Figure 4
Figure 4: propriété et agence notes, ainsi que les changements d' IOS, en fonction de la synchronie. Notez que IOS positifs changements impliquent une augmentation de l'intégration de l'autre en soi-même. S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 5
Figure 5: influer sur les changements de la grille (valeurs positives impliquent positives en cours affecte) et les scores de flexibilité dans l'AUT, en fonction de synchronie et l'expression du visage virtuel. Notez que les interactions entre synchronie et d'expression sont entraînés par une humeur plus positive en cours et en particulier une bonne performance de flexibilité pour la combinaison de synchronie et visage virtuel heureux. S'il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Il y avait des effets principaux significatifs de l'expression du visage sur les changements IOS, affectent la grille change, et la flexibilité dans l'AUT 20, 21, 23 mais le plus important est le fait que les changements de la grille et la flexibilité classement interagi avec synchronie [F (1 affecte, 58) = 4,40; p <0,05; et F (1,58) = 4,98; p <0,05; respectivement]. Comme le montre la Figure 5, les participants ont signalé une amélioration de l' humeur et ont montré un comportement plus créatif après enfacing (c. -à- synchronely se déplaçant avec) un visage heureux par rapport aux conditions dans lesquelles ils se sont déplacés de manière asynchrone avec un visage heureux ou en synchronisme avec un visage neutre.

F / P / PSE EFF ACTE SYN EFF * LOI EFF * SYN ACT * SYN EFF * LOI * SYN
O1 11.66 10.11 45.38 10.08
0,001 0,003 <0,001 0,003
0,21 0,19 0,51 0,19
O2 5,37 47.65
0.025 <0,001
0,11 0,53
O3 10,75 41.30 9,81
0,002 <0,001 0,003
0.20 0,49 0,19
O4 12,86 17.17 15.12 10.60
0,001 <0,001 <0,001 0,002
0,23 0,29 0,26 0.20
O1-4 14.85 9,32 48.35 13,68
0; 0,001 0,004 <0,001 0,001
0,26 0,18 0,53 0,24
A1 6,94 79.60 54.64 23.36
0,012 <0,001 <0,001 <0,001
0,14 0,65 0,56 0,37

Tableau 1: F, P et Eta partielle au carré (PES) des valeurs pour les effets des évaluations questionnaire de l' élément, avec df = 43. Les facteurs sont EFF: effecteur virtuel (main virtuelle vs rectangle); ACT: activité (exploration active par rapport à la stimulation passive); et SYN: synchronie (synchrone par rapport asynchrone). Seuls les résultats pour des effets significatifs sont présentés.

M / SE HP-SY HP-AS HA-SY HA-AS RP-SY RP-AS RA-SY RA-AS
O1-4 4.37 3,44 5.09 3.50 3.79 3.14 4,68 3.05
0.20 0,23 0,19 0,25 0,23 0,23 0.20 0,21
A1 3,59 3.11 6.36 4.36 3.07 2.57 6.09 3,80
0.30 0,32 0,15 0,33 0,28 0,27 0,24 0,33

Tableau 2: Moyens (M) et les erreurs standard (SE) pour la propriété et l' agence notes sur les huit conditions. H: la main; R: rectangle; A: active; P: passif; SY: synchrone; AS: asynchrone.

F / P / PSE L'expression du visage Synchrony L'expression du visage * Synchrony
Propriété (O1-4) 38.24
<0,001
0,40
Agence (A1-2) 77.33
<0,001
0,57
IOS changements 4.03 43.63
0,049 0,001
0,07 0,43
Affect Grille Valence Changements 6.06 7.99 4.40
0,017 0,007 0,041
0.10 0,13 0,07
AUT-Flexibilité 5.42 4,98
0,024 0,03
0,09 0,08
AUT-Fluency 7,89
0,007
0,12

Tableau 3: F, P et Eta partielle au carré (PSE) des valeurs pour les mesures dépendantes pertinentes, avec df = 58 pour questionnaire et les résultats d' IOS, et df = 56 pour la dimension de valence du moo affecter la grilled et AUT résultats. Seuls les résultats pour des effets significatifs sont présentés.

M / SE Neutre-SY Neutre-AS Happy-SY Happy-AS
Propriété (O1-4) 2.88 2.03 3.38 2.36
0,27 0,16 0,23 0,22
Agence (A1-2) 5.90 4.25 6.16 4.08
0.20 0,25 0,13 0,32
IOS changements 0,37 -0.80 1.00 -0.40
0,21 0,25 0.20 0,24
Affect Grille Valence Changements -1.07 -1,33 0.60 -1.20
0,42 0,33 0,39 0,31
AUT-Flexibilité 5.87 6.07 7,43 6.10
0,31 0,37 0,29 0,39
AUT-Fluency 7.27 8.27 9,73 7,37
0,51 0,68 0,68 0,49

Tableau 4: Moyens (M) et les erreurs standard (SE) pour les mesures dépendantes pertinentes dans les quatre conditions. Neutre: expression faciale neutre; Bonne: expression du visage heureux, SY: synchrone; AS: asynchrone.

Discussion

Dans cet article, nous avons décrit deux protocoles détaillés pour les paradigmes virtuel main et virtuel-face illusion, dans laquelle notre étude virtuelle-face a été le premier à reproduire le traditionnel face-propriété illusion induite caresser dans la réalité virtuelle, ainsi que des résultats représentatifs de les deux paradigmes.

Les effets de synchronie importants indiquent que nous avons réussi à induire la propriété illusoire pour la main virtuelle et le visage virtuel, semblable à d'autres paradigmes d'illusion traditionnels. Être capable de reproduire ces effets au moyen de techniques de réalité virtuelle présente des avantages considérables 11, 24. techniques de réalité virtuelle libèrent l'expérimentateur de la procédure de caresser plutôt artificielle et interruptif et ouvre de nouvelles possibilités pour les manipulations expérimentales. Par exemple, les effecteurs virtuelles morphing nous ont permis de manipuler systématiquement l'impact de la Appearance de la main virtuelle et la similitude entre le virtuel et la main réelle du participant, ou l'expression faciale du visage virtuel. L'impact de l' agence peut aussi être systématiquement explorée en faisant varier le degré (par exemple, l' immédiateté) à laquelle les participants peuvent contrôler les mouvements de l'effecteur artificiel.

Une autre voie prometteuse pour la recherche sur la réalité virtuelle future sont les premiers point de vue de la personne (1PP) des expériences de réalité virtuelle. Expériences 1PP peuvent créer un immense sentiment d'immersion et le sentiment de la présence, sur une échelle complètement différente de celle d' une expérience troisième point de vue de la personne de réalité virtuelle 25, 26, 27, 28. Dans 1PP expériences on peut vraiment se sentir comme on est l'avatar, que l' on est littéralement incarner l'avatar. Ceci ouvre des possibilités pour toutes sortes de manipulations telles que des pièces de détachement d'un le corps de la personne 28, 29 allongeant, rescaling parties du corps 30, ou en changeant la couleur de la peau d'une personne 31, 32.

Comme les présents et de nombreux autres résultats démontrent, le contrôle des événements virtuels d'une manière synchrone augmente fortement la perception de ces événements appartenant à son propre corps. Par exemple, nos résultats de l'étude de la main suggèrent que le contrôle immédiat est un repère important pour la distinction entre les auto-produit et d' autres produits en événements (c. -à- agence personnelle) et entre et liées à l' auto-autres événements liés (c. -à- propriété du corps) . Les résultats présentés ici et ailleurs suggèrent que l' information ascendante joue un rôle décisif dans l'émergence de la phénoménale auto-représentation, même pour les parties du corps qui ne sont pas aussi que sa propre partie du corps 4 liée à l' identité.

jove_content "> La partie la plus critique des protocoles décrits est le processus d'induction, qui introduit des corrélations entre visuel, tactile et le moteur d' information-ces (ie, proprioceptive) corrélations permet le système cognitif pour obtenir la propriété et l' agence. Comme ces corrélations reposent sur la synchronisation relative des événements respectifs, tels que le retard entre les propres mouvements du participant et les mouvements de l'effecteur artificiel, il est essentiel de garder les délais de traitement (en particulier en ce qui concerne la traduction des données du DataGlove au mouvement de l'effecteur virtuel sur l'écran) au minimum. Avec notre configuration d'expérience , le délai maximal est d' environ 40 ms, ce qui est à peine perceptible et ne gêne pas la perception de la causalité et l' agence. Shimada, Fukuda et Hiraki 33 ont suggéré que la fenêtre de temps critique pour l'apparition des processus d'intégration multisensorielle constituant la représentation auto-corps est de 300 ms,ce qui signifie que des délais plus longs sont susceptibles de réduire la perception de contrôle sur les événements virtuels.

Un autre aspect important du protocole est un contrôle expérimental serré sur les mouvements de la main ou le visage des participants, selon le paradigme. Au cours de l'induction, les mouvements actifs du facteur respectif sont essentiels, car les corrélations intersensorielle requises reposent sur les mouvements exploratrices actifs sur le côté du participant. Il est donc important d'encourager les participants à se déplacer fréquemment et de se livrer à l'exploration active. Dans d'autres phases de l'expérience, les mouvements peuvent altérer la mesure cependant. Par exemple, dans le paradigme de l'illusion virtuelle à la main, le déplacement de la main gauche (à partir de laquelle SCR a été enregistré) est susceptible de rendre les mesures de niveau SCR bruyant et peu fiable.

Une limitation de la technique de paradigme illusion virtuelle à la main est que, pour des raisons pratiques, les participants portent généralement un DataGlove et l'orientation tracker pendant toute l'expérience (de façon à minimiser la distraction). Cela peut ne pas être à l'aise, ce qui à son tour peut influer sur l'humeur ou de la motivation du participant. Une solution possible à ce problème serait l'utilisation d'équipements plus légers ou wearables faits sur mesure. Une autre limitation de notre technique actuelle illusion paradigme virtuelle-face est que l'équipement enregistre uniquement les mouvements de tête, mais pas de changements dans l'expression du visage. Permettre aux participants de contrôler les expressions faciales d'un visage virtuel est susceptible de contribuer aux illusions de propriété, mais cela nécessiterait le matériel et le logiciel qui permet la détection et la catégorisation des expressions faciales fiables chez l'homme-dont nous ne disposons pas encore disponibles dans notre laboratoire. L'utilisation de par exemple en temps réel (visage) utilitaires de capture de mouvement serait d'une grande utilité pour surmonter ces limitations et nous permettrait d'augmenter le sens de l'agence et la propriété des avatars à des niveaux nettement plus élevés.

Comme l'a suggéréles résultats de notre étude 8, les gens considèrent diverses sources d'information et mettre à jour leur représentation du corps en permanence. Ils semblent utiliser l' information de bas en haut et de l' information de haut en bas de façon compensatoire, dans le sens où une source d'information joue un rôle plus important en l'absence de l'autre, semblable à ce qui a été pris pour le sens de l' agence 34. Cela fournit des pistes intéressantes pour la recherche future, comme par exemple suggère que la propriété peut être perçu même pour les effecteurs artificiels dans des postures inconfortables, a fourni un degré suffisant de similitude de surface, ou vice versa ( par exemple, si l'effecteur artificiel aligne parfaitement avec le réel effecteur mais diffère de celui-ci en termes de caractéristiques de surface). Les résultats disponibles suggèrent également que les frontières entre soi et les autres sont plutôt en plastique, de sorte que les caractéristiques d'une autre personne ou d'un agent peut être perçu comme une caractéristique de soi-même, à condition un certain degré de synchrony entre son propre comportement et celui de l'autre 35, 36.

Materials

Name Company Catalog Number Comments
Vizard (Software controlling the virtual reality environment) Worldviz Vizard allows importing hand models and integrating the hand, dataglove and orientation tracker modules through self-written command scripts. These scripts can be run to control the presentation of the virtual hand in the virtual environment, the appearance of the hand and the way it moves; they also control vibrator activities.
Cybertouch (Dataglove) CyberGlove Systems Cybertouch Participants wear this dataglove to control the movements of the virtual hand in the virtual environment. Measurement frequency = 100 Hz; Vibrator vibrational frequency = 0-125 Hz.
Intersense (Orientation tracker) Thales InertiaCube3 Participants wear the Intersense tracker to permit monitoring the orientation of their real hand (data that the used dataglove does not provide). Update rate = 180 Hz.
Biopac system (Physiological measurement device) Biopac MP100 The hardware to record skin conductance response.
Acquisition unit (Physiological measurement device) Biopac BN-PPGED The hardware to record skin conductance response.
Remote transmitter (Physiological measurement device) Biopac BN-PPGED-T Participants wear the remote transmitter on their left hand wrist; it sends signals to the Biopac acqusition unit.
Electrode (Physiological measurement device) Biopac EL507 Participants wear  the electrode on their fingers; it picks up skin conductance signals.
AcqKnowledge (Software controlling acquisition of physiological data) Biopac ACK100W, ACK100M The software to record skin conductance responses.
Box Custom-made Participants put their right hand into the box
Computer Any standard PC + Screen (could be replaced by VR glasses/devive) Necessary to present the virtual reality environment, including the virtual hand.
Cape Custom-made Participants wear this cape on their right shoulder so they cannot see their right hand and arm.
Kinect (Head position tracker) Microsoft Kinect tracks the X-Y position of the participant's head. Recording frame rate = 30 Hz.
FAAST (Head position tracker software) MXR FAAST 1.0 Software controls Kinect and is used to track the position of the participant's head.
Intersense (Head orientation tracker) Thales InertiaCube3 Intersense tracks rotational orientation changes of the participant's head. Update rate = 180 Hz.
Facegen (Face-model generator software) Singular Inversions FaceGen Modeller  Facegen allows creating various virtual faces by varying various parameters, such as male/female-ness or skin color.
Cap Any cap, e.g., baseball cap The cap carries the Intersense orientation tracker.
Computer Any standard PC + Screen Necessary to present the virtual reality environment, including the virtual head.

DOWNLOAD MATERIALS LIST

References

  1. Tsakiris, M., Schütz-Bosbach, S., Gallagher, S. On agency and body-ownership: Phenomenological and neurocognitive reflections. Conscious. Cogn. 16 (3), 645-660 (2007).
  2. Botvinick, M., Cohen, J. Rubber hands 'feel' touch that eyes see. Nature. 391 (6669), 756-756 (1998).
  3. Armel, K. C., Ramachandran, V. S. Projecting sensations to external objects: Evidence from skin conductance response. Proc. R. Soc. B. 270 (1523), 1499-1506 (2003).
  4. Tsakiris, M. My body in the brain: A neurocognitive model of body-ownership. Neuropsychologia. 48 (3), 703-712 (2010).
  5. Kalckert, A., Ehrsson, H. H. Moving a rubber hand that feels like your own: Dissociation of ownership and agency. Front. Hum. Neurosci. 6 (40), (2012).
  6. Kalckert, A., Ehrsson, H. H. The spatial distance rule in the moving and classical rubber hand illusions. Conscious. Cogn. 30C, 118-132 (2014).
  7. Ma, K., Hommel, B. Body-ownership for actively operated non-corporeal objects. Conscious. Cogn. 36, 75-86 (2015).
  8. Ma, K., Hommel, B. The role of agency for perceived ownership in the virtual hand illusion. Conscious. Cogn. 36, 277-288 (2015).
  9. Slater, M., Perez-Marcos, D., Ehrsson, H. H., Sanchez-Vives, M. V. Towards a digital body: The virtual arm illusion. Front. Hum. Neurosci. 2 (6), (2008).
  10. Sanchez-Vives, M. V., Spanlang, B., Frisoli, A., Bergamasco, M., Slater, M. Virtual hand illusion induced by visuomotor correlations. PLOS ONE. 5 (4), e10381 (2010).
  11. Spanlang, B., et al. How to build an embodiment lab: Achieving body representation illusions in virtual reality. Front. Robot. AI. 1, 1-22 (2014).
  12. Tsakiris, M. Looking for myself: Current multisensory input alters self-face recognition. PLOS ONE. 3 (12), e4040 (2008).
  13. Sforza, A., Bufalari, I., Haggard, P., Aglioti, S. M. My face in yours: Visuo-tactile facial stimulation influences sense of identity. Soc. Neurosci. 5, 148-162 (2010).
  14. Bufalari, I., Porciello, G., Sperduti, M., Minio-Paluello, I. Self-identification with another person's face: the time relevant role of multimodal brain areas in the enfacement illusion. J. Neurophysiol. 113 (7), 1959-1962 (2015).
  15. Ma, K., Sellaro, R., Lippelt, D. P., Hommel, B. Mood migration: How enfacing a smile makes you happier. Cognition. 151, 52-62 (2016).
  16. Ma, K., Hommel, B. The virtual-hand illusion: Effects of impact and threat on perceived ownership and affective resonance. Front. Psychol. 4 (604), (2013).
  17. Suma, E. A., et al. Adapting user interfaces for gestural interaction with the flexible action and articulated skeleton toolkit. Comput. Graph. 37 (3), 193-201 (2013).
  18. Aron, A., Aron, E. N., Smollan, D. Inclusion of Other in the Self Scale and the structure of interpersonal closeness. J. Pers. Soc. Psychol. 63 (4), 596 (1992).
  19. Russell, J. A., Weiss, A., Mendelsohn, G. A. Affect grid: a single-item scale of pleasure and arousal. J. Pers. Soc. Psychol. 57 (3), 493-502 (1989).
  20. Guilford, J. P. The nature of human intelligence. , McGraw- Hill. New York, NY. (1967).
  21. Ashby, F. G., Isen, A. M., Turken, A. U. A neuropsychological theory of positive affect and its influence on cognition. Psychol. Rev. 106 (3), 529-550 (1999).
  22. Hommel, B. 34;Action control and the sense of agency". The sense of agency. Haggard, P., Eitam, B. , Oxford University Press. New York. 307-326 (2015).
  23. Akbari Chermahini, S., Hommel, B. The (b)link between creativity and dopamine: Spontaneous eye blink rates predict and dissociate divergent and convergent thinking. Cognition. 115 (3), 458-465 (2010).
  24. Sanchez-Vives, M. V., Slater, M. From presence to consciousness through virtual reality. Nat. Rev. Neurosci. 6 (4), 332-339 (2005).
  25. Slater, M., Spanlang, B., Sanchez-Vives, M. V., Blanke, O. First person experience of body transfer in virtual reality. PLOS ONE. 5 (5), (2010).
  26. Maselli, A., Slater, M. The building blocks of the full body ownership illusion. Front. Hum. Neurosci. 7 (83), (2013).
  27. Pavone, E. F., et al. Embodying others in immersive virtual reality: Electro cortical signatures of monitoring the errors in the actions of an avatar seen from a first-person perspective. J. Neurosci. 26 (2), 268-276 (2016).
  28. Tieri, G., Tidoni, E., Pavone, E. F., Aglioti, S. M. Body visual discontinuity affects feeling of ownership and skin conductance responses. Sci. Rep. 5 (17139), (2015).
  29. Kilteni, K., Normand, J., Sanchez-Vives, M. V., Slater, M. Extending body space in immersive virtual reality: A long arm illusion. PLOS ONE. 7 (7), (2012).
  30. Banakou, D., Groten, R., Slater, M. Illusory ownership of a virtual child body causes overestimation of object sizes and implicit attitude changes. Proc. Natl. Acad. Sci. U.S.A. 110 (31), 12846-12851 (2013).
  31. Martini, M., Perez-Marcos, D., Sanchez-Vives, M. V. What color is my arm? Changes in skin color of an embodied virtual arm modulates pain threshold. Front. Hum. Neurosci. 7 (438), (2013).
  32. Peck, T. C., Seinfeld, S., Aglioti, S. M., Slater, M. Putting yourself in the skin of a black avatar reduces implicit racial bias. Consc. Cogn. 22 (3), 779-787 (2013).
  33. Shimada, S., Fukuda, K., Hiraki, K. Rubber hand illusion under delayed visual feedback. PLOS ONE. 4 (7), (2009).
  34. Synofzik, M., Vosgerau, G., Newen, A. Beyond the comparator model: A multifactorial two-step account of agency. Conscious. Cogn. 17 (1), 219-239 (2008).
  35. Hommel, B., Müsseler, J., Aschersleben, G., Prinz, W. The theory of event coding (TEC): A framework for perception and action planning. Behav. Brain. Sci. 24 (5), 849-878 (2001).
  36. Hommel, B. Action control according to TEC (theory of event coding). Psychol. Res. 73 (4), 512-526 (2009).

Tags

Comportement numéro 121 illusion virtuelle à la main Virtual-face illusion auto-représentation perception illusoire l'intégration multisensorielle Sens de l'agence la limite auto-autre
Création Illusions Virtual-main et Virtual-face d&#39;enquêter sur les auto-représentation
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Ma, K., Lippelt, D. P., Hommel, B.More

Ma, K., Lippelt, D. P., Hommel, B. Creating Virtual-hand and Virtual-face Illusions to Investigate Self-representation. J. Vis. Exp. (121), e54784, doi:10.3791/54784 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter