Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Creazione virtuale a mano e Virtual-face Illusions per Indagare Autorappresentazione

doi: 10.3791/54784 Published: March 1, 2017

Summary

Qui, descriviamo virtuale a mano e paradigmi illusione virtuale faccia che possono essere utilizzati per lo studio del corpo legati percezione di sé / -Rappresentazione. Sono già stati utilizzati in vari studi per dimostrare che, in particolari condizioni, una mano virtuale o faccia possono essere incorporati in uno di rappresentazione del corpo, suggerendo che le rappresentazioni del corpo sono piuttosto flessibili.

Abstract

Gli studi che indagano come la gente se stessi e il proprio corpo rappresentano spesso usano varianti di "illusioni di proprietà", come la tradizionale illusione di gomma a mano o l'illusione enfacement più recente scoperta. Tuttavia, questi esempi richiedono apparati sperimentali piuttosto artificiali, in cui l'attuatore artificiale deve essere accarezzato in sincronia con la mano reale dei partecipanti o faccia una situazione in cui i partecipanti non hanno alcun controllo sulla accarezzare o movimenti del loro effettrici reale o artificiale . Qui, descriviamo una tecnica per stabilire le illusioni di proprietà in una configurazione che è più realistico, più intuitiva, e presumibilmente più elevata validità ecologica. Esso permette di creare l'illusione virtuale mano avendo partecipanti controllano i movimenti di una mano virtuale presentate su uno schermo o nello spazio virtuale di fronte a loro. Se la mano virtuale si muove in sincronia con la propria mano reale dei partecipanti, tendono a percepire tegli mano virtuale come parte del proprio corpo. La tecnica crea anche l'illusione virtuale faccia avendo partecipanti controllano i movimenti di un volto virtuale di fronte a loro, di nuovo con l'effetto che tendono a percepire la faccia come propria se si muove in sincronia con la loro vera faccia. Studiando le circostanze che possono essere creati illusioni di questo tipo, aumentato o ridotto fornisce informazioni importanti su come le persone creano e mantengono rappresentazioni di se stessi.

Introduction

Secondo la filosofia occidentale, l'io umano si compone di due aspetti: 1 Per uno, noi percepiamo il nostro corpo e le nostre attività nel qui e ora, che crea un fenomenale autorappresentazione (spesso chiamato il sé minima). Per un altro, creiamo rappresentazioni più durature di noi stessi memorizzando informazioni sulla nostra storia personale, l'integrazione di nuove informazioni nel concetto di sé emergente, e ci presentiamo al nostro ambiente sociale di conseguenza, il che equivale alla creazione di un cosiddetto sé narrativo. Il sé minimo o fenomenico è stato sostenuto per emergere da due fonti di informazione. Uno è informazioni top-down sugli aspetti più duraturi del nostro corpo, come ad esempio informazioni sulle effettori che possediamo o la forma del nostro viso. L'altro è informazioni bottom-up fornito dalla percezione di sé nella situazione attuale.

Le indagini di quest'ultimo sono stati StronGly ispirato da uno studio intelligente di Botvinick e Cohen 2. Questi autori presentati ai partecipanti umani con una mano di gomma che giace di fronte a loro, vicino a una delle loro reali mani, che però è stata nascosta. Quando la mano reale e la mano di gomma sono stati accarezzavano in sincronia, in modo da creare in ingresso sincrono intermodale, i partecipanti tendevano a percepire la mano di gomma, come parte del proprio corpo-illusione in gomma a mano. Ulteriori studi hanno rivelato che la proprietà percepita si è spinto così lontano che i partecipanti avrebbero cominciato a sudare e cercando di ritirare la mano reale quando la mano di gomma è stato attaccato da un coltello o altrimenti essere "male" 3.

Mentre Botvinick e Cohen hanno interpretato i loro risultati per dimostrare che si pone percezione di sé dalla trasformazione di informazioni bottom-up, altri autori hanno sostenuto che i risultati in gomma mano illusione dalla interazione tra Synchr intermodaleony di input, una fonte di bottom-up delle informazioni, e le rappresentazioni memorizzate delle proprie mani, una fonte top-down delle informazioni 4. L'idea è che la sincronia di stimolo crea l'impressione che il vero e la mano di gomma sono la stessa cosa, e dato che la mano di gomma si presenta come una mano vera, questa impressione è considerata la realtà.

Successive ricerche da Kalckert e Ehrsson 5 aggiunto un componente visuo-motoria al paradigma mano di gomma, che consente la ricerca sia di proprietà percepita (l'impressione che il effettrici artificiale appartiene al proprio corpo) e agenzia percepito (l'impressione che si è producendo movimenti osservati se stessi). I partecipanti sono stati in grado di spostare il dito indice della mano di gomma su e giù spostando il proprio dito indice, e la sincronia tra i movimenti delle dita reali e mano in gomma, la modalità di movimento (passivo vs. modalità attiva), e il positioning della mano di gomma (incongruo rispetto congruo per quanto riguarda la mano del partecipante) sono stati manipolati. I risultati sono stati presi per fornire il supporto per l'idea che agenzia e la proprietà sono fenomeni cognitivi funzionalmente distinte: mentre la sincronia di movimento abolito sia senso di appartenenza e di agenzia, la modalità di movimento solo colpiti agenzia, e la congruenza della posizione della mano di gomma ha avuto un effetto su solo la proprietà. Gli ultimi due sono stati replicati risultato in uno studio di follow-up in cui la distanza tra reale e gomma mano nel piano verticale varia 6: la proprietà per la mano di gomma diminuito la sua posizione sempre più non corrispondenti mano reale del partecipante. Tuttavia, l'agenzia non è stata influenzata dalla misplacements della mano di gomma in qualsiasi condizione.

Tuttavia, la ricerca recente utilizzando tecniche di realtà virtuale, che forniscono il partecipante con controllo attivo sul effettore artificiale, suggerisce che il ruolo del top-downparte e la distinzione tra proprietà e agenzia potrebbe essere stato sovrastimato 7, 8. Queste tecniche hanno sostituito la mano di gomma da una mano virtuale presentato ai partecipanti su uno schermo di fronte a loro o mediante bicchieri di realtà virtuale 9. I partecipanti comunemente indossare un dataglove che traduce i movimenti della mano reale del partecipante nei movimenti della mano virtuale, in modo sincrono o asincrono (ad esempio, con un ritardo notevole). Simile all'illusione gomma mano, traduzione simultanea aumenta fortemente impressione del partecipante che la mano virtuale diventa parte del suo corpo 10.

Basate su tecniche di realtà virtuale per creare l'illusione di gomma mano ha diversi vantaggi rispetto sia il paradigma tradizionale della gomma a mano e la combinazione del paradigma di gomma a mano con il componen visuo-motoriats 11. Spostamento di una mano e di vedere un effettore si muove in sincronia con esso crea una situazione molto più naturale rispetto di fronte ad una mano di gomma e di essere accarezzato da uno sperimentatore. Inoltre, la manipolazione virtuale fornisce lo sperimentatore con molta più flessibilità e sperimentale molto più controllo sulla relazione percettiva tra il percepire e muovendo una mano reale e la percezione della manifestazione creata dal effettrici artificiale. In particolare, utilizzando tecniche virtuali facilita la manipolazione di fattori che possono influenzare la proprietà e agenzia percepita. Per esempio, la forma della mano virtuale può essere modificato molto più facile e più rapido della forma di una mano di gomma, ed i movimenti della mano virtuale può essere di qualsiasi genere e per esempio coinvolgere movimenti biologicamente impossibili. Tra l'altro, questo facilita esplorare i limiti della illusione, come effettore artificiale non deve apparire come una mano, ma può essere replaccati da qualsiasi tipo di evento statico o dinamico. Di interesse sia pratico che teorico, un attuatore virtuale è senza dubbio molto più coinvolgente e si sente molto più reale di una mano di gomma, che è in grado di ridurre la necessità di richiamare interpretazioni top-down per dare un senso alla situazione attuale.

illusioni titolarità sono, tuttavia, non sono stati limitati alle mani. Tsakiris 12 fu il primo ad usare la tecnica carezze per creare l'impressione di partecipanti che una faccia statico in un quadro presentato di fronte a loro è la loro. Sforza et al. 13 hanno anche trovato prove di questo fenomeno, a cui si riferiscono come enfacement: i partecipanti incorporati tratti del viso di un partner quando la propria e la faccia del loro partner sono stati toccati in sincronia. Il meccanismo neurali alla base l'illusione enfacement è stato recentemente indagato da vari ricercatori; Per un commento completo e interpretation dei risultati vedi Bufalari et al. 14. Abbiamo recentemente trasformato il disegno regolare enfacement illusione in una versione virtuale-realtà (virtuale-faccia illusione), in cui i partecipanti stanno controllando i movimenti di un volto virtuale di fronte a loro, spostando la propria testa 15.

Qui, descriviamo due esperimenti che hanno usato il virtuale a mano illusione 7 e il virtuale faccia illusione 15 paradigmi rispettivamente, per indagare autorappresentazione. L'esperimento virtuale mano comprendeva tre, fattori sperimentali completamente incrociate: (a) la sincronia tra (feltro) real-mano e movimenti (visto) virtuale-effettrici, che era sia vicino allo zero per indurre la proprietà e agenzia o tre secondi come condizione di controllo; (B) l'aspetto del effettore virtuale, che sembrava sia come una mano umana o come un rettangolo (in modo per testare l'effetto di eff reale virtualeettore somiglianza sull'illusione di proprietà); e (c) la possibilità di controllare il comportamento del effettore virtuale, che era o inesistente in una condizione passiva o direttamente in una condizione attiva. L'esperimento virtual-faccia comprendeva due, fattori sperimentali completamente incrociati: (a) la sincronia tra reale e virtuale faccia faccia movimenti, che era sia vicino allo zero per indurre la proprietà e agenzia o tre secondi come una condizione di controllo; e (b) l'espressione del viso del volto virtuale, che era o neutro o mostrando un sorriso, per verificare se l'umore positivo sarebbe sollevare l'umore del partecipante e migliorare la sua performance in un compito creatività stato d'animo sensibile.

Protocol

Tutti gli studi conformi agli standard etici della Dichiarazione di Helsinki e protocolli sono stati approvati dal comitato etico della ricerca umana Università di Leida. Ogni condizione testato circa 20 partecipanti.

Illusion 1. virtuale a mano

  1. Setup sperimentale
    1. Benvenuti al partecipante e raccogliere informazioni aggiuntive, come età, sesso, ecc
    2. Stabilire un apparato sperimentale che include un ambiente di programmazione di realtà virtuale; un dataglove destrorsi con sei stimolatori vibrazione programmabili collegati al mezzo palmo e all'esterno delle mediali (secondo) falangi di ciascuna delle cinque dita (vedi Elenco materiali); a 3 gradi di libertà (DOF) orientamento inseguitore; SCR (conduttanza cutanea risposta) strumenti di misura; una scatola nera (profondità: 50 cm, altezza: 24 cm, larghezza: 38 cm) con schermo di un computer si trova in cima orizzontale (che serve per presentare la realtà virtuale, environment); e un mantello per coprire parte del partecipante.
    3. Chiedere al partecipante di mettere il DataGlove sulla sua mano destra e il tracker di orientamento sul polso destro. Collegare un trasmettitore a distanza SCR con una cinghia per il polso sinistro. Mettere gli elettrodi SCR sulle mediale (secondo) falangi delle dita indice e medio della mano sinistra (vedi Figura 1 A e B per un'illustrazione del setup).
    4. Posizionare la partecipante davanti alla scrivania su cui è collocato il box con lo schermo del computer in cima. Chiedere al partecipante di mettere la sua mano destra nella scatola lungo l'asse di profondità, come per proteggerlo dal loro punto di vista.
    5. Mettere una cappa sopra la spalla destra del partecipante e coprire lo spazio tra schermo e partecipante. Chiedere al partecipante per riposare la sua mano sinistra su una parte vuota della scrivania.
    6. Collegare i cavi di DataGlove e orientamento inseguitore al computer, e avviare la programmazione environme realtà virtualent. Eseguire lo script di comandi pre-scritto nella finestra di comando facendo clic sul pulsante "Esegui" nell'interfaccia ambiente di realtà virtuale, in modo che l'ambiente di realtà virtuale si avvia. Monitor che il partecipante segue le istruzioni visualizzate sullo schermo del computer di fronte ai partecipanti. Attendere che lo script di comandi pre-scritto si chiude automaticamente.

Figura 1
Figura 1: (a) i partecipanti indossavano un inseguitore orientamento e un DataGlove sulla mano destra, e SCR trasmettitore remoto sulla loro mano sinistra. (B) Impostazione dell'esperimento illusione virtuale a mano. (C) Impostazione dell'esperimento illusione virtuale faccia. (D) Uno screenshot dello schermo del computer.Clicca qui per vedere una versione più grande di questa figura.

  1. Virtuale Hand Design
    NOTA: script di comando usare Python nella finestra di comando del software di realtà virtuale e salvarli. Assicurarsi che lo script di comando principale, i comandi di importazione, gli script di moduli e altri comandi descritti di seguito sono parte dello stesso file di script. Per lo script python completo e file necessari vedere il file allegato "Virtual mano Illusion.zip" (NB: il file zip è un materiale supplementare del manoscritto e non fa parte del pacchetto software, inoltre, esclude i plugin necessari per il. DataGlove e l'orientamento inseguitore, e tutti gli altri moduli Python utilizzati in tutto lo script). Per eseguire l'esperimento prima decomprimere il contenuto di questo file in qualsiasi cartella (ad esempio, il desktop) e quindi fare doppio clic sul file "virtuale mano illusion_54784_R2_052716_KM.py" per avviare l'esperimento. Si noti che lo script èprogettato per funzionare con l'ambiente di programmazione di realtà virtuale dichiarato e non funzionerà con altri programmi.
    1. Importare un modello di mano virtuale pre-made e un modulo di script mano pre-scritto (che si trova nel file rata del pacchetto software-reality-ambiente virtuale) in ambiente di realtà virtuale. Il modulo di script mano tiene traccia del dito gesto comune e gli angoli del DataGlove e alimenta le informazioni nel modello di mano virtuale, che permette di controllare i movimenti della mano virtuale muovendo la mano vera indossare il DataGlove.
      1. Modificare manualmente le dimensioni e l'aspetto della mano virtuale, se necessario, specificando i parametri nello script, come ad esempio la sua x, y, z e il ridimensionamento di cambiare le dimensioni o modificare l'immagine mappata.
      2. Per le condizioni di sincronia, utilizzare nessuna trasformazione, in modo che la mano virtuale si muove nello stesso modo come la mano reale e in (circa) contemporaneamente. Per creare asincronia, aggiungere un ritardo di 3 s, in modo che il virtual mano si muove come la mano reale, ma con un ritardo notevole.
    2. Identificare un adeguato pre-made plugin di orientamento inseguitore nel file rata realtà virtuale-ambiente e importarlo negli script di comando. Si noti che eseguire gli script dei comandi rende il modulo inseguitore orientamento traccia i cambiamenti di orientamento della mano reale (forniti dal orientamento partecipanti inseguitore indossare al polso destro), che possono poi essere utilizzati per controllare i cambiamenti di orientamento della mano virtuale impostando la imbardata, i dati beccheggio e rollio della mano virtuale nella finestra di comando. Incanalare i dati monitorati dal tracker orientamento direttamente nel modello virtuale a mano per le condizioni di sincronia, ma inserire un ritardo di 3 s per asincronia.
    3. Progettare gli oggetti virtuali aggiuntivi richiesti e le loro traiettorie di movimento, in modo che si muovono da e per la mano virtuale (qui, di progettazione e di importare modelli aggiuntivi per un bastone, rettangolo, palla, e coltello, da utilizzare durante le varie parts dell'esperimento; vedere "condizioni sperimentali"). modificare manualmente la dimensione, l'aspetto e la posizione per ciascuno di questi oggetti nello script di comando nello stesso modo come vengono impostati i parametri per la mano virtuale. Impostare le traiettorie di movimento richiesti utilizzando i comandi appropriati per impostare la posizione di inizio e fine delle traiettorie di movimento di un oggetto e la velocità con cui si deve muovere.
    4. Determinare la forza di vibrazione e la tempistica di ogni stimolatore vibrazioni nello script di comando; o senza un ritardo per condizioni sincronia (cioè, vibrazione inizia esattamente quando la mano virtuale viene contattato l'altro oggetto virtuale) o con un ritardo di 3 s per asincronia. Tutti vibratori vibrano allo stesso tempo come la mano virtuale viene toccato dal altro oggetto virtuale (o al punto di tempo ritardato). Impostare la forza di vibrazione ad un livello medio (cioè 0,5 su una scala da 0-1). Si noti che l'effettiva resistenza della vibrazione dipende dalla Programmiambiente ng e vibratori utilizzati per l'esperimento, e che un livello medio di vibrazione nel nostro esperimento non corrisponde necessariamente la forza reale di vibrazione quando viene utilizzato hardware diverso (cioè vibratori / DataGlove) o software.
    5. Aggiungere una seconda parte dello script esperimento che è identica alle fasi precedenti ad eccezione delle seguenti modifiche:
      1. Sostituire la mano modello virtuale con un rettangolo virtuale di dimensioni simili come mano virtuale (in modo da realizzare il fattore aspetto dell'esperimento)
      2. Assicurarsi che la rotazione del reale mano come raccolto dal inseguitore orientamento si traduce in movimenti di rotazione del rettangolo.
      3. Assicurarsi che l'apertura e la chiusura del reale mano come captato dal DataGlove è tradotto in cambiamenti di colore del rettangolo utilizzando il comando appropriato per cambiare il colore di un oggetto in ambiente di programmazione (ad esempio, presentare il rettangolo in verde quando la hed è completamente chiuso, in rosso quando è completamente aperto, e lasciare che il colore gradualmente cambia da rosso a verde o verde al rosso mentre la mano si apre o si chiude).
  2. Condizioni sperimentali
    1. Eseguire le otto condizioni sperimentali (derivante dalla attraversando la sincronia tre fattori sperimentali, l'aspetto della effettrici virtuale e attivo / passivo) in un ordine che è o equilibrata tra i partecipanti o randomizzati.
    2. Per ciascuna condizione, comprende tre fasi di circa 2 a 3 minuti per indurre l'illusione virtual mano e una fase minaccia per misurare le risposte cutanee elettrofisiologiche (SCR). Il protocollo cemento alquanto diversa per le otto condizioni ed è descritta di seguito.
    3. mano virtuale / attivo / sincronia
      1. Configurare il sistema in modo tale che il ritardo tra i seguenti eventi è vicina a zero e non visibile: (a) i movimenti e le variazioni di orientamento della mano vera e corrispondonoing movimenti e variazioni di orientamento della mano virtuale nella fase di correlazione visuo-motore; (B) i punti di tempo di contatto tra la mano virtuale e l'oggetto virtuale aggiuntivo sullo schermo ei punti temporali corrispondenti di stimolazione vibrazioni indotte della mano reale nella fase visuo-tattile; e (c) i movimenti e le variazioni di orientamento della mano reali ei corrispondenti movimenti e variazioni di orientamento della mano virtuale; ed i punti di tempo di contatto tra la mano virtuale e l'oggetto virtuale aggiuntivo sullo schermo ei corrispondenti punti temporali di stimolazione vibrazioni indotte della mano reale nella fase visuo-motore-tattile.
      2. Per la fase di correlazione visuo-motoria, hanno i partecipanti si muovono liberamente o ruotare la mano destra vera, tra cui l'apertura, la chiusura, e ruotando la mano reale e in movimento ogni dito singolarmente. Hanno i partecipanti guardano i corrispondenti movimenti della mano virtuale sullo schermo del computer.
      3. Per la vfase di stimolazione isuo-tattile, hanno i partecipanti mantengono la loro mano reale ancora mentre si guarda lo schermo. Presenta un altro oggetto virtuale sullo schermo, come una palla virtuale o bastone (che è stato creato in 1.2.3) mobile da e verso la mano virtuale, producendo l'impressione di toccare e non toccare la mano virtuale.
        1. Accompagnare ogni contatto tra questo oggetto virtuale aggiuntivo e la mano virtuale dall'attività vibratore sul DataGlove. Avere il vibratore stimolare la parte della mano reale che corrisponde alla parte della mano virtuale che viene toccata dall'oggetto virtuale aggiuntivo (ad esempio, se l'oggetto virtuale sembra toccare il palmo della mano virtuale, il palmo della partecipante di vera e propria mano deve essere stimolato dal vibratore 16).
      4. Per la fase di correlazione visuo-motoria-tattili, sono i partecipanti spostare la mano virtuale muovendo la mano reale al fine di toccare un vibrante st virtualeoggetto ick o simile (vedi 1.2.3). Assicurarsi che ogni contatto tra la mano virtuale e virtual bastone / oggetto è accompagnato dalla stimolazione delle vibrazioni indotte della mano reale del partecipante come descritto in 1.3.3.3.
      5. Per la fase di minaccia, hanno i partecipanti mantengono la loro vera mano destra ancora durante la visione di un coltello virtuale o aghi appaiono sullo schermo del computer. Fai il coltello virtuale o aghi vanno da e per la mano virtuale. Assicurarsi che ogni risultato di contatto in un "taglio" visibile apparente o "puntura" della mano virtuale.
        1. Stimolare la parte della mano reale che corrisponde al taglio o parte forata della mano virtuale utilizzando vibratori del DataGlove come descritto in 1.3.3.3.
    4. mano virtuale / attivo / asincronia
      1. Eseguire il procedimento descritto in 1.3.3 dopo la configurazione del sistema in modo tale che il ritardo tra gli eventi critici è tre secondi invece che vicino a zero.
      2. rettangolo virtuale / attivo / sincronia
        1. Eseguire il procedimento descritto in 1.3.3 ma con il rettangolo virtuale invece della mano virtuale.
      3. rettangolo virtuale / attivo / asincronia
        1. Eseguire il procedimento descritto in 1.3.4 ma con il rettangolo virtuale invece della mano virtuale.
      4. mano virtuale / passivo / sincronia
        1. Eseguire il procedimento descritto in 1.3.3 ma chiedere al partecipante di tenere la sua mano reale ancora in tutte le fasi.
      5. mano virtuale / passivo / asincronia
        1. Eseguire il procedimento descritto in 1.3.4 ma chiedere al partecipante di tenere la sua mano reale ancora in tutte le fasi.
      6. rettangolo virtuale / passivo / sincronia
        1. Eseguire il procedimento descritto in 1.3.5 ma chiedere al partecipante di tenere la sua mano reale ancora in tutte le fasi.
      7. rettangolo virtuale / passivo / asincronia
        1. Eseguire il procedimento descritto in 1.3.6 ma chiedere al partecipante di tenere la sua mano reale ancora in tutte le fasi.
    5. Raccolta dati
      1. Raccogliere dati SCR utilizzando la strumentazione di misura (vedi Materiali List) e il suo software. La frequenza di registrazione è ogni 0,1 ms.
      2. Chiedi ai partecipanti di compilare il questionario di misurazione senso di proprietà, agenzia, la posizione e l'aspetto per la rispettiva condizione. Utilizzare una versione cartacea, in cui è stampata ogni domanda (come descritto in 1.4.2.1 e 1.4.2.2), insieme con una scala Likert (come descritto in 1.4.2.3), e che può essere riempito con una penna; o utilizzare una versione computerizzata, in cui ogni domanda viene mostrata sullo schermo, insieme con la scala Likert, e in cui il valore di scala scelto può essere digitato.
        1. Includere un questionario che comprende minimamente una o più domande di proprietà 2; utilizzare i seguenti quattro: <br /> (O1) "Mi sentivo come se la mano sullo schermo fosse la mia mano destra o una parte del mio corpo";
          (O2) "Sembrava come se quello che sentivi sulla mia mano destra è stato causato dal contatto del bastone sulla mano sullo schermo che stavo vedendo";
          (O3) "Ho avuto la sensazione che la vibrazione ho sentito sulla mia mano destra era sulla stessa posizione in cui la mano sullo schermo è stato toccato dalla bacchetta";
          (O4) "Sembrava la mia mano destra era in una posizione in cui la mano sullo schermo è stato".
        2. Considerare compresi ulteriori domande in merito alle domande di agenzia; utilizzare il seguente:
          (A1) "Ho sentito che posso controllare questa mano virtuale" (per la condizione attiva);
          (A1) "Sembrava che avrei potuto spostato la mano sullo schermo se avessi voluto, come se fosse obbedisce la mia volontà" (per la condizione passiva); .
          Si noti che gli elementi elencati in 1.4.2.1 e 1.4.2.2 si riferiscono alla condizione di mano. Per la condizione di rettangolo, sostituire tutti i riferimenti alla mano virtuale da riferimenti rettangolo virtuale.
        3. Utilizzare una scala Likert a 2 per ogni domanda (ad esempio, 1-7), in modo che i partecipanti possano segnare il grado in cui hanno deciso di domanda; ad esempio, utilizzare 1 per "fortemente in disaccordo" e 7 per "fortemente d'accordo". Assicurarsi che appare ogni domanda sullo schermo e può essere risposto a con i numeri da 1 a 7 corrispondenti alle 7 opzioni di risposta della scala Likert; opzioni di aspetto e di risposta sono programmati nello script esperimento.

    2. Virtual-face illusione

    1. Setup sperimentale
      1. Benvenuti al partecipante e raccogliere informazioni aggiuntive, come età, sesso, ecc
      2. Stabilire un apparato sperimentale che include un ambiente di programmazione di realtà virtuale; un sistema di inseguimento di posizione della testa, compreso l'hardware e il software corrispondentef "> 17; e un tracker orientamento 3 DOF fissato alla sommità di un berretto cappello o di baseball.
        NOTA: L'utilizzo di questo apparato sperimentale, i partecipanti possono liberamente muoversi o ruotare la propria testa per controllare la posizione e l'orientamento della faccia virtuale, ma non può controllare le espressioni facciali del viso virtuali
      3. Chiedi ai partecipanti di sedersi sulla sedia 2 metri di fronte allo schermo del computer. Vedere la figura 1C e 1D per un illustrazioni del setup sperimentale.
      4. Chiedere al partecipante di mettere il tappo con il tracker orientamento allegato.
      5. Collegare il sistema di tracciamento della posizione e l'orientamento tracker per il computer ed eseguire lo script di comandi pre-scritto nella finestra di comando facendo clic sul pulsante "Esegui" nell'interfaccia ambiente di realtà virtuale, in modo che l'ambiente di realtà virtuale si avvia. Monitor che il partecipante segue le istruzioni visualizzate sullo schermo del computer di fronte ai partecipanti. Aspettarefino a quando lo script di comandi pre-scritto si chiude automaticamente.
    2. Virtuale di disegno del fronte
      NOTA: per lo script python completo e file necessari vedere il file allegato "Face virtuale Illusion.zip" (NB: il file zip è un materiale supplementare del manoscritto e non fa parte del pacchetto software, ma non include i plugin richiesti utilizzato per la posizione e il monitoraggio di orientamento e di tutti gli altri moduli Python utilizzati in tutto lo script). Per eseguire l'esperimento, prima decomprimere il contenuto di questo file in qualsiasi cartella (ad esempio, il desktop) e quindi fare doppio clic sul file "virtuale faccia illusion_54784_R2_052716_KM.py" per avviare l'esperimento. Si noti che lo script è progettato per funzionare con l'ambiente di programmazione di realtà virtuale presentato qui e non funziona con altri programmi.
      1. Utilizzare un programma di costruzione faccia virtuale per la progettazione di volti virtuali con gli appropriati età, razza, e generi (corrispondenti ai partecipanti in prova) selezionando i migliori valori di montaggio sui corrispondenti scale del programma
      2. Creare due versioni di ogni faccia, uno con una espressione facciale neutra e uno con un sorriso, selezionando i corrispondenti valori sui corrispondenti scale del programma (che varia espressioni modificando le dimensioni degli occhi, la curvatura della bocca e di alcuni altri muscoli del viso)
      3. Per testare gli studenti universitari, creare quattro 20-year-old facce virtuali con il programma di costruzione faccia virtuale, un volto maschile con un'espressione facciale neutra, un volto maschile che sorride, un volto femminile con un'espressione facciale neutra, e una faccia femminile che sorride
      4. Nel programma di costruzione faccia virtuale esportare i volti in file 3D VRML-formattati.
      5. Utilizzando i comandi appropriati dell'ambiente di programmazione di realtà virtuale importare i file VRML creati, cioè, le facce virtuali, in ambiente di realtà virtuale per l'utilizzo durante l'esperimento. Vary le loro dimensioni o la scala impostando i loro parametri di conseguenza utilizzando i comandi appropriati.
      6. Trova il modulo di monitoraggio pre-scritto per il sistema di tracciamento posizione della testa nel file rata dell'ambiente virtuale e importarlo, che consente il monitoraggio delle posizioni della testa del partecipante. Negli script, modificare i dati delle posizioni della testa e determinare il punto di tempo di quando posizioni della testa sono tradotti in posizioni virtuali faccia (usare un ritardo di 0 ms per le condizioni sincronia e 3 s ritardo per asincronia).
      7. Trova un plugin orientamento inseguitore pre-fatte nel file rata dell'ambiente virtuale e importarlo negli script di comando. Si noti che, ancora una volta, lo script permette l'introduzione di ritardi temporali rispetto al punto di tempo di quando cambia l'orientamento della testa del partecipante sono tradotti in modifiche di orientamento della testa virtuale (utilizzare un ritardo di 0 ms per le condizioni di sincronia e un 3 s di ritardo per asincronia ).
      8. Progettazione ulteriore OB virtualeprogetti (quali un bastone virtuale) e loro traiettorie di movimento, quindi si spostano e dalla faccia virtuale. Impostare la dimensione dell'oggetto virtuale per essere simile alla dimensione di un dito virtuale.
      9. Collegare l'hardware e implementare gli script di comando salvato, e quindi avviare l'esperimento.
    3. Condizioni sperimentali
      1. Eseguire gli script di comando e monitorare la posizione della testa del partecipante mediante il sistema di tracciamento posizione della testa e orientamento della testa del partecipante mediante un tracker orientamento 3 DOF collegato a un cappuccio.
      2. Esporre il partecipante alla faccia virtuale per 30 s e di istruire i partecipanti di non muoversi. Una volta che il viso è scomparso, hanno i partecipanti rispondono alla scala IOS (descritto in Data Collection) per valutare come lui o lei percepisce il rapporto tra lui o lei stessa e il volto virtuale.
      3. Eseguire le quattro condizioni sperimentali (descritte di seguito) in un ordine che è sia equilibrata tra partipanti o randomizzato. Ogni condizione comprende tre fasi di circa 2 a 3 minuti per indurre l'illusione virtuale faccia.
      4. Neutro / sincronia
        1. Configurare il sistema in modo tale che il ritardo tra i seguenti eventi è vicina a zero e non visibile: (a) i movimenti della testa reali ei corrispondenti movimenti della testa virtuale in fase di correlazione visuo-motore e (b) i punti di tempo di contatto tra la mano reale del partecipante e reale guancia del partecipante e tra l'oggetto virtuale e la testa virtuale nella fase di stimolazione visuo-tattili.
        2. Per la fase di correlazione visuo-motoria, hanno messo i partecipanti sul tappo con il tracker orientamento allegato. Chiedi loro di continuare a muoversi o ruotare la propria testa per controllare la posizione e l'orientamento della faccia virtuale.
        3. Per la fase di stimolazione visuo-tattili, sono i partecipanti allungare il loro braccio destro verso destra e indietro più volte, a toccare la loro guancia destra, mentre watching lo schermo. Il tocco è solo momentanea: i partecipanti toccano la guancia, lascia andare e allungare il braccio destro verso destra, e ripetere per tutta la durata di questa fase stimoli visuo-tattili.
        4. Sullo schermo, presentano la faccia virtuale essere ripetutamente toccata alla guancia da un oggetto virtuale, come una palla virtuale. Il tocco è (o meglio il movimento della mano in generale) è sincronizzato con l'oggetto virtuale attraverso il sistema di movimento che permette di monitorare la posizione di un arto di un partecipante (ad esempio a mano) nello spazio 3D, che ci ha permesso di mappare direttamente i movimenti della mano del partecipante al la traiettoria dell'oggetto virtuale, risultando in un movimento sincronizzato di movimento traiettoria mano reale del partecipante e il movimento traiettoria dell'oggetto virtuale. Così quando l'oggetto virtuale tocca il avatar virtuale, questo corrisponde al partecipante toccando la guancia.
      5. Neutro / asincronia
        1. Eseguire la procedura di dedescritto sotto 2.3.4 dopo aver configurato il sistema in modo tale che il ritardo tra gli eventi critici è 3 s anziché vicino a zero.
      6. Sorridente / sincronia
        1. Eseguire il procedimento descritto in 2.3.4, dopo aver configurato il sistema per presentare il volto sorridente al posto del viso con un'espressione neutra.
      7. Sorridente / asincronia
        1. Eseguire il procedimento descritto in 2.3.6 dopo aver configurato il sistema in modo tale che il ritardo tra gli eventi critici è 3 s anziché vicino a zero.
    4. Raccolta dati
      1. Chiedi ai partecipanti di compilare il questionario di misurazione senso di appartenenza e di agenzia per la rispettiva condizione.
        1. Includere un questionario che comprende minimamente una o più domande di proprietà; utilizzare i seguenti quattro:
          (O1) "Mi sentivo come il volto sullo schermo era la mia faccia";
          (O2) "Sembrava come se fossiguardando il mio riflesso in uno specchio ";
          (O3) "Sembrava come se fossi sentendo i movimenti e il tocco sulla mia faccia nella posizione in cui il volto sullo schermo è stato";
          (O4) "Sembrava come il tocco ho sentito sulla mia faccia è stata causata dalla palla toccare il viso sullo schermo".
        2. Considerare comprese le questioni di agenzia; utilizzare il seguente due:
          (A1) "Sembrava come se i movimenti che ho visto sul viso sullo schermo è stato causato dai miei movimenti";
          (A2) "Il volto sullo schermo muoveva proprio come volevo che, come se obbediva mia volontà".
      2. Includere la "inclusione di altri nel Sé" (IOS) scala 18, che viene creato utilizzando un 7 punti scala 2 sul quale è indicato ogni punteggio (1-7) Likert per corrispondere a un diverso grado di sovrapposizione sé-altro . Indicare il grado di sovrapposizione grafica attraverso la sovrapposizione di due cerchi con uno rappreseenting il "Sé" e l'altro cerchio ' "Altro". Caratterizzare il punteggio più basso della scala da zero sovrapposizione dei due cerchi e il punteggio più alto dalla perfetta sovrapposizione. rating più elevati rappresentano quindi un elevato grado di sovrapposizione sé-altro.
      3. Opzionalmente, includono l'effetto griglia 19 per valutare l'umore.
        1. Creare un 2-dimensionale (valenza per l'eccitazione) griglia Likert-tipo, in cui una dimensione corrispondente alla valenza (che vanno da -4 per sgradevole sensazione di +4 per sentirsi piacevole) e l'altro all 'eccitazione (che vanno da -4 per sensazione di sonnolenza a +4 per sentimento altamente destato).
        2. Hanno partecipanti scelgono un punto (ad esempio, con una penna) che corrisponde al modo piacevole e come destato che attualmente si sentono.
          NOTA: I questionari, IOS e influenzare griglia appaiono sullo schermo dopo ciascuna delle fasi di sperimentazione è finito. I partecipanti hanno utilizzato la tastiera per rispondere (identico al esperimento illusione virtuale a mano). </ Li>
      4. Opzionalmente, includono Usa la Alternative Task (AUT) 20.
        1. Chiedi ai partecipanti di elencare molti usi possibili per un elemento comune della famiglia, come un giornale. L'attività viene eseguita con carta e penna. Avere i partecipanti ad annotare come molti usi per l'oggetto in quanto possono in 5 min.
        2. Ripetere l'operazione per un altro oggetto (ad esempio, un mattone). Nota i risultati in seguito in base alla fluidità (numero di utilizzi), flessibilità (numero di categorie di usi), elaborazione (la quantità di dettagli o spiegazioni che è previsto per l'uso), e l'originalità (come unica l'uso è). Assicurarsi che i punteggi più alti indicano prestazioni superiori pensiero divergente per tutti gli elementi. Utilizzare due marcatori differenti e garantire che la correlazione inter-scorer è alto. Focus sul punteggio di flessibilità per ulteriori analisi, in quanto questo è il punteggio più consistente e teoricamente più trasparente del compito.
        3. Utilizzare la AUT come un implicito (e la domanda-characteristic-gratuito) misura che indica l'umore, le prestazioni in questo compito aumenta con l'umore migliore 21.
          NOTA: Se il AUT è quello di cambiare implementato lo script in modo che il volto virtuale rimane sullo schermo, è visibile da e rimane sotto il controllo del partecipante, mentre stanno facendo il AUT.

Representative Results

Illusion virtuale a mano

Abbiamo eseguito diversi esperimenti utilizzando l'illusione paradigma virtuale a mano, per indagare come le persone rappresentano i loro corpi, in questo caso, le loro mani. Il numero di partecipanti testati dipendeva dalla quantità di condizioni, di solito circa 20 partecipanti per ciascuna condizione. Qui forniamo risultati rilevanti per uno degli studi più elaborate abbiamo condotto nel nostro laboratorio. Ci limiteremo la nostra discussione ai dati soggettivi, la media delle risposte Likert scala alle quattro domande di proprietà (O1-O4) e la risposta Likert scala alla domanda dell'agenzia (A1).

In questo studio 8, abbiamo studiato sistematicamente gli effetti di sincronia (sincrona vs asincrono), l'aspetto della effettrici virtuale (virtual mano contro rettangolo), e l'attività (passiva contro attivo) sul particsenso parte- 'di proprietà e il senso di agenzia (tutte le condizioni sono stati testati entro partecipanti). I risultati erano gli stessi per la proprietà e agenzia. Come indicato nella figura 2, la proprietà e l'agenzia percepito erano più forti se la mano reale e virtuale si trasferisce in sincronia [F (1,43) = 48.35; p <0,001; e F (1,43) = 54.64; p <0,001; per la proprietà e agenzia rispettivamente], se l'attuatore virtuale era una mano che se fosse un rettangolo [F (1,43) = 14.85; p <0,001; e F (1,43) = 6.94; p <0,02], e se il partecipante era attiva piuttosto che passiva [F (1,43) = 9.32; p <0,005; e F (1,43) = 79.60; p <0,001]. L'effetto sincronia replica l'illusione virtuale standard a mano.

figura 2
Figura 2: Proprietà e un'agenzia di rating come una funzione di sincronismo, l'aspetto della effettore virtuale, e l'attività della parteicipant. Clicca qui per vedere una versione più grande di questa figura.

Figura 3
Figura 3: proprietà e delle agenzie di rating in funzione di sincronia e l'attività del partecipante. Si noti che l'effetto sincronia è più pronunciato per i partecipanti attivi. Clicca qui per vedere una versione più grande di questa figura.

Ancora più interessante, sia per la proprietà e agenzia hanno mostrato una significativa interazione tra l'attività e la sincronia [F (1,43) = 13.68; p = 0,001; e F (1,43) = 23.36; p <0,001; vedi figura 3], ma non tra apparenza e la sincronia. Questo modellosuggerisce che l'attività ha un ruolo più dominante per il possesso e l'illusione che aspetto ha, è anche mostrato che la percezione illusoria di proprietà è più forte in virtuale che tradizionale mano di gomma illusione paradigma. Secondo Hommel 22, agenzia obiettiva (cioè, il grado in cui un evento esterno può oggettivamente essere controllato) contribuisce sia alla titolarità soggettiva e soggettività, il che spiega il motivo per cui in questo esperimento, attivo, controllo sincrono sul effettrici virtuale aumentato sia di proprietà soggettivo e soggettività.

Mentre aspetto non è riuscito a interagire con la sincronia, suggerendo che l'illusione di proprietà non si basa su aspetto, essa ha prodotto un effetto principale. Ciò indica che aspetto ha un impatto sulla proprietà percepita. Ha senso pensare che le persone hanno aspettative generali su ciò che potrebbe o non potrebbe essere oggetti esterni a plparte ausible del loro corpo, che supporta percezione proprietà in generale, ma non moderare l'effetto della sincronia. Abbiamo quindi concludere che più fonti di informazioni contribuiscono al senso di appartenenza soggettivo: le aspettative generali top-down e informazioni sincronia basso verso l'alto. La relazione tra queste due fonti informative non sembra essere interattivo ma compensatoria, in modo che le aspettative generali possono dominare in assenza di sincronismo, e viceversa.

Virtual-face illusione

In un altro studio, abbiamo studiato come le persone rappresentano il loro volto. Siamo stati in grado di replicare la tradizionale illusione enfacement in un ambiente virtuale, che ci riferiamo come il virtuale faccia illusione 12. Abbiamo inoltre studiato se le persone adottano lo stato d'animo espresso da un volto virtuale si identificano con. C'era uno all'interno partecipantefattore-sincronia (sincrono rispetto asincrono) e uno tra-partecipante espressione factor-facciale (felice vs neutro). I rating IOS prima della fase di induzione sono stati sottratti dai rating IOS dopo la fase di induzione, anche l'effetto feedback griglia prima la fase di induzione sono stati sottratti dal l'effetto feedback griglia dopo la fase di induzione, e questi cambiamenti di rating sono stati utilizzati come IOS e influenzano risultati della griglia.

L'analisi dei punteggi di proprietà (O1-4), i punteggi di agenzia (A1-2), e la scala IOS 18 modifiche tutti hanno mostrato effetti principali di sincronia [F (1,58) = 38.24; p <0,001; F (1,58) = 77.33; p <0,001; e F (1,58) = 43.63; p <0,001; rispettivamente], mostrando che la sincronia tra i propri movimenti della testa ei movimenti del volto virtuale aumentato percepito proprietà e agenzia, e ha facilitato l'integrazione del volto dell'altro nel proprio sé (vedi Fifigura 4). Synchrony anche migliorato umore, come indicato da un effetto sincronia sulla griglia incidere 19 modifiche [F (1,58) = 7.99; p <0,01].

Figura 4
Figura 4: proprietà e delle agenzie di rating, così come i cambiamenti IOS, in funzione di sincronia. Si noti che IOS positivi cambiamenti implicano un aumento di integrazione dell'altro in se stessi. Clicca qui per vedere una versione più grande di questa figura.

Figura 5
Figura 5: influenza sulle modifiche griglia (valori positivi implicano positiva corso influenzano) e colonne flessibilità nella AUT, in funzione di sincronismo e l'espressione del volto virtuale. Si noti che le interazioni tra sincronia e di espressione sono guidati da animo più positivi corso e particolarmente buone prestazioni di flessibilità per la combinazione di sincronia e faccia virtuali felice. Clicca qui per vedere una versione più grande di questa figura.

C'erano significativi effetti principali della espressione facciale su cambiamenti IOS, influire cambia griglia e flessibilità nella AUT 20, 21, 23, ma più importante è il fatto che l'influenza sulle modifiche alla rete e la flessibilità punteggio interagito con sincronia [F (1, 58) = 4.40; p <0.05; e F (1,58) = 4.98; p <0.05; rispettivamente]. Come mostrato in figura 5, i partecipanti hanno riferito un miglioramento dell'umore e mostravano comportamenti più creatività dopo enfacing (cioè, sincronoly muovendosi con) una faccia felice rispetto alle condizioni in cui spostati in modo asincrono con una faccia felice o sincrono con una faccia neutra.

F / P / PSE EFF ATTO SYN EFF * ACT EFF * SYN ACT * SYN EFF * ACT * SYN
O1 11.66 10.11 45.38 10.08
0.001 0.003 <0.001 0.003
0,21 0,19 0.51 0,19
O2 5.37 47.65
0.025 <0.001
0,11 0.53
O3 10,75 41.30 9.81
0.002 <0.001 0.003
0.20 0.49 0,19
O4 12.86 17.17 15.12 10.60
0.001 <0.001 <0.001 0.002
0.23 0,29 0.26 0.20
O1-4 14.85 9.32 48.35 13.68
0; 0.001 0.004 <0.001 0.001
0.26 0,18 0.53 0,24
A1 6.94 79.60 54.64 23.36
0,012 <0.001 <0.001 <0.001
0.14 0.65 0.56 0.37

Tabella 1: F, P e Eta parziale al quadrato valori (PES) per gli effetti i feedback voce questionario, con DF = 43. I fattori sono EFF: effettrici virtuale (mano virtuale vs rettangolo); ACT: l'attività (esplorazione attiva contro la stimolazione passiva); e SYN: la sincronia (sincrono rispetto asincrono). Solo risultati per effetti significativi sono mostrati.

M / SE HP-SY HP-AS HA-SY HA-AS RP-SY RP-AS RA-SY RA-AS
O1-4 4.37 3.44 5.09 3.50 3.79 3.14 4.68 3.05
0.20 0.23 0,19 0.25 0.23 0.23 0.20 0,21
A1 3.59 3.11 6.36 4.36 3.07 2.57 6.09 3.80
0.30 0,32 0.15 0,33 0,28 0,27 0,24 0,33

Tabella 2: Means (M) e gli errori standard (SE) per il possesso e delle agenzie di valutazione di tutte le condizioni di otto. H: mano; R: rettangolo; A: attiva; P: passivo; SY: sincrono; AS: asincrono.

F / P / PSE Espressione facciale Sincronia Espressione facciale * Synchrony
La proprietà (O1-4) 38.24
<0.001
0.40
Agenzia (A1-2) 77.33
<0.001
0.57
IOS modifiche 4.03 43.63
0,049 0.001
0,07 0.43
Influenzare griglia Valence modifiche 6.06 7.99 4.40
0,017 0,007 0,041
0.10 0,13 0,07
AUT-Flessibilità 5.42 4.98
0.024 0.03
0.09 0,08
AUT-Fluency 7.89
0,007
0,12

Tabella 3: F, P e Eta parziale al quadrato valori (PES) per importanti misure dipendenti, con df = 58 per questionario e risultati IOS, e df = 56 per la dimensione valenza del moo influenzare grigliad e AUT risultati. Solo risultati per effetti significativi sono mostrati.

M / SE Neutral-SY Neutral-AS Happy-SY Happy-AS
La proprietà (O1-4) 2.88 2.03 3.38 2.36
0,27 0.16 0.23 0.22
Agenzia (A1-2) 5.90 4.25 6.16 4.08
0.20 0.25 0,13 0,32
IOS modifiche 0.37 -0.80 1.00 -0.40
0,21 0.25 0.20 0,24
Influenzare griglia Valence modifiche -1.07 -1.33 0.60 -1.20
0.42 0,33 0.39 0.31
AUT-Flessibilità 5.87 6.07 7.43 6.10
0.31 0.37 0,29 0.39
AUT-Fluency 7.27 8.27 9.73 7.37
0.51 0.68 0.68 0.49

Tabella 4: mezzi (M) e gli errori standard (SE) per le misure dipendenti rilevanti nei quattro condizioni. Neutro: espressione facciale neutra; Felice: espressione facciale felice; SY: sincrono; AS: asincrono.

Discussion

In questo articolo abbiamo descritto due protocolli dettagliati per virtuali a mano e virtuale faccia illusione i paradigmi, in cui il nostro studio virtuale faccia fu il primo a replicare la tradizionale carezze indotta faccia proprietà illusione nella realtà virtuale, insieme ai risultati rappresentativi di i due paradigmi.

Gli effetti significativi sincronia indicano che siamo riusciti a indurre la proprietà illusoria per la mano virtuale e il volto virtuale, simile a altri paradigmi illusione tradizionali. Essendo in grado di riprodurre questi effetti mediante tecniche di realtà virtuale presenta notevoli vantaggi 11, 24. tecniche di realtà virtuale stanno liberando lo sperimentatore dalla procedura di carezze piuttosto artificiale e interruptive e apre nuove possibilità di manipolazioni sperimentali. Ad esempio, effettori virtuali morphing ci hanno permesso di manipolare in modo sistematico l'impatto della appearance della mano virtuale e la somiglianza tra il virtuale e reale la mano del partecipante, o l'espressione del viso del volto virtuale. L'impatto di agenzia può anche essere esplorato sistematicamente variando il grado (ad esempio, immediatezza) per cui i partecipanti possono controllare i movimenti del effettore artificiale.

Un'altra strada promettente per la futura ricerca di realtà virtuale sono in prima persona prospettiva (1PP) esperienze di realtà virtuale. Esperienze 1PP possono creare un immenso senso di immersione e la sensazione di presenza, su una scala completamente diversa da una persona prospettiva terzo virtual reality 25, 26, 27, 28. In 1PP esperienze si può veramente sentire come una è l'avatar, che si è letteralmente recante il avatar. Questo apre nuove possibilità per tutti i tipi di manipolazioni come parti distacco di un il corpo di una persona 28, allungamento 29, ridimensionamento parti del corpo 30, o cambiando il colore della pelle di una persona 31, 32.

Mentre le attuali e molti altri risultati dimostrano, che controlla gli eventi virtuali in maniera sincrona aumenta fortemente la percezione di questi eventi appartenenti al proprio corpo. Ad esempio, i nostri risultati dello studio mano suggeriscono che il controllo immediato è uno spunto importante per distinguere tra auto-prodotto e di altri prodotti in eventi (ad esempio, agenzie di personale) e tra auto-correlate e altri legati eventi (ad esempio, la proprietà del corpo) . I risultati presentati qui e altrove, suggeriscono che le informazioni bottom-up gioca un ruolo decisivo nella nascita di fenomenale auto-rappresentazione, anche per le parti del corpo che non sono le identità legate come la propria parte del corpo 4.

jove_content "> La parte più critica dei protocolli descritti è il processo di induzione, che introduce correlazioni tra visive, tattili e motore (per esempio, propriocettiva) di informazione-queste correlazioni consente al sistema cognitivo per ricavare proprietà e agenzia. Poiché queste correlazioni si basano sul temporizzazione relativa dei rispettivi eventi, come il ritardo tra propri movimenti del partecipante ei movimenti del effettore artificiale, è fondamentale per mantenere ritardi di elaborazione (soprattutto per quanto riguarda la definizione di dati dal DataGlove al moto del effettore virtual sullo schermo) al minimo. Con la nostra messa a punto dell'esperimento il ritardo di tempo massimo è di circa 40 ms, che è appena percettibile e non ostacolano la percezione della causalità e agenzia. Shimada, Fukuda, e Hiraki 33 hanno suggerito che la finestra temporale critica per il verificarsi di processi di integrazione multisensoriali che costituiscono la rappresentazione auto-corpo è di 300 ms,il che significa che i ritardi più lunghi sono suscettibili di ridurre la percezione del controllo sugli eventi virtuali.

Un altro aspetto importante del protocollo è il controllo sperimentale stretto sopra i movimenti delle mani o il viso del partecipante, a seconda del paradigma. Durante l'induzione, movimenti attivi del rispettivo fattore sono essenziali, come le correlazioni intersensoriale richiesti basano su movimenti esplorativi attivi sul lato del partecipante. E 'quindi importante per incoraggiare i partecipanti a muoversi frequentemente e di impegnarsi in esplorazione attiva. In altre fasi dell'esperimento, movimenti possono compromettere la misurazione comunque. Ad esempio, l'illusione paradigma virtual mano, muovendo la mano sinistra (da cui è stato registrato SCR) è atta a rendere misurazioni del livello SCR rumoroso e inaffidabile.

Una limitazione della tecnica paradigma illusione virtuale mano è che, per ragioni pratiche, i partecipanti comunemente indossare un dataglove e orientamento tracker durante l'intero esperimento (in modo da minimizzare distrazione). Questo non può essere comodo, che a loro volta possono influenzare l'umore e la motivazione del partecipante. Una possibile soluzione a tale problema sarebbe l'uso di attrezzature più chiara o indossabili misura. Un altro limite della nostra tecnica attuale illusione paradigma virtuale-faccia è che l'apparecchiatura registra solo i movimenti della testa, ma non cambiamenti nell'espressione del viso. Permettendo ai partecipanti di controllare le espressioni facciali di un volto virtuale è in grado di contribuire alle illusioni di proprietà, ma ciò richiederebbe hardware e software che fornisce rilevamento affidabile e la categorizzazione di espressioni facciali negli esseri umani-che ancora non abbiamo a disposizione nel nostro laboratorio. L'uso di, per esempio in tempo reale (facciali) utilità di motion capture sarebbe di grande beneficio per superare queste limitazioni e ci permetterebbe di aumentare il senso di agenzia e la proprietà di avatar a livelli significativamente più elevati.

Come suggerito dalI risultati di questo studio 8, persone considerano varie fonti di informazione e aggiornare la loro rappresentazione del corpo continuamente. Essi sembrano utilizzare informazioni bottom-up e informazioni top-down in un modo di compensazione, nel senso che una fonte di informazioni gioca un ruolo più forte in assenza dell'altro, simile a quello che è stato assunto per il senso di azione 34. Questo fornisce viali interessanti per la ricerca futura, come ad esempio suggerisce che la proprietà può essere percepita anche per effettori artificiali in posizioni scomode, ha fornito un sufficiente grado di somiglianza superficiale, o viceversa (cioè, se l'effettore artificiale allinea perfettamente con il reale effettore ma si differenzia da esso in termini di caratteristiche di superficie). I risultati disponibili indicano anche che i confini tra sé e gli altri sono piuttosto plastica, in modo che si tratti di un'altra persona o l'agente può essere percepito come una caratteristica di se stessi, a condizione che un certo grado di synchrony tra comportamento di uno e quello dell'altro 35, 36.

Materials

Name Company Catalog Number Comments
Vizard (Software controlling the virtual reality environment) Worldviz Vizard allows importing hand models and integrating the hand, dataglove and orientation tracker modules through self-written command scripts. These scripts can be run to control the presentation of the virtual hand in the virtual environment, the appearance of the hand and the way it moves; they also control vibrator activities.
Cybertouch (Dataglove) CyberGlove Systems Cybertouch Participants wear this dataglove to control the movements of the virtual hand in the virtual environment. Measurement frequency = 100 Hz; Vibrator vibrational frequency = 0-125 Hz.
Intersense (Orientation tracker) Thales InertiaCube3 Participants wear the Intersense tracker to permit monitoring the orientation of their real hand (data that the used dataglove does not provide). Update rate = 180 Hz.
Biopac system (Physiological measurement device) Biopac MP100 The hardware to record skin conductance response.
Acquisition unit (Physiological measurement device) Biopac BN-PPGED The hardware to record skin conductance response.
Remote transmitter (Physiological measurement device) Biopac BN-PPGED-T Participants wear the remote transmitter on their left hand wrist; it sends signals to the Biopac acqusition unit.
Electrode (Physiological measurement device) Biopac EL507 Participants wear  the electrode on their fingers; it picks up skin conductance signals.
AcqKnowledge (Software controlling acquisition of physiological data) Biopac ACK100W, ACK100M The software to record skin conductance responses.
Box Custom-made Participants put their right hand into the box
Computer Any standard PC + Screen (could be replaced by VR glasses/devive) Necessary to present the virtual reality environment, including the virtual hand.
Cape Custom-made Participants wear this cape on their right shoulder so they cannot see their right hand and arm.
Kinect (Head position tracker) Microsoft Kinect tracks the X-Y position of the participant's head. Recording frame rate = 30 Hz.
FAAST (Head position tracker software) MXR FAAST 1.0 Software controls Kinect and is used to track the position of the participant's head.
Intersense (Head orientation tracker) Thales InertiaCube3 Intersense tracks rotational orientation changes of the participant's head. Update rate = 180 Hz.
Facegen (Face-model generator software) Singular Inversions FaceGen Modeller  Facegen allows creating various virtual faces by varying various parameters, such as male/female-ness or skin color.
Cap Any cap, e.g., baseball cap The cap carries the Intersense orientation tracker.
Computer Any standard PC + Screen Necessary to present the virtual reality environment, including the virtual head.

DOWNLOAD MATERIALS LIST

References

  1. Tsakiris, M., Schütz-Bosbach, S., Gallagher, S. On agency and body-ownership: Phenomenological and neurocognitive reflections. Conscious. Cogn. 16, (3), 645-660 (2007).
  2. Botvinick, M., Cohen, J. Rubber hands 'feel' touch that eyes see. Nature. 391, (6669), 756-756 (1998).
  3. Armel, K. C., Ramachandran, V. S. Projecting sensations to external objects: Evidence from skin conductance response. Proc. R. Soc. B. 270, (1523), 1499-1506 (2003).
  4. Tsakiris, M. My body in the brain: A neurocognitive model of body-ownership. Neuropsychologia. 48, (3), 703-712 (2010).
  5. Kalckert, A., Ehrsson, H. H. Moving a rubber hand that feels like your own: Dissociation of ownership and agency. Front. Hum. Neurosci. 6, (40), (2012).
  6. Kalckert, A., Ehrsson, H. H. The spatial distance rule in the moving and classical rubber hand illusions. Conscious. Cogn. 30C, 118-132 (2014).
  7. Ma, K., Hommel, B. Body-ownership for actively operated non-corporeal objects. Conscious. Cogn. 36, 75-86 (2015).
  8. Ma, K., Hommel, B. The role of agency for perceived ownership in the virtual hand illusion. Conscious. Cogn. 36, 277-288 (2015).
  9. Slater, M., Perez-Marcos, D., Ehrsson, H. H., Sanchez-Vives, M. V. Towards a digital body: The virtual arm illusion. Front. Hum. Neurosci. 2, (6), (2008).
  10. Sanchez-Vives, M. V., Spanlang, B., Frisoli, A., Bergamasco, M., Slater, M. Virtual hand illusion induced by visuomotor correlations. PLOS ONE. 5, (4), e10381 (2010).
  11. Spanlang, B., et al. How to build an embodiment lab: Achieving body representation illusions in virtual reality. Front. Robot. AI. 1, 1-22 (2014).
  12. Tsakiris, M. Looking for myself: Current multisensory input alters self-face recognition. PLOS ONE. 3, (12), e4040 (2008).
  13. Sforza, A., Bufalari, I., Haggard, P., Aglioti, S. M. My face in yours: Visuo-tactile facial stimulation influences sense of identity. Soc. Neurosci. 5, 148-162 (2010).
  14. Bufalari, I., Porciello, G., Sperduti, M., Minio-Paluello, I. Self-identification with another person's face: the time relevant role of multimodal brain areas in the enfacement illusion. J. Neurophysiol. 113, (7), 1959-1962 (2015).
  15. Ma, K., Sellaro, R., Lippelt, D. P., Hommel, B. Mood migration: How enfacing a smile makes you happier. Cognition. 151, 52-62 (2016).
  16. Ma, K., Hommel, B. The virtual-hand illusion: Effects of impact and threat on perceived ownership and affective resonance. Front. Psychol. 4, (604), (2013).
  17. Suma, E. A., et al. Adapting user interfaces for gestural interaction with the flexible action and articulated skeleton toolkit. Comput. Graph. 37, (3), 193-201 (2013).
  18. Aron, A., Aron, E. N., Smollan, D. Inclusion of Other in the Self Scale and the structure of interpersonal closeness. J. Pers. Soc. Psychol. 63, (4), 596 (1992).
  19. Russell, J. A., Weiss, A., Mendelsohn, G. A. Affect grid: a single-item scale of pleasure and arousal. J. Pers. Soc. Psychol. 57, (3), 493-502 (1989).
  20. Guilford, J. P. The nature of human intelligence. McGraw- Hill. New York, NY. (1967).
  21. Ashby, F. G., Isen, A. M., Turken, A. U. A neuropsychological theory of positive affect and its influence on cognition. Psychol. Rev. 106, (3), 529-550 (1999).
  22. Hommel, B. 34;Action control and the sense of agency". The sense of agency. Haggard, P., Eitam, B. Oxford University Press. New York. 307-326 (2015).
  23. Akbari Chermahini, S., Hommel, B. The (b)link between creativity and dopamine: Spontaneous eye blink rates predict and dissociate divergent and convergent thinking. Cognition. 115, (3), 458-465 (2010).
  24. Sanchez-Vives, M. V., Slater, M. From presence to consciousness through virtual reality. Nat. Rev. Neurosci. 6, (4), 332-339 (2005).
  25. Slater, M., Spanlang, B., Sanchez-Vives, M. V., Blanke, O. First person experience of body transfer in virtual reality. PLOS ONE. 5, (5), (2010).
  26. Maselli, A., Slater, M. The building blocks of the full body ownership illusion. Front. Hum. Neurosci. 7, (83), (2013).
  27. Pavone, E. F., et al. Embodying others in immersive virtual reality: Electro cortical signatures of monitoring the errors in the actions of an avatar seen from a first-person perspective. J. Neurosci. 26, (2), 268-276 (2016).
  28. Tieri, G., Tidoni, E., Pavone, E. F., Aglioti, S. M. Body visual discontinuity affects feeling of ownership and skin conductance responses. Sci. Rep. 5, (17139), (2015).
  29. Kilteni, K., Normand, J., Sanchez-Vives, M. V., Slater, M. Extending body space in immersive virtual reality: A long arm illusion. PLOS ONE. 7, (7), (2012).
  30. Banakou, D., Groten, R., Slater, M. Illusory ownership of a virtual child body causes overestimation of object sizes and implicit attitude changes. Proc. Natl. Acad. Sci. U.S.A. 110, (31), 12846-12851 (2013).
  31. Martini, M., Perez-Marcos, D., Sanchez-Vives, M. V. What color is my arm? Changes in skin color of an embodied virtual arm modulates pain threshold. Front. Hum. Neurosci. 7, (438), (2013).
  32. Peck, T. C., Seinfeld, S., Aglioti, S. M., Slater, M. Putting yourself in the skin of a black avatar reduces implicit racial bias. Consc. Cogn. 22, (3), 779-787 (2013).
  33. Shimada, S., Fukuda, K., Hiraki, K. Rubber hand illusion under delayed visual feedback. PLOS ONE. 4, (7), (2009).
  34. Synofzik, M., Vosgerau, G., Newen, A. Beyond the comparator model: A multifactorial two-step account of agency. Conscious. Cogn. 17, (1), 219-239 (2008).
  35. Hommel, B., Müsseler, J., Aschersleben, G., Prinz, W. The theory of event coding (TEC): A framework for perception and action planning. Behav. Brain. Sci. 24, (5), 849-878 (2001).
  36. Hommel, B. Action control according to TEC (theory of event coding). Psychol. Res. 73, (4), 512-526 (2009).
Creazione virtuale a mano e Virtual-face Illusions per Indagare Autorappresentazione
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Ma, K., Lippelt, D. P., Hommel, B. Creating Virtual-hand and Virtual-face Illusions to Investigate Self-representation. J. Vis. Exp. (121), e54784, doi:10.3791/54784 (2017).More

Ma, K., Lippelt, D. P., Hommel, B. Creating Virtual-hand and Virtual-face Illusions to Investigate Self-representation. J. Vis. Exp. (121), e54784, doi:10.3791/54784 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
simple hit counter