Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Criando Virtual mão e Virtual-face Illusions para investigar auto-representação

Published: March 1, 2017 doi: 10.3791/54784

Summary

Aqui, descrevemos virtual mão e paradigmas ilusão virtual-face que podem ser usadas para estudar relacionados com o organismo de auto-percepção / -Representação. Eles já têm sido utilizados em vários estudos para demonstrar que, sob condições específicas, uma mão virtual ou cara pode ser incorporada uma representação do corpo, o que sugere que as representações do corpo são bastante flexível.

Abstract

Estudos investigando como as pessoas representam a si mesmos e seu próprio corpo costumam usar variantes de "ilusões de propriedade", tais como a ilusão de borracha à mão tradicional ou a ilusão enfacement mais recentemente descoberto. No entanto, estes exemplos requerem montagens experimentais em vez artificiais, em que o efector artificial precisa ser acariciada em sincronia com mão real dos participantes ou face-a situação na qual os participantes não têm nenhum controle sobre o afago ou os movimentos de sua efetoras real ou artificial . Aqui, descrevemos uma técnica para estabelecer ilusões de propriedade em uma configuração que é mais realista, mais intuitiva, e de, presumivelmente, maior validade ecológica. Ele permite criar a ilusão de mão virtual por ter participantes controlar os movimentos de uma mão virtual apresentado em uma tela ou no espaço virtual na frente deles. Se a mão virtual se move em sincronia com a própria mão real dos participantes, eles tendem a perceber tele mão virtual como parte de seu próprio corpo. A técnica também cria a ilusão virtual-face por ter participantes controlar os movimentos de um rosto virtual na frente deles, mais uma vez com o efeito que eles tendem a perceber a face como a sua própria, se ele se move em sincronia com a sua verdadeira face. Estudar as circunstâncias que as ilusões desse tipo pode ser criado, majorado ou reduzido fornece informações importantes sobre como as pessoas criam e mantêm representações de si mesmos.

Introduction

De acordo com a filosofia ocidental, o ser humano é composto por dois aspectos 1: Por um lado, percebemos nosso próprio corpo e nossas atividades no aqui e agora, o que cria uma auto-representação fenomenal (muitas vezes chamado de auto mínima). Por outro lado, podemos criar representações mais duradouras de nós mesmos, armazenando informações sobre a nossa história pessoal, integrando novas informações para o auto-conceito emergente, e apresentar-nos para o nosso ambiente social em conformidade, o que equivale à criação de um assim chamado auto narrativa. A auto mínima ou fenomenal tem sido argumentado a surgir a partir de duas fontes de informação. Um deles é a informação de cima para baixo sobre os aspectos mais duradouros do nosso corpo, tais como informações sobre os efetores nós próprios ou a forma do nosso rosto. A outra é a informação bottom-up fornecido pelo auto-percepção da situação atual.

As investigações sobre os últimos foram strongly inspirada por um estudo inteligente de Botvinick e Cohen 2. Estes autores apresentaram participantes humanos com uma mão de borracha deitado na frente deles, perto de uma das suas mãos reais, que no entanto estava escondido da vista. Quando a mão real ea mão de borracha foram acariciou em sincronia, então para criar a entrada síncrona intermodal, os participantes tenderam a perceber a mão de borracha como parte de seu corpo, a própria ilusão de borracha à mão. Estudos adicionais revelaram que a propriedade percebida foi tão longe que os participantes iria começar a suar e tentando retirar a sua mão real quando a mão de borracha estava sendo atacado por uma faca ou outra forma de ser "ferido" 3.

Enquanto Botvinick e Cohen interpretaram suas descobertas para demonstrar que surge a auto-percepção da transformação de informação de baixo para cima, outros autores argumentaram que os resultados ilusão de borracha mão da interação entre Synchr intermodalony de entrada, uma fonte de baixo para cima de informações e representações armazenadas de as próprias mãos, uma fonte top-down de informações 4. A ideia é que a sincronia estímulo cria a impressão de que o real e a mão de borracha são uma ea mesma coisa, e dado que a mão de borracha se parece com uma mão real, esta impressão é considerado realidade.

A última pesquisa Kalckert e Ehrsson 5 adicionou um componente visuo-motora para o paradigma da mão de borracha, que permite a investigação de ambos propriedade percebido (a impressão de que o efector artificial pertence ao próprio corpo) e agência percebido (a impressão de que um é produzindo movimentos observados si mesmo). Os participantes foram capazes de mover o dedo indicador da mão de borracha para cima e para baixo, movendo o seu próprio dedo indicador, ea sincronia entre os movimentos dos dedos reais e mão de borracha, o modo de movimento (passivo vs. modo ativo), eo positioning da mão de borracha (incongruente vs. congruente no que diz respeito à mão do participante) foram manipulados. As descobertas foram levados para fornecer suporte para a noção de que agência e propriedade são fenômenos cognitivos funcionalmente distintas: enquanto sincronia do movimento aboliu tanto o senso de propriedade e agência, o modo de circulação só afetou agência, e da coerência da posição da mão de borracha teve um efeito sobre propriedade única. Os dois últimos resultados foram replicados em um estudo de acompanhamento em que a distância entre a mão real e borracha no plano vertical variou 6: a propriedade para a mão de borracha diminuiu à medida que a sua posição cada vez mais incompatíveis mão real do participante. No entanto, a agência não foi afetada pelo extravios da mão de borracha em qualquer condição.

No entanto, pesquisas recentes utilizando técnicas de realidade virtual, que fornecem o participante com controlo activo sobre o efetoras artificial, sugere que o papel do top-downparte e a distinção entre propriedade e agência pode ter sido superestimado 7, 8. Estas técnicas têm substituído a mão de borracha por uma mão virtual apresentado aos participantes em uma tela na frente deles ou por meio de de realidade virtual óculos 9. Os participantes geralmente usam um dataglove que traduz os movimentos da mão real do participante para os movimentos da mão virtual, de forma síncrona ou assíncrona (por exemplo, com um atraso considerável). Similar à ilusão de borracha à mão, tradução sincrónica aumenta fortemente a impressão do participante que a mão virtual torna-se parte de seu próprio corpo 10.

Empregando técnicas de realidade virtual para criar a ilusão de borracha mão tem várias vantagens sobre ambos o paradigma de borracha à mão tradicional ea combinação do paradigma de borracha à mão com o componen visuo-motorats 11. Movendo a mão e ver um efetor movendo-se em sincronia com ele cria uma situação muito mais natural do que enfrentar uma mão de borracha e ser acariciada por um experimentador. Além disso, a manipulação virtual oferece o experimentador com muito mais experimental flexibilidade e muito mais controle sobre a relação entre a percepção perceptual e movendo a mão real e a percepção do evento criado pelo efetoras artificial. Em particular, utilizando técnicas virtuais facilita a manipulação de factores que possam influenciar a propriedade percebida e agência. Por exemplo, a forma da mão virtual pode ser modificada muito mais fácil e mais rápida do que a forma de uma mão de borracha, e os movimentos da mão virtual pode ser de qualquer tipo e, por exemplo envolvem movimentos biologicamente impossíveis. Entre outras coisas, isso facilita a explorar os limites da ilusão, como efetor artificial não é preciso procurar como uma mão, mas pode ser subsed por qualquer tipo de evento estático ou dinâmico. Tanto interesse prático e teórico, a efetora virtual é sem dúvida muito mais envolvente e se sente muito mais real do que uma mão de borracha, que é susceptível de reduzir a necessidade de invocar interpretações de cima para baixo para fazer sentido da situação presente.

ilusões propriedade são, no entanto, não foi restringida às mãos. Tsakiris 12 foi o primeiro a usar a técnica de afago para criar a impressão de participantes que um rosto estático em uma imagem apresentada na frente deles é a sua própria. Sforza et ai. 13 também encontraram evidências para este fenômeno, ao qual se referem como enfacement: participantes incorporadas características faciais de um parceiro quando seu próprio e o rosto de seu parceiro foram tocados em sincronia. O mecanismo neural subjacente a ilusão enfacement foi recentemente investigada por diversos pesquisadores; Para um comentário abrangente e interpretation das conclusões ver Bufalari et al. 14. Temos recentemente virou o desenho regular de enfacement ilusão em uma versão de realidade virtual (a ilusão virtual-face), em que os participantes estão a controlar os movimentos de um rosto virtual na frente deles, movendo a sua cabeça 15.

Aqui, descrevemos dois experimentos que utilizaram a ilusão 7 eo cara virtual de mão virtual ilusão 15 paradigmas, respectivamente, para investigar a auto-representação. O experimento mão virtual incluiu três, fatores experimentais completamente cruzados: (a) a sincronia entre (feltro)-mão real e movimentos (vi) virtual efetoras, que era ou próximo de zero para induzir a propriedade e agência ou três segundos como um condição de controle; (B) a aparência do efector virtual, que parecia quer como uma mão humana ou como um rectângulo (de modo a testar o efeito da verdadeira FEP-Virtualsimilaridade ector na ilusão de propriedade); e (c) a oportunidade de controlar o comportamento do efector virtual, que era ou não existente numa condição passiva ou directa numa condição activa. A experiência virtual-face incluiu dois, fatores experimentais completamente cruzados: (a) a sincronia entre a-face real e virtual-face movimentos, que era ou próximo de zero para induzir a propriedade e agência ou três segundos como uma condição de controle; e (b) a expressão facial da face virtual, que era neutro ou mostrando um sorriso, para testar se o humor positivo seria levantar o humor do participante e melhorar o seu desempenho em uma tarefa de criatividade sensível ao humor.

Protocol

Todos os estudos conformado com as normas éticas da declaração de Helsínquia e os protocolos foram aprovados pelo comitê de ética em pesquisa Humano Universidade de Leiden. Cada condição testada cerca de 20 participantes.

Ilusão 1. Virtual mão

  1. Configuração experimental
    1. Bem-vindo ao participante e recolher outros dados, como idade, sexo, etc.
    2. Estabelecer uma montagem experimental que inclui um ambiente de programação de realidade virtual; dataglove um destro com seis estimuladores de vibração programáveis ​​ligados ao meio da palma da mão e para o exterior das medial (segundo) falanges de cada um dos cinco dedos (ver a Lista de Materiais); A 3 graus de liberdade (DOF) rastreador orientação; SCR (pele resposta de condutância) equipamentos de medição; uma caixa preta (profundidade: 50 cm, altura: 24 cm, largura: 38 cm) com uma tela de computador que fica no topo horizontal (servindo para apresentar o enviro realidade virtualnment); e uma capa para cobrir a mão do participante.
    3. Peça ao participante para colocar o dataglove em sua mão direita e o rastreador de orientação sobre o pulso direito. Anexar um transmissor remoto SCR com uma alça para o pulso esquerdo. Coloque os eletrodos SCR nas medial (segundo) falanges dos dedos indicador e médio da mão esquerda (ver Figura 1A e B para uma ilustração da configuração).
    4. Assentar o participante na frente da mesa em que a caixa com a tela do computador em cima é colocado. Peça ao participante para colocar a sua mão direita para a caixa ao longo do eixo de profundidade, como para protegê-lo a partir de seu ponto de vista.
    5. Colocar uma capa sobre o ombro direito do participante e cobrir o espaço entre a tela eo participante. Peça ao participante para descansar a sua mão esquerda em uma parte vazia da mesa.
    6. Conecte os cabos de dataglove e orientação tracker para o computador e iniciar o environme programação de realidade virtualnt. Execute o script de comandos pré-escrita na janela de comando, clicando no botão "Run" na interface do ambiente de realidade virtual, de modo que o ambiente de realidade virtual começa. Monitorar que o participante segue as instruções exibidas na tela do computador na frente dos participantes. Aguarde até que o script de comandos pré-escrita é encerrado automaticamente.

figura 1
Figura 1: (A) Os participantes usavam um rastreador de orientação e uma dataglove em sua mão direita, e transmissor remoto SCR em sua mão esquerda. (B) Configuração do experimento ilusão mão virtual. (C) Configuração do experimento ilusão virtual face. (D) Uma captura de tela da tela do computador.Por favor clique aqui para ver uma versão maior desta figura.

  1. Design Mão Virtual
    NOTA: scripts de comando Use Python na janela de comando do software de realidade virtual e guardá-las. Certifique-se de que o script de comando principal, os comandos de importação, os scripts de módulo e outros comandos descritos a seguir são parte do mesmo arquivo de script. Para o script python completo e arquivos necessários consulte o arquivo anexado "Virtual Illusion.zip Hand" (NB: o arquivo zip é um materiais suplementares do manuscrito e não faz parte do pacote de software Além disso, exclui os plugins necessários para o. dataglove e orientação tracker, e quaisquer outros módulos python usados ​​em todo o script). Para executar o experimento primeiro descompactar o conteúdo deste arquivo em qualquer pasta (por exemplo, a área de trabalho) e, em seguida, clicar duas vezes no "mão virtual illusion_54784_R2_052716_KM.py" arquivo para iniciar o experimento. Note-se que o script éprojetado para trabalhar com o ambiente de programação de realidade virtual declarada e não vai funcionar com outros programas.
    1. Importar um modelo de mão virtual pré-fabricados e um módulo de script lado pré-escrito (que pode ser encontrado no arquivo de parcela do pacote de software de realidade do ambiente virtual) para o ambiente de realidade virtual. O módulo de script mão acompanha o gesto de articulação do dedo e os ângulos do dataglove e alimenta as informações para o modelo de mão virtual, que permite controlar os movimentos da mão virtual, movendo a mão real vestindo a dataglove.
      1. alterar manualmente o tamanho ea aparência da mão virtual, se necessário especificando os parâmetros no script, como o seu x, y, e z dimensionamento para alterar seu tamanho ou alterar a imagem mapeada.
      2. Para condições de sincronismo, usar nenhuma transformação, de modo que o lado virtual se move da mesma maneira que o lado real e a (sobre) ao mesmo tempo. Para criar assincronia, adicionar um atraso de 3 s, de modo que o Virtual mão se move como a mão real, mas com um atraso considerável.
    2. Identificar um adequado plug-in orientação rastreador pré-fabricados no arquivo parcela-de realidade virtual ambiente e importá-lo nos scripts de comando. Note que a execução dos scripts de comando faz com que o módulo rastreador orientação acompanhar as mudanças de orientação da mão real (fornecidos pela orientação participantes rastreador usar em seu pulso direito), que podem então ser usados ​​para controlar as alterações de orientação da mão virtual, definindo a guinada, dados de campo, and roll da mão virtual na janela de comando. Canalizar os dados monitorados pelo rastreador de orientação diretamente no modelo de mão virtual para condições de sincronia, mas inserir um atraso de 3 s para assincronia.
    3. Projetar os objetos virtuais adicionais necessários e as suas trajectórias de movimento, de modo que eles se movem de e para o lado virtual (aqui, design e importar modelos adicionais para uma vara, retângulo, bola, e uma faca, para ser usado durante vários parts da experiência; consulte "condições experimentais"). mudar manualmente o tamanho, a aparência e a posição de cada um destes objectos no script de comandos da mesma forma como os parâmetros para o lado virtual são ajustados. Defina as trajetórias de movimento necessários usando os comandos apropriados para definir a posição de início e fim das trajetórias de movimento para um objeto e a velocidade em que ele deve se mover.
    4. Determinar a força de vibração e sincronização de cada estimulador vibração no script de comando; quer sem um atraso para as condições de sincronismo (isto é, a vibração começa exatamente quando a mão virtual está sendo contatado pelo outro objeto virtual) ou com um atraso de 3 s para assincronia. Todos os vibradores vibrar ao mesmo tempo que o lado virtual é tocado por outro objecto virtual (ou no ponto de tempo de atraso). Definir a força de vibração para um nível médio (isto é, para 0,5 numa escala de 0-1). Note-se que o teor real da vibração depende do programmiambiente ng e vibradores usado para a experiência, e que um nível médio de vibração em nossa experiência não coincidem necessariamente com a força real da vibração ao hardware diferente (ou seja, vibradores / dataglove) ou software é usado.
    5. Adicionar uma segunda parte para o script da experiência que é idêntica para os passos anteriores, excepto para as seguintes alterações:
      1. Substituir o modelo de mão virtual com um retângulo virtual de um tamanho semelhante ao da mão virtual (de modo a perceber o fator aparência do experimento)
      2. Certifique-se de que a rotação da mão real como captado pelo rastreador de orientação é traduzida em movimentos de rotação do rectângulo.
      3. Certifique-se de que a abertura e fechamento da mão real como captado pelo dataglove é traduzido em mudanças de cor do retângulo usando o comando apropriado para alterar a cor de um objeto em seu ambiente de programação (por exemplo, apresentar o retângulo em verde quando o he está completamente fechada, em vermelho quando ele está completamente aberto, e deixe a cor gradualmente mudar de vermelho para verde ou verde para vermelho como a mão abre ou fecha).
  2. Condições experimentais
    1. Executar as oito condições experimentais (proveniente do cruzamento da sincronia três fatores experimentais, a aparência do effector virtual, e ativo / passivo) em uma ordem que seja equilibrada entre participantes ou randomizados.
    2. Para cada condição, incluem três fases de cerca de 2 a 3 min cada para induzir a ilusão mão virtual e uma fase ameaça para medir as respostas de pele electrofisiológicas (SCR). O protocolo concreta difere ligeiramente para os oito condições e é descrito abaixo.
    3. mão virtual / ativo / sincronia
      1. Configurar o sistema de modo que o atraso entre os seguintes eventos está perto de zero e não é perceptível: (a) os movimentos e mudanças de orientação da mão real ea correspondeming movimentos e alterações de orientação da mão virtual na fase de correlação viso-motora; (B) os pontos de tempo de contacto entre a mão virtual e do objecto virtual adicional sobre a tela e os pontos de tempo correspondentes de estimulação induzida por vibração da mão real na fase de viso-táctil; e (c) os movimentos e mudanças de orientação da mão real e os movimentos correspondentes e mudanças de orientação da mão virtual; e os pontos de tempo de contato entre a mão virtual eo objeto virtual adicional na tela e os correspondentes pontos de tempo de estimulação induzida por vibração da mão real na fase de visuo-motora tátil.
      2. Para a fase de correlação visuo-motora, com que os participantes se mover livremente ou girar a mão direita real, incluindo a abertura, fechamento e girar sua mão real, e movendo-se cada dedo individualmente. Peça aos participantes observar os movimentos correspondentes da mão virtual na tela do computador.
      3. Para o vfase de estimulação isuo-tátil, os participantes manter a sua mão real ainda, enquanto observa a tela. Apresente um outro objecto virtual na tela, tal como uma bola ou vara virtual (que foi criado no ponto 1.2.3) que se move de e para o lado virtual, produzindo a impressão de toque e não tocar no lado virtual.
        1. Acompanhar cada contato entre este objeto virtual adicional e a mão virtual atividade vibrador na dataglove. Ter o vibrador estimular a parte do lado real que corresponde à parte do lado virtual que está a ser tocado pelo objecto virtual adicional (por exemplo, se o objecto virtual parece tocar a palma da mão virtual, a palma da mão do participante de mão real deve ser estimulado pelo vibrador 16).
      4. Para a fase de correlação-visuo-motora tátil, têm os participantes mover a mão virtual, movendo sua mão real, a fim de tocar em um st vibrando virtualobjeto Ick ou similares (veja 1.2.3). Assegurar que cada contato entre a mão virtual e vara virtual / objeto é acompanhado por estimulação da mão real do participante induzida por vibração como descrito em 1.3.3.3.
      5. Para a fase de ameaça, os participantes manter a sua mão direita real ainda enquanto vê uma faca virtual ou agulha aparecem na tela do computador. Faça a faca virtual ou agulha de ir para e da mão virtual. Assegurar que cada contato resulta em um "corte" visível aparente ou "perfurar" da mão virtual.
        1. Estimular a parte do lado real que corresponde ao corte ou parte perfurada do lado virtual usando os vibradores do dataglove como descrito em 1.3.3.3.
    4. mão virtual / ativo / assincronia
      1. Executar o procedimento descrito em 1.3.3 depois de configurar o sistema de modo a que o retardo entre os acontecimentos críticos é três segundos, em vez de fechar a zero.
      2. retângulo virtual / ativo / sincronia
        1. Execute o procedimento descrito em 1.3.3, mas com o retângulo virtual em vez da mão virtual.
      3. retângulo virtual / ativo / assincronia
        1. Execute o procedimento descrito em 1.3.4, mas com o retângulo virtual em vez da mão virtual.
      4. mão Virtual / passive / sincronia
        1. Execute o procedimento descrito em 1.3.3, mas pedir o participante para manter a sua mão real ainda em todas as fases.
      5. mão Virtual / passive / assincronia
        1. Execute o procedimento descrito em 1.3.4, mas pedir o participante para manter a sua mão real ainda em todas as fases.
      6. retângulo Virtual / passive / sincronia
        1. Execute o procedimento descrito em 1.3.5, mas pedir o participante para manter a sua mão real ainda em todas as fases.
      7. retângulo Virtual / passive / assincronia
        1. Execute o procedimento descrito em 1.3.6, mas pedir o participante para manter a sua mão real ainda em todas as fases.
    5. Coleção de dados
      1. Recolha de dados SCR usando o equipamento de medição (veja Lista de Materiais) e seu software. A frequência de gravação é cada 0,1 ms.
      2. Peça ao participante para preencher o questionário que mede senso de propriedade, agência, local e aparência para o respectivo estado. Usar uma versão de papel, em que cada questão (tal como descrito em 1.4.2.1 e 1.4.2.2) é impresso, em conjunto com uma escala de Likert (tal como descrito em 1.4.2.3), e que pode ser preenchido com uma caneta; ou usar uma versão computadorizada, em que cada pergunta é mostrado no ecrã, em conjunto com a escala de Likert, e em que o valor da escala escolhida pode ser digitada.
        1. Incluir um questionário que minimamente inclui uma ou mais questões de propriedade 2; usar os quatro seguintes: <br /> (O1) "Eu me senti como se a mão na tela eram a minha mão direita, ou parte do meu corpo";
          (O2) "Parecia que o que eu estava sentindo a minha mão direita foi causada pelo toque da vara na mão na tela que eu estava vendo";
          (O3) "Eu tinha a sensação de que a vibração que eu senti na minha mão direita estava no mesmo local onde a mão na tela foi tocada pela vara";
          (O4) "Parecia a minha mão direita estava no local onde a mão na tela era".
        2. Considerar a inclusão de outras perguntas sobre questões da agência; use o seguinte:
          (A1) "Senti que pode controlar esta mão virtual" (para a condição ativa);
          (A1) "Parecia que eu poderia ter movido a mão na tela, se eu quisesse, como se fosse obedecer a minha vontade" (para a condição passiva); .
          Note-se que os itens listados em 1.4.2.1 e 1.4.2.2 se referir à condição mão. Para a condição de retângulo, substitua todas as referências à mão virtual por referências ao retângulo virtual.
        3. Use uma escala de Likert 2 para cada questão (por exemplo, 1-7), de modo que os participantes possam marcar o grau em que eles concordaram com a questão; por exemplo, use 1 para "discordo totalmente" e 7 para "concordo totalmente". Certifique-se de cada pergunta aparece na tela e podem ser respondidas com os números de 1 a 7 correspondente aos 7 opções de resposta da escala de Likert; aparecimento e opções de resposta são programados no script da experiência.

    Ilusão 2. Virtual-face

    1. Configuração experimental
      1. Bem-vindo ao participante e recolher outros dados, como idade, sexo, etc.
      2. Estabelecer uma montagem experimental que inclui um ambiente de programação de realidade virtual; um sistema de posição da cabeça de rastreamento, incluindo hardware e software correspondentef "> 17; e um rastreador de orientação 3-DOF ligado ao topo de uma tampa de chapéu ou baseball.
        NOTA: Usando esta configuração experimental, os participantes podem se mover livremente ou girar a sua cabeça para controlar a posição e orientação do rosto virtual, mas eles não podem controlar as expressões faciais do rosto virtual
      3. Peça ao participante para se sentar na cadeira 2 metros em frente da tela do computador. Veja a Figura 1C e 1D para um ilustrações da configuração experimental.
      4. Peça ao participante para colocar a tampa com o tracker de orientação em anexo.
      5. Ligue sistema de rastreamento de posição e orientação tracker para o computador e executar o script de comandos pré-escrita na janela de comando, clicando no botão "Run" na interface do ambiente de realidade virtual, de modo que o ambiente de realidade virtual começa. Monitorar que o participante segue as instruções exibidas na tela do computador na frente dos participantes. Esperaraté que o script de comandos pré-escrita é encerrado automaticamente.
    2. Design Cara Virtual
      NOTA: Para o script python completo e arquivos necessários ver a "Face Virtual Illusion.zip" arquivo anexado (NB: o arquivo zip é um materiais suplementares do manuscrito e não faz parte do pacote de software, que não inclui os plugins necessários usado para a posição e rastreamento de orientação e quaisquer outros módulos python usados ​​em todo o script). Para executar o experimento, primeiro descompactar o conteúdo deste arquivo em qualquer pasta (por exemplo, a área de trabalho) e, em seguida, clicar duas vezes no "virtual-face illusion_54784_R2_052716_KM.py" arquivo para iniciar o experimento. Note-se que o script é projetado para trabalhar com o ambiente de programação de realidade virtual apresentada aqui e não vai funcionar com outros programas.
      1. Use um programa de construção rosto virtual para desenhar rostos virtuais com as apropriadas idade, raça, e sexos (correspondente aos participantes a ser testado), seleccionando os melhores valores de montagem nas escalas correspondentes do programa
      2. Criar duas versões de cada face, um com uma expressão facial neutra e outra com um sorriso, escolhendo os valores correspondentes nas escalas correspondentes do programa (que varia expressões alterando tamanho do olho, a curvatura da boca e alguns outros músculos do rosto)
      3. Para testar estudantes universitários, criar quatro faces virtuais de 20 anos de idade, com o programa de construção rosto virtual, uma face masculina com uma expressão facial neutra, uma face masculina que está sorrindo, um rosto feminino com uma expressão facial neutra, e um rosto feminino que está sorrindo
      4. No programa de construção rosto virtual de exportar os rostos em arquivos 3D VRML-formatados.
      5. Usando os comandos apropriados do ambiente de programação de realidade virtual importar os ficheiros VRML criados, ou seja, as faces virtuais, para o ambiente de realidade virtual para uso durante a experiência. Vary seu tamanho ou escala, definindo os seus parâmetros de conformidade usando os comandos apropriados.
      6. Encontrar o módulo de rastreamento pré-escrito para o sistema de rastreamento de posição da cabeça no arquivo parcela do ambiente virtual e importá-lo, o que permite rastrear as posições da cabeça do participante. Nos scripts, alterar os dados das posições da cabeça e determinar o ponto de tempo quando posições da cabeça são traduzidos em posições virtuais-face (use um atraso 0 ms para condições de sincronia e a 3 s atraso para assincronia).
      7. Encontrar um plug-in pré-fabricados orientação rastreador no arquivo parcela do ambiente virtual e importá-lo nos scripts de comando. Note-se que, mais uma vez, o script permite introduzir atrasos temporais em relação ao ponto de tempo de quando as mudanças de orientação da cabeça do participante se traduzem em mudanças de orientação da cabeça virtual (usar um atraso de 0 ms para condições de sincronia e a 3 s atraso para assincronia ).
      8. Projeto ob virtual adicionaljectos (tal como uma vara virtual) e as suas trajectórias de movimento, de modo que eles se movem para e a partir da cara virtual. Definir o tamanho do objecto virtual a ser semelhante ao tamanho de um dedo virtual.
      9. Ligue hardware e implementar os scripts de comando salvos, e depois iniciar o experimento.
    3. Condições experimentais
      1. Execute os scripts de comando e rastrear a posição da cabeça do participante por meio do sistema de rastreamento de posição da cabeça e orientação a cabeça do participante por meio de um rastreador orientação 3-DOF ligado a uma tampa.
      2. Expor o participante para o rosto virtual para 30 s e instruir os participantes para não se mover. Uma vez que o rosto desapareceu, os participantes respondem à escala IOS (descrito em Coleta de Dados) para avaliar a forma como ele ou ela percebe a relação entre si próprio eo rosto virtual.
      3. Execute as quatro condições experimentais (descritos abaixo) em uma ordem que seja equilibrada entre participantes ou randomizados. Cada condição inclui três fases de cerca de 2 a 3 minutos cada para induzir a ilusão Virtual-face.
      4. Neutro / sincronia
        1. Configurar o sistema de tal modo que o retardo entre os seguintes eventos está perto de zero e não é perceptível: (a) os movimentos da cabeça reais e os movimentos correspondentes da cabeça virtual na fase de correlação viso-motora e (b) os pontos de tempo de contato entre mão real do participante e real folgar do participante e entre o objeto virtual ea cabeça virtual na fase de estimulação visuo-tátil.
        2. Para a fase de correlação visuo-motora, os participantes colocar a tampa com o tracker de orientação em anexo. Peça-lhes para manter em movimento ou girar a sua cabeça para controlar a posição e orientação do rosto virtual.
        3. Para a fase de estimulação visuo-tátil, tem participantes esticar seu braço direito para a direita e para trás várias vezes, para tocar sua bochecha direita, enquanto waTching tela. O toque é apenas momentânea: participantes tocar o rosto, deixar ir e esticar o braço direito para a direita, e repita para a duração desta fase estímulos visuo-tátil.
        4. Na tela, apresentar a face virtual que está sendo repetidamente tocada no mordente por um objecto virtual, tal como uma bola virtual. O toque é (ou melhor, o movimento da mão em geral) é sincronizado com o objeto virtual por meio do sistema de movimento que pode rastrear a localização do membro de um participante (por exemplo, a mão) no espaço 3D, o que nos permitiu mapear diretamente os movimentos das mãos do participante para a trajetória da do objeto virtual, resultando em um movimento sincronizado do movimento trajetória mão real do participante e trajetória do movimento do objeto virtual. Assim, quando o objecto virtual toca o avatar virtual, isto corresponde ao participante que toca sua própria face.
      5. Neutro / assincronia
        1. Executar o procedimento dedescritas no parágrafo 2.3.4, depois de ter configurado o sistema de tal forma que o atraso entre os eventos críticos é de 3 s em vez de perto de zero.
      6. Sorriso / sincronia
        1. Execute o procedimento descrito em 2.3.4 depois de ter configurado o sistema para apresentar o rosto sorridente em vez do rosto com uma expressão neutra.
      7. Sorriso / assincronia
        1. Executar o procedimento descrito em 2.3.6 depois de configurar o sistema de modo a que o retardo entre os acontecimentos críticos é de 3 s, em vez de fechar a zero.
    4. Coleção de dados
      1. Peça ao participante para preencher o questionário que mede senso de propriedade e agência para o respectivo estado.
        1. Incluir um questionário que minimamente inclui uma ou mais questões de propriedade; usar os quatro seguintes:
          (O1) "Eu me senti como o rosto na tela era meu próprio rosto";
          (O2) "Parecia que eu estavaolhar para o meu próprio reflexo em um espelho ";
          (O3) "Parecia que eu estava sentindo os movimentos e o toque no meu rosto no local onde o rosto na tela era";
          (O4) "Parecia que o toque que eu senti no meu rosto foi causado por a bola tocar o rosto na tela".
        2. Considerar a inclusão de perguntas da agência; usar os dois seguintes:
          (A1) "Parecia que os movimentos que eu vi no rosto na tela foi causado por meus próprios movimentos";
          (A2) "O rosto na tela mudou-se exatamente como eu queria que, como se ele estava obedecendo a minha vontade".
      2. Incluir a "inclusão de outros no Eu" (IOS) dimensionar 18, que é criado usando a-ponto 7 (1-7) Likert escala 2 em que cada nota é indicado para corresponder a um diferente grau de sobreposição auto-other . Indicar o grau de sobreposição graficamente através da sobreposição de dois círculos com um representing o "Self" e o outro círculo do "Outro". Caracterizar a pontuação mais baixa da escala de zero a sobreposição dos dois círculos e a melhor pontuação perfeita sobreposição. classificações mais elevadas representam, portanto, um maior grau de sobreposição auto-outro.
      3. Opcionalmente, incluem o efeito da grade 19 para avaliar o humor.
        1. Criar um 2-dimensional (valência pela excitação) grade de Likert-tipo, em que uma dimensão corresponde à valência (variando de -4 para sentir desagradável para 4 para sentir agradável) ea outra à excitação (que varia de -4 para sentir sonolento a 4 para o sentimento altamente excitada).
        2. Peça aos participantes escolher um ponto (por exemplo, com uma caneta), que corresponde a como agradável e como excitado que atualmente se sente.
          NOTA: Os questionários, IOS e afetar grade aparecem na tela após cada uma das fases experimentais está terminado. Os participantes utilizado o teclado para responder (idêntico ao da experiência ilusão mão virtual). </ Li>
      4. Opcionalmente, incluem Usa a Alternativa Task (AUT) 20.
        1. Peça aos participantes para listar tantos usos possíveis para um item doméstico comum, como um jornal. A tarefa é executada com caneta e papel. Peça aos participantes para escrever para baixo como muitos usos para o objeto como eles podem, em 5 min.
        2. Repita o procedimento para outro objeto (por exemplo, um tijolo). Marcar os resultados mais tarde de acordo com fluência (número de utilizações), flexibilidade (número de categorias de utilizações), elaboração (a quantidade de detalhes ou explicação que é fornecido para o uso), e originalidade (como original o uso é). Certifique-se de que as pontuações mais elevadas indicam desempenho pensamento divergente maior para todos os itens. Use dois marcadores diferentes e garantir que a correlação inter-artilheiro é alta. Concentre-se na pontuação flexibilidade para futuras análises, já que esta é a pontuação mais transparente mais consistente e, teoricamente, da tarefa.
        3. Use o AUT como uma implícita (e da procura characteristic-livre) medida indicando o humor, como o desempenho nesta tarefa aumenta com o melhor humor 21.
          NOTA: Se o AUT é mudar o script implementado de tal forma que a cara virtual permanece na tela, é visível e permanece sob o controlo do participante enquanto eles estão a fazer o AUT.

Representative Results

Ilusão Virtual mão

Corremos vários experimentos usando o paradigma ilusão mão virtual, para investigar como as pessoas representam seus corpos, neste caso suas mãos. O número de participantes testados dependeu da quantidade de condições, geralmente a cerca de 20 participantes para cada condição. Aqui nós fornecemos resultados relevantes para um dos estudos mais elaborados que realizamos em nosso laboratório. Vamos restringir nossa discussão com os dados subjetivos, a média das respostas de Likert escala para as quatro questões de propriedade (O1-O4) e a resposta Likert escala para a questão agência (A1).

Neste estudo 8, investigou sistematicamente os efeitos da sincronia (síncrono vs. assíncrono), a aparência do effector virtual (mão virtual vs. retângulo) e atividade (passivo vs. ativo) na particsentido 'ipants de propriedade e senso de agência (todas as condições foram testados no prazo de participantes). Os resultados foram os mesmos para a propriedade e agência. Como indicado na Figura 2, a propriedade percebida e agência foram mais fortes se a mão real e virtual se moviam em sincronia [F (1,43) = 48,35; P <0,001; e F (1,43) = 54,64; P <0,001; de propriedade e agência, respectivamente], se o efetoras virtual foi uma mão do que se fosse um retângulo [F (1,43) = 14,85; P <0,001; e F (1,43) = 6,94; p <0,02], e se o participante foi ativo, e não passivo [F (1,43) = 9,32; P <0,005; e F (1,43) = 79,60; p <0,001]. O efeito sincronia replica a ilusão de mão virtual padrão.

Figura 2
Figura 2: Propriedade e agência de classificação como uma função de sincronia, a aparência do effector virtual, e a atividade da parteicipant. Por favor clique aqui para ver uma versão maior desta figura.

Figura 3
Figura 3: Propriedade e agência de classificação como uma função de sincronia e da atividade do participante. Note-se que o efeito sincronia é mais pronunciada para os participantes ativos. Por favor clique aqui para ver uma versão maior desta figura.

Ainda mais interessante, tanto a propriedade e agência mostraram uma interacção significativa entre a atividade e sincronia [F (1,43) = 13,68; p = 0,001; e F (1,43) = 23,36; P <0,001; ver Figura 3], mas não entre a aparência ea sincronia. este padrãosugere que a atividade desempenha um papel mais dominante para a propriedade e a ilusão do que a aparência faz, ele ainda mostrou que a percepção ilusória de propriedade é mais forte em virtual do que paradigma tradicional ilusão da mão de borracha. De acordo com a Hommel 22, a agência de objectivo (ou seja, o grau em que um evento externo pode objectivamente ser controlada) contribui para a apropriação subjetiva e agência subjetiva, o que explica que neste experimento, controle ativo, síncrona na efetoras virtual aumentou tanto a propriedade subjetiva e agência subjetiva.

Embora a aparência não conseguiu interagir com sincronia, sugerindo que a ilusão de posse não depende de aparência, ele não produziu um efeito principal. Isto indica que a aparência tem um impacto sobre a propriedade percebida. Faz sentido supor que as pessoas têm expectativas gerais sobre o que os objetos externos pode ou não ser um plparte ausible do seu corpo, que apoia a percepção de propriedade em geral, mas não moderar o efeito de sincronia. Nós, portanto, concluir que as múltiplas fontes de informação contribuem para o sentimento de posse subjetiva: expectativas geral de cima para baixo e informações sincronia de baixo para cima. A relação entre estas duas fontes de informação não parece ser interactivo mas compensatória, de modo que as expectativas gerais podem dominar na ausência de sincronismo, e vice-versa.

Ilusão Virtual-face

Em outro estudo, nós investigamos como as pessoas representam a sua face. Fomos capazes de replicar a ilusão enfacement tradicional em um ambiente virtual, o que nos referimos como a ilusão virtual-face 12. Nós investigou também se as pessoas adotam o humor expresso por um rosto virtual eles se identificam com. Houve um dentro-participantefactor de sincronia (síncrono vs. assíncrona) e uma expressão entre participante fator-facial (feliz vs. neutro). Os ratings OI antes da fase de indução foram subtraídos dos ratings IOS após a fase de indução, também o efeito classificações grade antes da fase de indução foram subtraídos dos afeta os ratings grid após a fase de indução, e essas mudanças de rating foram usados ​​como o IOS e afetar resultados da grelha.

A análise dos escores de propriedade (O1-4), as pontuações das agências (A1-2), ea escala IOS 18 alterações todos mostraram principais efeitos da sincronia [F (1,58) = 38.24; P <0,001; F (1,58) = 77,33; P <0,001; e F (1,58) = 43,63; P <0,001; respectivamente], mostrando que a sincronia entre os próprios movimentos da cabeça próprios e os movimentos da face virtual de aumento percebido propriedade e agência, e facilitou a integração do rosto do outro em seu próprio eu (veja Fifigura 4). Sincronia também melhora do humor, como indicado por um efeito de sincronia na grelha afectar mudanças 19 [F (1,58) = 7,99; p <0,01].

Figura 4
Figura 4: propriedade e agência de classificação, bem como alterações IOS, como uma função de sincronia. Note-se que IOS positivas mudanças implicam um aumento da integração do outro em si mesmo. Por favor clique aqui para ver uma versão maior desta figura.

Figura 5
Figura 5: afetam mudanças de grade (valores positivos implicam positiva curso afectar) e dezenas de flexibilidade do AUT, como uma função de sincronia e a expressão do rosto virtual. Note-se que as interações entre sincronia e de expressão são movidos por humor mais positivo-indo e particularmente bom desempenho flexibilidade para a combinação de sincronia e rosto virtual feliz. Por favor clique aqui para ver uma versão maior desta figura.

Havia principais efeitos significativos da expressão facial em mudanças IOS, afetam grade muda, e flexibilidade no AUT 20, 21, 23, mas o mais importante foi o fato de que as mudanças de grade e a flexibilidade pontuação interagiram com sincronia [F (1 afetam, 58) = 4,40; P <0,05; e F (1,58) = 4,98; P <0,05; respectivamente]. Como mostrado na Figura 5, os participantes relataram melhora do humor e mostrou um comportamento mais criativa após enfacing (isto é, síncronaly movendo-se com) uma cara feliz, em comparação com as condições em que eles se moviam de forma assíncrona com uma cara feliz ou de forma síncrona com uma face neutra.

F / P / PES EFF AJA SYN EFF * ACT EFF * SYN ACT * SYN EFF * ACT * SYN
O1 11.66 10.11 45,38 10,08
0,001 0,003 <0,001 0,003
0,21 0,19 0,51 0,19
O2 5,37 47.65
0.025 <0,001
0,11 0,53
O3 10,75 41.30 9,81
0,002 <0,001 0,003
0.20 0,49 0,19
O4 12.86 17.17 15.12 10.60
0,001 <0,001 <0,001 0,002
0,23 0,29 0,26 0.20
O1-4 14.85 9,32 48.35 13,68
0; 0,001 0,004 <0,001 0,001
0,26 0,18 0,53 0,24
A1 6,94 79.60 54,64 23.36
0,012 <0,001 <0,001 <0,001
0,14 0,65 0,56 0,37

Tabela 1: F, P e Eta parcial quadrado valores (PES) para os efeitos das classificações item do questionário, com df = 43. Fatores são EFF: efetoras virtual (mão virtual vs. retângulo); ACT: actividade (exploração ativa vs. estimulação passiva); e SYN: sincronia (síncrono vs. assíncrono). Somente os resultados para efeitos significativos são mostrados.

M / SE HP-SY HP-AS HA-SY HA-AS RP-SY RP-AS RA-SY RA-AS
O1-4 4,37 3,44 5,09 3.50 3,79 3.14 4,68 3.05
0.20 0,23 0,19 0,25 0,23 0,23 0.20 0,21
A1 3,59 3.11 6,36 4,36 3,07 2,57 6,09 3.80
0,30 0,32 0,15 0,33 0,28 0,27 0,24 0,33

Tabela 2: Meios (M) e erros padrão (SE) para os ratings de propriedade e de agência em todas as oito condições. H: Mão; R: rectângulo; A: ativa; P: passiva; SY: síncrona; AS: assíncrona.

F / P / PES Expressão facial Sincronia A expressão facial * Synchrony
Propriedade (O1-4) 38.24
<0,001
0,40
Agência (A1-2) 77.33
<0,001
0,57
IOS Alterações 4,03 43.63
0,049 0,001
0,07 0,43
Afetam Grade Valence Alterações 6,06 7.99 4,40
0,017 0,007 0,041
0,10 0,13 0,07
AUT-Flexibilidade 5,42 4,98
0,024 0,03
0,09 0,08
AUT-Fluência 7,89
0,007
0,12

Tabela 3: F, P e Eta parcial quadrado valores (PES) para medidas dependentes relevantes, com df = 58 para questionário e os resultados do IOS, e df = 56 para a dimensão valência do moo afetar graded e AUT resultados. Somente os resultados para efeitos significativos são mostrados.

M / SE Neutro-SY Neutro-AS Happy-SY Happy-AS
Propriedade (O1-4) 2,88 2.03 3,38 2.36
0,27 0,16 0,23 0,22
Agência (A1-2) 5,90 4.25 6.16 4,08
0.20 0,25 0,13 0,32
IOS Alterações 0,37 -0,80 1.00 -0.40
0,21 0,25 0.20 0,24
Afetam Grade Valence Alterações -1,07 -1.33 0,60 -1,20
0,42 0,33 0,39 0,31
AUT-Flexibilidade 5,87 6,07 7,43 6.10
0,31 0,37 0,29 0,39
AUT-Fluência 7,27 8,27 9,73 7,37
0,51 0,68 0,68 0,49

Tabela 4: Meios (M) e erros padrão (SE) para medidas dependentes relevantes nas quatro condições. Neutro: a expressão facial neutra; Happy: expressão facial feliz; SY: síncrona; AS: assíncrona.

Discussion

Neste artigo, são descritos dois protocolos detalhados para os virtual à mão e ilusão virtual-face paradigmas, em que nosso estudo virtual rosto era o primeiro a replicar a ilusão cara-a posse induzida por acariciando tradicional na realidade virtual, juntamente com os resultados representativos do os dois paradigmas.

Os efeitos significativos de sincronismo indicam que fomos bem sucedidos na indução de propriedade ilusória para o lado virtual e a cara virtual, mais semelhante a ilusão paradigmas tradicionais. Ser capaz de reproduzir estes efeitos, por meio de técnicas de realidade virtual tem vantagens consideráveis 11, 24. técnicas de realidade virtual estão liberando o experimentador do procedimento acariciando bastante artificial e interruptive e abre novas possibilidades para manipulações experimentais. Por exemplo, atuadores virtuais morphing nos permitiu manipular sistematicamente o impacto da appearance da mão virtual e a semelhança entre o virtual e mão real do participante, ou a expressão facial da face virtual. O impacto do órgão também pode ser explorado sistematicamente variando o grau (por exemplo, imediação) para que os participantes possam controlar os movimentos do efector artificial.

Outro caminho promissor para futuras pesquisas de realidade virtual são em primeira pessoa perspectiva (1PP) experiências de realidade virtual. Experiências 1pp pode criar uma imensa sensação de imersão e sensação de presença, em uma escala completamente diferente de uma perspectiva de terceira pessoa experiência de realidade virtual 25, 26, 27, 28. Em 1PP experimenta um pode realmente sentir como é o avatar, que se está literalmente que contém o avatar. Isto abre possibilidades para todos os tipos de manipulações, tais como partes de uma destacando O corpo de pessoa 28, alongando 29, rescaling partes do corpo 30, ou mudando a cor da pele de uma pessoa 31, 32.

Como os presentes e muitas outras descobertas demonstram, controlando eventos virtuais de uma forma síncrona aumenta fortemente a percepção destes eventos pertencentes ao próprio corpo. Por exemplo, os nossos resultados do estudo mão sugerem que o controle imediato é uma sugestão importante para distinguir entre a auto-produzido e outros produzidos eventos (ie, agências de pessoal) e entre a auto-relacionadas e outros relacionados com eventos (ou seja, a propriedade do corpo) . Os resultados aqui apresentados e em outros lugares sugerem que a informação de baixo para cima desempenha um papel decisivo no surgimento de auto-representação fenomenal, mesmo para partes do corpo que não são como identidade-relacionados como a própria parte do corpo 4.

jove_content "> A parte mais crítica dos protocolos descritos é o processo de indução, que apresenta correlações entre visual, tátil e motor (ou seja, proprioceptiva) informação-essas correlações permite que o sistema cognitivo para derivar propriedade e agência. Como essas correlações contar com o temporização relativa dos respectivos eventos, tais como o atraso entre próprios movimentos do participante e os movimentos do efector artificial, é crucial para manter os atrasos de processamento (especialmente no que diz respeito à conversão de dados do dataglove para o movimento do efector Virtual na tela) a um mínimo. com a nossa configuração da experiência do tempo máximo de atraso é de cerca de 40 ms, o que é quase imperceptível e não dificultar a percepção de causalidade e agência. Shimada, Fukuda e Hiraki 33 têm sugerido que a janela de tempo crítico para a ocorrência de processos de integração multisensorial que constituem a representação auto-corpo é de 300 ms,o que significa que os atrasos mais longos são susceptíveis de reduzir a percepção de controle sobre os eventos virtuais.

Outro aspecto importante do protocolo é o controle experimental apertado sobre os movimentos das mãos ou o rosto do participante, dependendo do paradigma. Durante a indução, os movimentos activos do respectivo factor são essenciais, como as correlações intersensory necessárias dependem de movimentos exploratórios activas no lado do participante. Assim, é importante incentivar os participantes a mover-se com frequência e se envolver em exploração activa. Em outras fases do experimento, os movimentos podem prejudicar a medição entanto. Por exemplo, no paradigma ilusão mão virtual, movendo a mão esquerda (a partir do qual SCR foi gravado) é susceptível de tornar medições do nível SCR barulhento e não confiável.

A limitação da técnica paradigma ilusão mão virtual é que, por razões práticas, os participantes geralmente usam um dataglove e orientação tracker durante todo o experimento (de modo a minimizar a distração). Isto pode não ser confortável, que por sua vez pode afetar o humor ou a motivação do participante. Uma possível solução para esse problema seria a utilização de equipamentos mais leves ou wearables feitos sob medida. Outra limitação da nossa técnica de ilusão paradigma virtual-face atual é que o equipamento apenas registra os movimentos da cabeça, mas sem mudanças na expressão facial. Permitindo aos participantes para controlar as expressões faciais de uma cara virtual é susceptível de contribuir para ilusões de propriedade, mas isso exigiria hardware e software que fornece uma detecção confiável e categorização de expressões faciais em humanos-que nós ainda não temos disponíveis no nosso laboratório. A utilização de, por exemplo, em tempo real (faciais) utilitários de captura de movimento seria de grande benefício para superar estas limitações e nos permitiria aumentar a sensação de agência e de propriedade de avatares para níveis significativamente mais elevados.

Como sugerido pelaos resultados do nosso estudo 8, as pessoas consideram várias fontes de informação e atualizar sua representação do corpo continuamente. Eles parecem usar informações de baixo para cima e de informação de cima para baixo de forma compensatória, no sentido de que uma fonte de informação desempenha um papel mais forte na ausência do outro, semelhante ao que foi assumido para o sentido de agência 34. Isto fornece pistas interessantes para futuras pesquisas, como, por exemplo, sugere que a propriedade pode ser percebida até mesmo para efetores artificiais em posturas, desde um grau de semelhança suficiente superfície, ou vice-versa (ou seja, se o efetoras artificial alinha perfeitamente com o efetor reais mas difere em termos de características de superfície). Os resultados disponíveis sugerem também que as fronteiras entre si e os outros são bastante plástico, de modo que as características de outra pessoa ou agente pode ser percebida como uma característica de si mesmo, desde algum grau de synchrony entre o comportamento próprio de uma e da outra 35, 36.

Materials

Name Company Catalog Number Comments
Vizard (Software controlling the virtual reality environment) Worldviz Vizard allows importing hand models and integrating the hand, dataglove and orientation tracker modules through self-written command scripts. These scripts can be run to control the presentation of the virtual hand in the virtual environment, the appearance of the hand and the way it moves; they also control vibrator activities.
Cybertouch (Dataglove) CyberGlove Systems Cybertouch Participants wear this dataglove to control the movements of the virtual hand in the virtual environment. Measurement frequency = 100 Hz; Vibrator vibrational frequency = 0-125 Hz.
Intersense (Orientation tracker) Thales InertiaCube3 Participants wear the Intersense tracker to permit monitoring the orientation of their real hand (data that the used dataglove does not provide). Update rate = 180 Hz.
Biopac system (Physiological measurement device) Biopac MP100 The hardware to record skin conductance response.
Acquisition unit (Physiological measurement device) Biopac BN-PPGED The hardware to record skin conductance response.
Remote transmitter (Physiological measurement device) Biopac BN-PPGED-T Participants wear the remote transmitter on their left hand wrist; it sends signals to the Biopac acqusition unit.
Electrode (Physiological measurement device) Biopac EL507 Participants wear  the electrode on their fingers; it picks up skin conductance signals.
AcqKnowledge (Software controlling acquisition of physiological data) Biopac ACK100W, ACK100M The software to record skin conductance responses.
Box Custom-made Participants put their right hand into the box
Computer Any standard PC + Screen (could be replaced by VR glasses/devive) Necessary to present the virtual reality environment, including the virtual hand.
Cape Custom-made Participants wear this cape on their right shoulder so they cannot see their right hand and arm.
Kinect (Head position tracker) Microsoft Kinect tracks the X-Y position of the participant's head. Recording frame rate = 30 Hz.
FAAST (Head position tracker software) MXR FAAST 1.0 Software controls Kinect and is used to track the position of the participant's head.
Intersense (Head orientation tracker) Thales InertiaCube3 Intersense tracks rotational orientation changes of the participant's head. Update rate = 180 Hz.
Facegen (Face-model generator software) Singular Inversions FaceGen Modeller  Facegen allows creating various virtual faces by varying various parameters, such as male/female-ness or skin color.
Cap Any cap, e.g., baseball cap The cap carries the Intersense orientation tracker.
Computer Any standard PC + Screen Necessary to present the virtual reality environment, including the virtual head.

DOWNLOAD MATERIALS LIST

References

  1. Tsakiris, M., Schütz-Bosbach, S., Gallagher, S. On agency and body-ownership: Phenomenological and neurocognitive reflections. Conscious. Cogn. 16 (3), 645-660 (2007).
  2. Botvinick, M., Cohen, J. Rubber hands 'feel' touch that eyes see. Nature. 391 (6669), 756-756 (1998).
  3. Armel, K. C., Ramachandran, V. S. Projecting sensations to external objects: Evidence from skin conductance response. Proc. R. Soc. B. 270 (1523), 1499-1506 (2003).
  4. Tsakiris, M. My body in the brain: A neurocognitive model of body-ownership. Neuropsychologia. 48 (3), 703-712 (2010).
  5. Kalckert, A., Ehrsson, H. H. Moving a rubber hand that feels like your own: Dissociation of ownership and agency. Front. Hum. Neurosci. 6 (40), (2012).
  6. Kalckert, A., Ehrsson, H. H. The spatial distance rule in the moving and classical rubber hand illusions. Conscious. Cogn. 30C, 118-132 (2014).
  7. Ma, K., Hommel, B. Body-ownership for actively operated non-corporeal objects. Conscious. Cogn. 36, 75-86 (2015).
  8. Ma, K., Hommel, B. The role of agency for perceived ownership in the virtual hand illusion. Conscious. Cogn. 36, 277-288 (2015).
  9. Slater, M., Perez-Marcos, D., Ehrsson, H. H., Sanchez-Vives, M. V. Towards a digital body: The virtual arm illusion. Front. Hum. Neurosci. 2 (6), (2008).
  10. Sanchez-Vives, M. V., Spanlang, B., Frisoli, A., Bergamasco, M., Slater, M. Virtual hand illusion induced by visuomotor correlations. PLOS ONE. 5 (4), e10381 (2010).
  11. Spanlang, B., et al. How to build an embodiment lab: Achieving body representation illusions in virtual reality. Front. Robot. AI. 1, 1-22 (2014).
  12. Tsakiris, M. Looking for myself: Current multisensory input alters self-face recognition. PLOS ONE. 3 (12), e4040 (2008).
  13. Sforza, A., Bufalari, I., Haggard, P., Aglioti, S. M. My face in yours: Visuo-tactile facial stimulation influences sense of identity. Soc. Neurosci. 5, 148-162 (2010).
  14. Bufalari, I., Porciello, G., Sperduti, M., Minio-Paluello, I. Self-identification with another person's face: the time relevant role of multimodal brain areas in the enfacement illusion. J. Neurophysiol. 113 (7), 1959-1962 (2015).
  15. Ma, K., Sellaro, R., Lippelt, D. P., Hommel, B. Mood migration: How enfacing a smile makes you happier. Cognition. 151, 52-62 (2016).
  16. Ma, K., Hommel, B. The virtual-hand illusion: Effects of impact and threat on perceived ownership and affective resonance. Front. Psychol. 4 (604), (2013).
  17. Suma, E. A., et al. Adapting user interfaces for gestural interaction with the flexible action and articulated skeleton toolkit. Comput. Graph. 37 (3), 193-201 (2013).
  18. Aron, A., Aron, E. N., Smollan, D. Inclusion of Other in the Self Scale and the structure of interpersonal closeness. J. Pers. Soc. Psychol. 63 (4), 596 (1992).
  19. Russell, J. A., Weiss, A., Mendelsohn, G. A. Affect grid: a single-item scale of pleasure and arousal. J. Pers. Soc. Psychol. 57 (3), 493-502 (1989).
  20. Guilford, J. P. The nature of human intelligence. , McGraw- Hill. New York, NY. (1967).
  21. Ashby, F. G., Isen, A. M., Turken, A. U. A neuropsychological theory of positive affect and its influence on cognition. Psychol. Rev. 106 (3), 529-550 (1999).
  22. Hommel, B. 34;Action control and the sense of agency". The sense of agency. Haggard, P., Eitam, B. , Oxford University Press. New York. 307-326 (2015).
  23. Akbari Chermahini, S., Hommel, B. The (b)link between creativity and dopamine: Spontaneous eye blink rates predict and dissociate divergent and convergent thinking. Cognition. 115 (3), 458-465 (2010).
  24. Sanchez-Vives, M. V., Slater, M. From presence to consciousness through virtual reality. Nat. Rev. Neurosci. 6 (4), 332-339 (2005).
  25. Slater, M., Spanlang, B., Sanchez-Vives, M. V., Blanke, O. First person experience of body transfer in virtual reality. PLOS ONE. 5 (5), (2010).
  26. Maselli, A., Slater, M. The building blocks of the full body ownership illusion. Front. Hum. Neurosci. 7 (83), (2013).
  27. Pavone, E. F., et al. Embodying others in immersive virtual reality: Electro cortical signatures of monitoring the errors in the actions of an avatar seen from a first-person perspective. J. Neurosci. 26 (2), 268-276 (2016).
  28. Tieri, G., Tidoni, E., Pavone, E. F., Aglioti, S. M. Body visual discontinuity affects feeling of ownership and skin conductance responses. Sci. Rep. 5 (17139), (2015).
  29. Kilteni, K., Normand, J., Sanchez-Vives, M. V., Slater, M. Extending body space in immersive virtual reality: A long arm illusion. PLOS ONE. 7 (7), (2012).
  30. Banakou, D., Groten, R., Slater, M. Illusory ownership of a virtual child body causes overestimation of object sizes and implicit attitude changes. Proc. Natl. Acad. Sci. U.S.A. 110 (31), 12846-12851 (2013).
  31. Martini, M., Perez-Marcos, D., Sanchez-Vives, M. V. What color is my arm? Changes in skin color of an embodied virtual arm modulates pain threshold. Front. Hum. Neurosci. 7 (438), (2013).
  32. Peck, T. C., Seinfeld, S., Aglioti, S. M., Slater, M. Putting yourself in the skin of a black avatar reduces implicit racial bias. Consc. Cogn. 22 (3), 779-787 (2013).
  33. Shimada, S., Fukuda, K., Hiraki, K. Rubber hand illusion under delayed visual feedback. PLOS ONE. 4 (7), (2009).
  34. Synofzik, M., Vosgerau, G., Newen, A. Beyond the comparator model: A multifactorial two-step account of agency. Conscious. Cogn. 17 (1), 219-239 (2008).
  35. Hommel, B., Müsseler, J., Aschersleben, G., Prinz, W. The theory of event coding (TEC): A framework for perception and action planning. Behav. Brain. Sci. 24 (5), 849-878 (2001).
  36. Hommel, B. Action control according to TEC (theory of event coding). Psychol. Res. 73 (4), 512-526 (2009).

Tags

Comportamento Edição 121 ilusão Virtual mão Virtual-face ilusão auto-representação percepção ilusória a integração multisensorial Senso de agência Auto-outro limite
Criando Virtual mão e Virtual-face Illusions para investigar auto-representação
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Ma, K., Lippelt, D. P., Hommel, B.More

Ma, K., Lippelt, D. P., Hommel, B. Creating Virtual-hand and Virtual-face Illusions to Investigate Self-representation. J. Vis. Exp. (121), e54784, doi:10.3791/54784 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter