Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Creando ilusiones virtual a mano y Virtual-cara de investigar las auto-representación

doi: 10.3791/54784 Published: March 1, 2017

Summary

A continuación, describimos virtual mano y paradigmas ilusión de cara virtual que se pueden utilizar para estudiar relacionado con el cuerpo autopercepción / -representacion. Ya se han utilizado en varios estudios para demostrar que, en condiciones específicas, una mano o la cara virtual se pueden incorporar en la representación del cuerpo de uno, lo que sugiere que las representaciones del cuerpo son más bien flexible.

Abstract

Los estudios que investigan cómo las personas representan a sí mismos y su propio cuerpo a menudo usan variantes de "ilusiones" de propiedad, tales como la ilusión de goma a mano tradicional o la ilusión enfacement más recientemente descubierto. Sin embargo, estos ejemplos requieren montajes experimentales y no artificiales, en el que el efector artificial necesita ser acariciado en sincronía con la mano real de los participantes o de cara a una situación en la que los participantes no tienen ningún control sobre las caricias o los movimientos de su efector real o artificial . A continuación, describimos una técnica para establecer las ilusiones de propiedad en una configuración que es más realista, más intuitivo, y presumiblemente de mayor validez ecológica. Permite la creación de la ilusión virtual de mano haciendo que los participantes controlan los movimientos de una mano virtual presentados en una pantalla o en el espacio virtual delante de ellos. Si la mano virtual se mueve en sincronía con la propia mano real de los participantes, tienden a percibir tque mano virtual como parte de su propio cuerpo. La técnica también crea la ilusión de cara virtual haciendo que los participantes controlan los movimientos de una cara virtual en frente de ellos, de nuevo con el efecto de que tienden a percibir la cara como su propia si se mueve en sincronía con su verdadera cara. El estudio de las circunstancias que las ilusiones de este tipo se pueden crear, aumento o la reducción proporciona información importante acerca de cómo las personas crean y mantienen representaciones de sí mismos.

Introduction

De acuerdo con la filosofía occidental, el ser humano se compone de dos aspectos: 1 Por un lado, que percibimos nuestro propio cuerpo y nuestras actividades en el aquí y ahora, que crea un auto-representación fenomenal (a menudo llamado el mínimo de uno mismo). Por otro lado, creamos representaciones más perdurables de nosotros mismos mediante el almacenamiento de información sobre nuestra historia personal, la integración de nueva información en el auto-concepto emergente, y presentamos a nuestro entorno social en consecuencia, lo que equivale a la creación de una denominada auto narrativa. El auto mínimo o fenomenal ha argumentado a surgir a partir de dos fuentes de información. Uno de ellos es la información de arriba hacia abajo sobre los aspectos más duraderos de nuestro cuerpo, tales como información sobre los efectores de nuestra propiedad o la forma de nuestro rostro. La otra es la información de abajo hacia arriba proporcionada por la auto-percepción de la situación actual.

Las investigaciones de este último se Strongli inspirado en un estudio inteligente de Botvinick y Cohen 2. Estos autores presentan los participantes humanos con una mano de goma situada en frente de ellos, cerca de una de sus manos reales, que sin embargo fue ocultas a la vista. Cuando la mano real y la mano de goma se acariciaban en sincronía, de modo de crear una entrada síncrona intermodal, los participantes tendían a percibir la mano de goma como parte de su propio cuerpo, la ilusión de goma a mano. Estudios posteriores revelaron que la propiedad percibida incluso fue tan lejos que los participantes empezar a sudar y tratando de retirar su mano real cuando la mano de goma estaba siendo atacado por un cuchillo o de lo contrario ser "herido" 3.

Mientras Botvinick y Cohen han interpretado sus resultados para demostrar que surge la autopercepción de la transformación de la información de abajo hacia arriba, otros autores han argumentado que los resultados de goma a mano de la ilusión de la interacción entre Synchr intermodalony de entrada, una fuente de abajo hacia arriba de la información y representaciones almacenadas de las propias manos, una fuente de arriba hacia abajo de la información 4. La idea es que la sincronía de estímulo crea la impresión de que lo real y la mano de goma son una y la misma cosa, y dado que la mano de goma se parece a una mano real, esta impresión se considera la realidad.

La investigación posterior por Kalckert y Ehrsson 5 añade un componente visuo-motor para el paradigma mano de goma, lo que permite la investigación tanto de la propiedad percibidas (la impresión de que el efector artificial pertenece a su propio cuerpo) y la agencia percibido (la impresión de que uno está produciendo movimientos observados uno mismo). Los participantes fueron capaces de mover el dedo índice de la mano de goma hacia arriba y abajo moviendo su dedo índice, y la sincronía entre movimientos de los dedos reales y de la mano de goma, el modo de movimiento (pasiva frente al modo activo), y la POSICIONAMfueron manipulados g de la mano de goma (incongruente vs. congruente con respecto a la mano del participante). Se utilizan los resultados para proporcionar apoyo a la idea de que la agencia y la propiedad son fenómenos cognitivos funcionalmente distintos: mientras que la sincronía de movimientos abolió tanto el sentido de la propiedad y la agencia, el modo de movimiento sólo afectó a la agencia, y de la coherencia de la posición de la mano de goma tenido un efecto en la propiedad única. Los dos últimos resultados fueron replicados en un estudio de seguimiento en el que la distancia entre lo real y mano de caucho en el plano vertical varió 6: la propiedad de la mano de goma disminuyó a medida que cada vez más su posición de no coincidentes mano real del participante. Sin embargo, la agencia no se vio afectada por extravíos de la mano de goma en cualquier condición.

Sin embargo, investigaciones recientes utilizando técnicas de realidad virtual, que proporcionan al participante con control activo sobre el efector artificial, sugiere que el papel de la de arriba hacia abajoparte y la distinción entre la propiedad y la agencia pueden haber sido sobrestimado 7, 8. Estas técnicas han sustituido a la mano de goma por una mano virtual presentado a los participantes en una pantalla delante de ellos o mediante gafas de realidad virtual 9. Los participantes usan comúnmente un dataglove que traduce los movimientos de mano real del participante en los movimientos de la mano virtual, forma sincrónica o asincrónica (por ejemplo, con un retraso notable). Al igual que en la ilusión de goma a mano, de interpretación simultánea aumenta fuertemente la impresión del participante que la mano virtual se convierte en parte de su propio cuerpo 10.

El empleo de técnicas de realidad virtual para crear la ilusión de goma a mano tiene varias ventajas sobre tanto el paradigma de goma a mano tradicional y la combinación del paradigma de goma a mano con el Componen viso-motorats 11. Moviendo la mano y viendo un efector que se mueve en sincronía con ella crea una situación mucho más natural que frente a una mano de goma y ser acariciado por un experimentador. Por otra parte, la manipulación virtual proporciona el experimentador con una flexibilidad mucho más experimental y mucho más control sobre la relación perceptual entre percibir y moviendo la mano real y de una percepción del evento creado por el efector artificial. En particular, el uso de técnicas virtuales facilita la manipulación de los factores que pueden influir en la propiedad y la agencia percibido. Por ejemplo, la forma de la mano virtual se puede modificar mucho más fácil y más rápido que la forma de una mano de goma, y ​​los movimientos de la mano virtual puede ser de cualquier tipo y, por ejemplo implicar movimientos biológicamente imposibles. Entre otras cosas, esto facilita la exploración de los límites de la ilusión, ya que el efector artificial no tiene más que mirar como una mano, pero puede ser Replaccado por cualquier tipo de evento estático o dinámico. Por tanto interés práctico y teórico, un generador de efectos virtual es sin duda mucho más envolvente y se siente mucho más real que una mano de goma, que es probable que reduzca la necesidad de invocar interpretaciones de arriba hacia abajo para dar sentido a la situación actual.

ilusiones propiedad han, sin embargo, no se han limitado a las manos. Tsakiris 12 fue el primero en utilizar la técnica de frotar ligeramente para crear la impresión de que los participantes una cara estática en un panorama que se presenta delante de ellos es el suyo. Sforza et al. 13 También se han encontrado pruebas de este fenómeno, al que se refieren como enfacement: los participantes incorporados los rasgos faciales de una pareja cuando su propia y la cara de su pareja fueron tocadas en sincronía. El mecanismo neural subyacente a la ilusión enfacement ha sido recientemente investigado por diversos investigadores; para un comentario exhaustivo e interpretation de los hallazgos ver Bufalari et al. 14. Hemos convertido recientemente el diseño regular de enfacement ilusión en una versión de realidad virtual (la cara virtual de ilusión), en el que los participantes son el control de los movimientos de una cara virtual en frente de ellos, moviendo su cabeza 15.

A continuación, se describen dos experimentos que utilizan lo virtual a mano ilusión 7 y la cara virtual de ilusión 15 paradigmas, respectivamente, para investigar la auto-representación. El experimento virtual de mano incluye tres, factores experimentales completamente cruzados: (a) la sincronía entre (fieltro) venta de mano y movimientos (visto) virtual efectoras, que era ya sea cercano a cero para inducir la propiedad y la agencia o tres segundos como condición de control; (B) la aparición del efector virtual, que se veía ya sea como una mano humana o como un rectángulo (por lo que para probar el efecto de la FEP real virtualesector similitud en la ilusión de la propiedad); y (c) la oportunidad de controlar el comportamiento del efector virtual, que era o bien inexistente en un estado pasivo o directa en una condición activa. El experimento incluyó cara virtual de dos, los factores experimentales completamente cruzados: (a) la sincronía entre los movimientos de cara real y virtual de la cara, lo que fue ya sea cercano a cero para inducir la propiedad y la agencia o tres segundos como una condición de control; y (b) la expresión facial de la cara virtual, que era neutral o mostrando una sonrisa, para comprobar si el estado de ánimo positivo sería levantar el estado de ánimo de los participantes y mejorar su rendimiento en una tarea de la creatividad estado de ánimo sensible.

Protocol

Todos los estudios se ajustaban a las normas éticas de la Declaración de Helsinki y los protocolos fueron aprobados por el Comité Ético de Investigación Humana de la Universidad de Leiden. Cada condición probada sobre 20 participantes.

Ilusión 1. virtual a mano

  1. Configuración experimental
    1. Bienvenido al participante y recoger información adicional, como la edad, el género, etc.
    2. Establecer un sistema experimental que incluye un entorno de programación de realidad virtual; un dataglove diestro con seis estimuladores de vibración programables unidos a la mitad de la palma y al exterior de las (segundas) falanges mediales de cada uno de los cinco dedos (ver Lista de Materiales); a 3 grados de libertad (DOF) de seguimiento de la orientación; SCR (respuesta de conductancia de la piel) equipos de medición; un cuadro negro (profundidad: 50 cm; altura: 24 cm; anchura: 38 cm) con una pantalla de ordenador que está encima horizontal (que sirve para presentar el Enviro realidad virtualnment); y una capa para cubrir la mano del participante.
    3. Pedir al participante para poner el dataglove en su mano derecha y el seguimiento de la orientación en la muñeca derecha. Adjuntar un transmisor remoto SCR con una correa para la muñeca izquierda. Poner los electrodos en los SCR (segundo) falanges mediales de los dedos índice y medio de la mano izquierda (véase la Figura 1A y B para una ilustración de la configuración).
    4. Asentar el participante en frente de la mesa sobre la que se coloca la caja con la pantalla del ordenador en la parte superior. Pedir al participante que coloque su mano derecha a la caja a lo largo del eje de profundidad, como para protegerlo de su punto de vista.
    5. Ponga una capa sobre el hombro derecho del participante y cubrir el espacio entre la pantalla y el participante. Pedir al participante que descanse su mano izquierda en la parte vacía del escritorio.
    6. Conecte los cables de dataglove y seguimiento de la orientación a la computadora, y empezar el med programación de realidad virtualNuevo Testamento. Ejecutar la secuencia de comandos pre-escrito en la ventana de comandos haciendo clic en el botón "Ejecutar" en la interfaz entorno de realidad virtual, de modo que el entorno de realidad virtual se inicia. Vigilar que el participante sigue las instrucciones que aparecen en la pantalla del ordenador delante de los participantes. Espere hasta que la secuencia de comandos pre-escrito se cierra automáticamente.

Figura 1
Figura 1: (A) Los participantes usaron un programa de seguimiento y una orientación dataglove en la mano derecha, y el transmisor remoto SCR en su mano izquierda. (B) Configuración del experimento virtual de ilusión a mano. (C) Configuración del experimento ilusión cara virtual. (D) Una captura de pantalla de la pantalla del ordenador.Haga clic aquí para ver una versión más grande de esta figura.

  1. Diseño Mano virtual
    NOTA: Usar scripts de comandos de Python en la ventana de comandos del software de realidad virtual y guardarlos. Asegúrese de que la secuencia de comandos de control principal, los comandos de importación, las secuencias de comandos de módulo y otros comandos que se describen a continuación son parte de un mismo archivo de script. Para el script en Python completo y archivos necesarios ver el archivo adjunto "virtual Mano Illusion.zip" (Nota: el archivo zip es un material complementario del manuscrito y no forma parte del paquete de software Además, se excluyen los complementos necesarios para el. dataglove y seguimiento de orientación y de todos los demás módulos de Python utilizados a lo largo de la secuencia de comandos). Con el fin de ejecutar el experimento primero desempaquetar el contenido de este archivo en cualquier carpeta (por ejemplo, el escritorio) y haga doble clic en el archivo "virtual a mano illusion_54784_R2_052716_KM.py" para iniciar el experimento. Tenga en cuenta que el guión esdiseñado para trabajar con el entorno de programación de realidad virtual indicado y no funcionará con otros programas.
    1. Importar un modelo de mano virtual pre-hechos y un módulo de escritura de la mano previamente escrito (que se puede encontrar en el archivo de instalación del paquete de software-realidad-entorno virtual) en el entorno de realidad virtual. El módulo de script rastrea la mano el gesto articulación del dedo y los ángulos de la dataglove y se alimenta de la información en el modelo de la mano virtual, que permite controlar los movimientos de la mano virtual moviendo la mano real que llevaba el dataglove.
      1. cambiar manualmente el tamaño y apariencia de la mano virtual, si es necesario mediante la especificación de los parámetros en la secuencia de comandos, tales como su x, y, y z de escala para cambiar su tamaño o cambiar la imagen asignada.
      2. Para las condiciones de sincronía, utilice ninguna transformación, de modo que la mano virtual se mueve de la misma manera como la mano real y en (sobre) al mismo tiempo. Para crear la asincronía, añadir un retraso de 3 s, de modo que el virtual mano se mueve como la mano real, pero con un retraso notable.
    2. Identificar un plugin orientación de seguimiento pre-hechos adecuados en el archivo de instalación de realidad virtual con el medio ambiente y la importación en los scripts de comandos. Tenga en cuenta que ejecuta las secuencias de comandos de mando hace que el módulo seguidor de orientación seguimiento de los cambios de orientación de la mano real (proporcionadas por la orientación participantes rastreador usan en su muñeca derecha), que luego se pueden utilizar para controlar los cambios de orientación de la mano virtual mediante el establecimiento de la guiñada, datos de tono y rollo de la mano virtual en la ventana de comandos. Canalizar los datos registrados por el rastreador de orientación directamente en el modelo virtual a mano para las condiciones de sincronía, pero insertar un retraso de 3 s para la asincronía.
    3. Diseñar los objetos virtuales adicionales requeridos y sus trayectorias de movimiento, para que se muevan hacia y desde la mano virtual (en este caso, el diseño y la importación modelos adicionales para un palo, rectángulo, bola, y un cuchillo, que se utilizarán durante varios paestrategia en tiempo real del experimento; consulte "Condiciones experimentales"). cambiar manualmente el tamaño, el aspecto y la posición para cada uno de estos objetos en el guión de comando en la misma forma que se establecen los parámetros para la mano virtual. Establecer las trayectorias de movimiento requeridos utilizando los comandos apropiados para ajustar la posición de inicio y final de las trayectorias de movimiento de un objeto y la velocidad a la que debe moverse.
    4. Determinar la fuerza de la vibración y el tiempo de cada estimulador de vibración en la secuencia de comandos; ya sea sin un retraso para condiciones de sincronía (es decir, la vibración comienza exactamente cuando la mano virtual se está en contacto con el otro objeto virtual) o con un retraso de 3 s para la asincronía. Todos los vibradores vibran al mismo tiempo que la mano virtual es tocado por otro objeto virtual (o en el punto de tiempo de retardo). Definir la intensidad de la vibración a un nivel medio (es decir, a 0,5 en una escala de 0-1). Tenga en cuenta que la fuerza real de la vibración depende de la programmiambiente ng y vibradores utilizados para el experimento, y que un nivel en nuestro experimento medio de la vibración no necesariamente coinciden con la fuerza real de la vibración cuando se utiliza hardware diferente (es decir, los vibradores / dataglove) o software.
    5. Añadir una segunda parte de la secuencia de comandos experimento que es idéntico a los pasos anteriores a excepción de los siguientes cambios:
      1. Sustituir el modelo de la mano virtual con un rectángulo virtual de un tamaño similar al de la mano virtual (de modo de realizar el factor de aparición del experimento)
      2. Asegúrese de que la rotación de la parte real como recogido por el rastreador de orientación se traduce en movimientos de rotación del rectángulo.
      3. Asegúrese de que la apertura y el cierre de la parte real como recogido por el dataglove se traduce en cambios de color del rectángulo utilizando el comando apropiado para cambiar el color de un objeto en el entorno de programación (por ejemplo, presentar el rectángulo de color verde cuando el maridoy está completamente cerrado, en rojo cuando está completamente abierta, y dejar que el color cambia gradualmente de rojo a verde o verde a rojo cuando se abre o se cierra la mano).
  2. Condiciones experimentales
    1. Ejecutar las ocho condiciones experimentales (como resultado de cruzar la sincronía tres factores experimentales, la apariencia del efector virtual, y activo / pasivo) en un orden que es o bien equilibrada entre los participantes o al azar.
    2. Para cada condición, incluir tres fases de alrededor de 2 a 3 min cada uno para inducir la ilusión virtual a mano y una fase de amenaza para medir las respuestas de la piel electrofisiológicos (SCR). El protocolo concreto difiere algo de las ocho condiciones y se describe a continuación.
    3. mano virtual / activo / sincronía
      1. Configurar el sistema de tal manera que el retardo entre los siguientes eventos está cerca de cero y no se nota: (a) los movimientos y cambios de orientación de la mano real y la correspondening movimientos y cambios de orientación de la mano virtual en la fase de correlación viso-motora; (B) los puntos de tiempo de contacto entre la mano virtual y el objeto virtual adicional en la pantalla y los puntos de tiempo correspondientes de la estimulación inducida por la vibración de la mano real en la fase visuo-táctil; y (c) los movimientos y cambios de orientación de la mano real y los correspondientes movimientos y cambios de orientación de la mano virtual; y los puntos de tiempo de contacto entre la mano virtual y el objeto virtual adicional en la pantalla y los correspondientes puntos de tiempo de estimulación inducida por la vibración de la mano real en la fase visuo-motor-táctil.
      2. Para la fase de correlación viso-motora, haga que los participantes se mueven libremente o girar su verdadera mano derecha, incluyendo la apertura, cierre, y girando su mano real, y mover cada dedo individualmente. Haga que los participantes ven los correspondientes movimientos de la mano virtual en la pantalla del ordenador.
      3. Para la vfase de estimulación isuo-táctil, tiene participantes mantienen su verdadera mano aún mientras se ve la pantalla. Presentar otro objeto virtual en la pantalla, como una pelota o un palo virtual (que fue creado en el apartado 1.2.3) que se mueve hacia y desde la mano virtual, produciendo la impresión de tocar y no tocar la mano virtual.
        1. Acompañar a cada contacto entre este objeto virtual adicional y la mano virtual por la actividad vibrador en el dataglove. Tiene el vibrador a estimular la parte de la mano real que corresponde a la parte de la mano virtual que está siendo tocado por el objeto virtual adicional (por ejemplo, si el objeto virtual parece tocar la palma de la mano virtual, la palma de la participante mano real debe ser estimulado por el vibrador 16).
      4. Para la fase de correlación viso-motor-táctil, los participantes han mover la mano virtual moviendo su mano real con el fin de tocar a un st vibrante virtualesick objeto o similar (ver 1.2.3). Asegúrese de que cada contacto entre la mano virtual y palillo / objeto virtual va acompañada de la estimulación inducida por la vibración de la mano real del participante como se describe en 1.3.3.3.
      5. Para la fase de amenaza, haga que los participantes mantienen su verdadera mano derecha todavía mientras ve un cuchillo o una aguja virtual aparecerá en la pantalla del ordenador. Hacen que el cuchillo o una aguja virtual de ir hacia y desde la mano virtual. Asegúrese de que los resultados de cada contacto en un "corte" visible aparente o "pinchar" de la mano virtual.
        1. Estimular la parte de la mano real que corresponde al corte o parte de la mano perforado virtual mediante los vibradores de la dataglove como se describe en 1.3.3.3.
    4. mano virtual / activo / asincronía
      1. Ejecutar el procedimiento descrito en 1.3.3 después de configurar el sistema de tal manera que el retardo entre los eventos críticos es de tres segundos en lugar de cerca de cero.
      2. rectángulo virtual / activo / sincronía
        1. Ejecutar el procedimiento descrito en 1.3.3, pero con el rectángulo virtual en lugar de la mano virtual.
      3. rectángulo virtual / activo / asincronía
        1. Ejecutar el procedimiento descrito en 1.3.4, pero con el rectángulo virtual en lugar de la mano virtual.
      4. mano virtual / pasiva / sincronía
        1. Ejecutar el procedimiento descrito en 1.3.3, pero pedir al participante para mantener su verdadera mano todavía en todas las fases.
      5. mano virtual / pasiva / asincronía
        1. Ejecutar el procedimiento descrito en 1.3.4, pero pedir al participante para mantener su verdadera mano todavía en todas las fases.
      6. rectángulo virtual / pasiva / sincronía
        1. Ejecutar el procedimiento descrito en 1.3.5, pero pedir al participante para mantener su verdadera mano todavía en todas las fases.
      7. rectángulo virtual / pasiva / asincronía
        1. Ejecutar el procedimiento descrito en 1.3.6, pero pedir al participante para mantener su verdadera mano todavía en todas las fases.
    5. Recopilación de datos
      1. Recopilar datos SCR utilizando el equipo de medición (ver Lista de Materiales) y su software. La frecuencia de grabación es cada 0,1 ms.
      2. Pídale al participante que complete el cuestionario que mide el sentido de propiedad, agencia, ubicación y el aspecto de la condición respectiva. Utilice una versión en papel, en la que se imprime cada pregunta (como se describe en 1.4.2.1 y 1.4.2.2), junto con una escala Likert (como se describe en 1.4.2.3), y que puede ser llenado con una pluma; o utilizar una versión computarizada, en la que se muestra cada pregunta en la pantalla, junto con la escala Likert, y en la que el valor de la escala elegida se puede escribir.
        1. Incluir un cuestionario que incluye como mínimo una o más preguntas de propiedad 2; utilizar los cuatro siguientes: <br /> (O1) "Me sentía como si la mano en la pantalla fuera mi mano derecha o en parte de mi cuerpo";
          (O2) "Parecía como si lo estuviera sintiendo en mi mano derecha fue causado por el contacto de la vara en la mano en la pantalla que estaba viendo";
          (O3) "Yo tenía la sensación de que la vibración que sentí en mi mano derecha estaba en el mismo lugar donde la mano en la pantalla fue tocado por el palo";
          (O4) "Parecía mi mano derecha estaba en el lugar donde la mano en la pantalla era".
        2. Considere incluir otra pregunta acerca de las preguntas de la agencia; utilice la siguiente:
          (A1) "me sentí que puedo controlar esta mano virtual" (por la condición activa);
          (A1) "Parecía como si hubiera movido la mano en la pantalla si lo hubiera querido, como si estuviera obedeciendo mi voluntad" (para la condición pasiva); .
          Observe que los elementos que figuran en 1.4.2.1 y 1.4.2.2 se refieren a la condición en la mano. Para la condición de rectángulo, sustituir todas las referencias a la mano virtual por referencias al rectángulo virtual.
        3. Utilice una escala de Likert de 2 para cada pregunta (por ejemplo, 1-7), por lo que los participantes pueden anotar el grado en que estuvieron de acuerdo en la cuestión; por ejemplo, utilizar 1 para "muy en desacuerdo" y 7 para "totalmente de acuerdo". Asegúrese de que cada pregunta aparece en la pantalla y puede ser respondida con los números 1 a 7 correspondiente a las 7 opciones de respuesta de la escala de Likert; el aspecto y la respuesta de opciones se programan en el guión experimento.

    2. virtual cara Ilusión

    1. Configuración experimental
      1. Bienvenido al participante y recoger información adicional, como la edad, el género, etc.
      2. Establecer un sistema experimental que incluye un entorno de programación de realidad virtual; un sistema de seguimiento de la posición de cabeza, incluyendo correspondiente hardware y softwaref "> 17, y un rastreador de orientación 3-DOF unido a la parte superior de una gorra o sombrero de béisbol.
        NOTA: El uso de este sistema experimental, los participantes pueden moverse libremente o girar su cabeza para controlar la posición y orientación de la cara virtual, pero que no puede controlar las expresiones faciales de la cara virtuales
      3. Pedir al participante que se siente en la silla 2 metros delante de la pantalla del ordenador. Véase la Figura 1C y 1D para una ilustración de la configuración experimental.
      4. Pedir al participante para poner en la tapa con el rastreador de orientación adjunto.
      5. Conecte el sistema de seguimiento de la posición y orientación de seguimiento al ordenador y ejecutar la secuencia de comandos pre-escrito en la ventana de comandos haciendo clic en el botón "Ejecutar" en la interfaz entorno de realidad virtual, de modo que el entorno de realidad virtual se inicia. Vigilar que el participante sigue las instrucciones que aparecen en la pantalla del ordenador delante de los participantes. Esperehasta que el script de comandos pre-escrito se cierra automáticamente.
    2. Diseño Virtual Face
      NOTA: Para el script en Python completo y archivos necesarios ver el archivo adjunto "Virtual Face Illusion.zip" (Nota: el archivo zip es un material complementario del manuscrito y no forma parte del paquete de software, sino que no incluye los plugins necesarios utilizado para la posición y la orientación de seguimiento y cualesquiera otros módulos de Python utilizados a lo largo de la secuencia de comandos). Con el fin de ejecutar el experimento, primero desempaquetar el contenido de este archivo en cualquier carpeta (por ejemplo, el escritorio) y haga doble clic en el archivo "cara virtual de illusion_54784_R2_052716_KM.py" para iniciar el experimento. Tenga en cuenta que el guión está diseñado para trabajar con el entorno de programación de realidad virtual que se presenta aquí y no funcionará con otros programas.
      1. Utilice un programa de desarrollo de cara virtual para diseñar caras virtuales con las apropiadas para la edad, la raza, y géneros (correspondiente alos participantes están probando) mediante la selección de los mejores valores de ajuste en las correspondientes escalas del programa
      2. Crear dos versiones de cada cara, una con una expresión facial neutra y otro con una sonrisa, al seleccionar los valores correspondientes en las correspondientes escalas del programa (que varía expresiones cambiando el tamaño del ojo, la curvatura de la boca y algunos otros músculos de la cara)
      3. Para la prueba de los estudiantes universitarios, crear cuatro caras virtuales de 20 años de edad con el programa de construcción de cara virtual, una cara masculina con una expresión facial neutra, una cara masculina que está sonriendo, una cara de mujer con una expresión facial neutra, y una cara de mujer que está sonriendo
      4. En el programa de construcción de cara virtual de exportar las caras a archivos con formato VRML 3D.
      5. El uso de los comandos apropiados del entorno de programación de realidad virtual importar los archivos VRML creados, es decir, las caras virtuales, en el entorno de realidad virtual para su uso durante el experimento. Virginiari o su tamaño o escala, estableciendo sus parámetros en ese caso el uso de los comandos apropiados.
      6. Encontrar el módulo de seguimiento pre-escrito para el sistema de seguimiento de posición de la cabeza en el archivo de instalación del entorno virtual y de importación, lo que permite el seguimiento de las posiciones de la cabeza del participante. En las secuencias de comandos, cambie los datos de las posiciones de la cabeza y determinar el punto de tiempo de posiciones de la cabeza cuando se traducen en posiciones de cara virtual (utilizar un retardo de 0 ms para las condiciones de sincronismo y un 3 s de retardo para la asincronía).
      7. Encontrar un plugin orientación de seguimiento pre-hechos en el archivo de instalación del entorno virtual y la importación en los scripts de comandos. Tenga en cuenta que, de nuevo, la secuencia de comandos permite la introducción de los retrasos temporales con respecto al punto de cuando los cambios de orientación de la cabeza del participante se traducen en cambios de orientación de la cabeza virtual tiempo (utilizar un retardo de 0 ms para las condiciones de sincronía y un 3 s de retardo para la asincronía ).
      8. Diseño ob virtual adicionalproyectos (como un palo virtual) y sus trayectorias de movimiento, por lo que se mueven desde y hacia la cara virtual. Ajuste el tamaño del objeto virtual para ser similar al tamaño de un dedo virtual.
      9. Conectar el hardware e implementar los scripts de comandos guardados, y luego iniciar el experimento.
    3. Condiciones experimentales
      1. Ejecutar las secuencias de comandos de mando y realizar un seguimiento de posición de la cabeza del participante mediante el sistema de seguimiento de posición de la cabeza y orientación de la cabeza del participante por medio de un rastreador de orientación 3-DOF unido a una tapa.
      2. Exponer al participante a la cara virtual para 30 s e instruir a los participantes que no se mueva. Una vez que la cara ha desaparecido, que los participantes responden a la escala IOS (descrito en la colección de datos) para evaluar la forma en que él o ella percibe la relación entre él o ella misma y la cara virtual.
      3. Ejecutar las cuatro condiciones experimentales (descritos más adelante) en un orden que es bien equilibrado en participantes o aleatorio. Cada condición incluye tres fases de alrededor de 2 a 3 min cada uno para inducir la ilusión cara virtual.
      4. Neutral / sincronía
        1. Configurar el sistema de tal manera que el retardo entre los siguientes eventos está cerca de cero y no se nota: (a) los movimientos de la cabeza real, y los correspondientes movimientos de la cabeza virtual en la fase de correlación viso-motora y (b) los puntos temporales de contacto entre mano real del participante y real mejilla del participante y entre el objeto virtual y la cabeza virtual en la fase de estimulación visual-táctil.
        2. Para la fase de correlación viso-motora, que los participantes ponen en la tapa con el rastreador de orientación adjunto. Pídales que mantenerse en movimiento o girando su cabeza para controlar la posición y orientación de la cara virtual.
        3. Para la fase de estimulación visual-táctil, han participantes estirar su brazo derecho hacia la derecha y hacia atrás varias veces, para tocar su mejilla derecha, mientras que waTching la pantalla. El tacto es sólo momentáneo: los participantes tocan la mejilla, dejar ir y estirar su brazo derecho hacia la derecha, y se repiten durante la duración de esta fase estimulaciones viso-táctil.
        4. En la pantalla, presenta la cara virtual de haber sido afectado varias veces en la mejilla de un objeto virtual, tal como una bola virtual. El tacto es (o mejor dicho movimiento de la mano en general) está sincronizado con el objeto virtual a través del sistema de movimiento que puede realizar un seguimiento de la ubicación de las extremidades de un participante (por ejemplo, la mano) en el espacio 3D, lo que nos permitió el mapa directamente movimientos de las manos de los participantes a la trayectoria de la del objeto virtual, que resulta en un movimiento sincronizado de la trayectoria del movimiento real la mano del participante y la trayectoria de movimiento del objeto virtual. Así, cuando el objeto virtual toca el avatar virtual, esto corresponde a la participante tocar su propia mejilla.
      5. Neutral / asincronía
        1. Ejecutar el procedimiento dedescrito bajo 2.3.4 después de haber configurado el sistema de manera que el retardo entre los eventos críticos es de 3 s en lugar de cerca de cero.
      6. Sonriente / sincronía
        1. Ejecutar el procedimiento descrito en 2.3.4 después de haber configurado el sistema para presentar la cara sonriente en lugar de la cara con una expresión neutra.
      7. Sonriente / asincronía
        1. Ejecutar el procedimiento descrito en 2.3.6 después de haber configurado el sistema de manera que el retardo entre los eventos críticos es de 3 s en lugar de cerca de cero.
    4. Recopilación de datos
      1. Pídale al participante que complete el cuestionario que mide el sentido de propiedad y la agencia para la condición respectiva.
        1. Incluir un cuestionario que incluye como mínimo una o más preguntas de propiedad; utilizar los cuatro siguientes:
          (O1) "Me sentía como el rostro en la pantalla era mi propia cara";
          (O2) "Parecía como si estuvieramirando mi propia imagen reflejada en un espejo ";
          (O3) "Parecía que estaba percibiendo los movimientos y el toque en la cara en la ubicación en la cara en la pantalla era";
          (O4) "Parecía que el contacto me sentí en mi cara fue causado por el balón que toca la cara en la pantalla".
        2. Considerar la inclusión de preguntas de la agencia; utilizar los dos siguientes:
          (A1) "Parecía como si los movimientos que vi en la cara en la pantalla fue causado por mis propios movimientos";
          (A2) "La cara en la pantalla se trasladó al igual que yo quería que fuera, como si se estaba obedeciendo a mi voluntad".
      2. Incluir la "inclusión de otros en el Ser" (IOS) escala 18, que se crea mediante el uso de una de 7 puntos (1-7) la escala de Likert 2 en el que se indica que cada puntuación corresponde a un diferente grado de auto-solapan . Indicar el grado de solapamiento de forma gráfica a través de la superposición de dos círculos con uno representando el "Auto" y el otro círculo del "otro". Caracterizar la puntuación más baja de la escala de cero superposición de los dos círculos y la puntuación más alta por la superposición perfecta. Las clasificaciones más altas por lo tanto representan un mayor grado de auto-solapan.
      3. Opcionalmente, incluir el Cuadro 19 Afectan para evaluar el estado de ánimo.
        1. Crear un 2 dimensiones (valencia por la excitación) rejilla de Likert-tipo, en el que una dimensión corresponde a la valencia (que va de -4 para una sensación desagradable al 4 por sentirse agradable) y el otro a la excitación (que va de -4 para sentir sueño a + 4ºC durante sensación muy excitada).
        2. Haga que los participantes elijan un punto (por ejemplo, con un bolígrafo) que se corresponde con lo agradable y lo excitado que sienten actualmente.
          NOTA: Los cuestionarios, IOS y afectar la red aparecen en la pantalla después de cada una de las fases experimentales ha terminado. Los participantes utilizaron el teclado para responder (idéntico al experimento Ilusión mano virtual). </ Li>
      4. Opcionalmente, se incluyen los usos alternativos de tareas (AUT) 20.
        1. Pida a los participantes a la lista como muchos usos posibles para un artículo de la casa común, como un periódico. La tarea se realiza con lápiz y papel. Tener los participantes que anoten tantos usos para el objeto de que puedan en 5 min.
        2. Repita este procedimiento para otro objeto (por ejemplo, un ladrillo). Anotar los resultados más adelante de acuerdo a la fluidez (número de usos), flexibilidad (número de categorías de usos), elaboración (el nivel de detalle o explicación que se proporciona para el uso), y la originalidad (cómo es único es el uso). Asegúrese de que las puntuaciones más altas indican un rendimiento más elevado pensamiento divergente para todos los elementos. Use dos goleadores diferentes y asegúrese de que la correlación inter-anotador es alta. Centrarse en la puntuación de flexibilidad para profundizar el análisis, ya que esta es la puntuación más transparente y más consistente en teoría de la tarea.
        3. Utilice la AUT como una implícita (y la demanda-characteristic-libre de medida) que indica el estado de ánimo, como el rendimiento en esta tarea aumenta con un mejor estado de ánimo 21.
          NOTA: Si la AUT es al cambio implementado el script de manera que la cara virtual permanece en la pantalla, es visible para y permanece bajo el control del participante mientras están haciendo la AUT.

Representative Results

Ilusión virtual a mano

Nos encontramos con varios experimentos utilizando el paradigma de ilusión virtual de mano, para investigar cómo las personas representan sus cuerpos, en este caso sus manos. El número de participantes probados dependía de la cantidad de condiciones, por lo general alrededor de 20 participantes para cada condición. Aquí ofrecemos resultados relevantes para uno de los estudios más elaborados que llevamos a cabo en nuestro laboratorio. Nos limitaremos nuestra discusión a los datos subjetivos, la media de las respuestas de Likert de escala a las cuatro preguntas de propiedad (O1-O4) y la respuesta de escala Likert a la pregunta agencia (A1).

En este estudio 8, se investigó sistemáticamente los efectos de la sincronización (síncrono asincrónica vs), la apariencia del efector virtual (mano virtual vs. rectángulo), y la actividad (pasiva contra activo) en la participants sentido 'de la propiedad y el sentido de agencia (todas las condiciones fueron probados dentro de los participantes). Los resultados fueron los mismos para la propiedad y la agencia. Como se indica en la Figura 2, la percepción de la propiedad y la agencia eran más fuertes si la mano real y virtual se movía en sincronía [F (1,43) = 48.35; p <0,001; y F (1,43) = 54.64; p <0,001; de la propiedad y la agencia, respectivamente], si el efector virtual fue una mano que si fuera un rectángulo [F (1,43) = 14.85; p <0,001; y F (1,43) = 6,94; p <0,02], y si el participante activo en lugar de pasivo [F (1,43) = 9,32; p <0,005; y F (1,43) = 79.60; p <0,001]. El efecto sincronía replica la ilusión virtual de mano estándar.

Figura 2
Figura 2: Propiedad y la calificadora en función de la sincronía, la apariencia del efector virtual, y la actividad de la parteicipant. Haga clic aquí para ver una versión más grande de esta figura.

figura 3
Figura 3: Propiedad y la calificadora en función de la sincronía y la actividad del participante. Tenga en cuenta que el efecto sincronía es más pronunciado para los participantes activos. Haga clic aquí para ver una versión más grande de esta figura.

Aún más interesante, tanto la propiedad y la agencia mostraron una interacción significativa entre la actividad y la sincronía [F (1,43) = 13,68; p = 0,001; y F (1,43) = 23.36; p <0,001; véase la Figura 3], pero no entre la apariencia y la sincronía. Este patrónsugiere que la actividad juega un papel más dominante de la titularidad y la ilusión de que la apariencia no, incluso mostró que la percepción ilusoria la propiedad es más fuerte en virtual que paradigma tradicional ilusión mano de goma. De acuerdo con Hommel 22, agencia de objetivo (es decir, el grado en que un evento externo puede objetivamente ser controlado) contribuye tanto a la propiedad subjetiva y la agencia subjetiva, lo que explica por qué en este experimento, el control activo, sincrónica sobre el efector virtuales aumentó tanto la propiedad subjetiva y la agencia subjetiva.

Mientras apariencia no interactúan con sincronía, lo que sugiere que la ilusión de la propiedad no se basa en la apariencia, que produjo un efecto principal. Esto indica que la apariencia tiene un impacto en la percepción de propiedad. Es lógico suponer que la gente tiene expectativas generales sobre lo que podrían o no podrían ser objetos externos un plausible parte de su cuerpo, que es compatible con la percepción de la propiedad en general, pero no a mitigar el efecto de la sincronía. Por consiguiente, concluimos que las múltiples fuentes de información contribuyen a la sensación subjetiva de la propiedad: expectativas top-down en general e información sincronía de abajo hacia arriba. La relación entre estas dos fuentes de información no parece ser interactivo, pero compensatoria, por lo que las expectativas generales pueden dominar en ausencia de sincronía, y viceversa.

Virtual cara Ilusión

En otro estudio, se investigó cómo las personas representan a su cara. Hemos sido capaces de replicar la ilusión enfacement tradicional en un entorno virtual, la cual nos referimos como la ilusión de cara virtual de 12. Además, investigó si la gente adopta el estado de ánimo expresado por una cara virtual de la que se identifican. Había una dentro de participantefactor de sincronía (síncrono asincrónica vs) y una expresión entre-participante del factor-facial (feliz vs neutro). Las calificaciones OI antes de la fase de inducción se restaron de las votaciones IOS después de la fase de inducción, también el efecto clasificaciones red antes de la fase de inducción se restaron de las votaciones Afectar la parrilla después de la fase de inducción, y se utilizaron estos cambios de calificación como el IOS y afectan Los resultados de la rejilla.

El análisis de las puntuaciones de propiedad (O1-4), las puntuaciones de agencia (A1-2), y la Escala de IOS 18 cambios todos mostraron efectos principales de sincronía [F (1,58) = 38.24; p <0,001; F (1,58) = 77,33; p <0,001; y F (1,58) = 43.63; p <0,001; respectivamente], lo que demuestra que la sincronía entre los propios movimientos de la cabeza y uno de los movimientos de la cara virtuales aumentó percibe la propiedad y la agencia, y facilitó la integración de la cara del otro en uno mismo (véase Fifigura 4). Sincronía también mejoró el estado de ánimo, como se indica por un efecto de sincronía en la parrilla de afectar a 19 cambios de [F (1,58) = 7,99; p <0,01].

Figura 4
Figura 4: Propiedad y la calificadora, así como cambios IOS, como una función de la sincronía. Tenga en cuenta que IOS positivos cambios implican un aumento de la integración de la otra en uno mismo. Haga clic aquí para ver una versión más grande de esta figura.

Figura 5
Figura 5: Afectar cambios en la rejilla (valores positivos implican positiva curso afecta) y anota flexibilidad en la AUT, como una función de la sincronía y la expresión de la cara virtuales. Tenga en cuenta que las interacciones entre la sincronía y la expresión son impulsados ​​por el estado de ánimo más con pendiente positiva y en particular un buen rendimiento flexibilidad para la combinación de la sincronía y la cara virtual feliz. Haga clic aquí para ver una versión más grande de esta figura.

Hubo importantes efectos principales de la expresión facial en cambios IOS, afecta a los cambios de rejilla, y la flexibilidad en el AUT 20, 21, 23 pero lo más importante fue el hecho de que los cambios de la red y la flexibilidad puntuación de interactuado con sincronía [F (1 afecta, 58) = 4,40; p <0,05; y F (1,58) = 4,98; p <0,05; respectivamente]. Como se muestra en la Figura 5, los participantes mejoraron su humor y mostraron un comportamiento más creativa después de enfacing (es decir, sincrónicaly se mueve con) una cara feliz en comparación con las condiciones en las que se movían de forma asíncrona con una cara feliz o sincrónicamente con una cara neutra.

F / P / PSE FEP ACTO SYN FEP * ACC FEP * SYN ACT * SYN FEP ACT * * SYN
O1 11.66 10.11 45.38 10.08
0,001 0,003 <0,001 0,003
0.21 0.19 0.51 0.19
O2 5.37 47.65
0.025 <0,001
0.11 0.53
O3 10.75 41.30 9.81
0,002 <0,001 0,003
0.20 0.49 0.19
O4 12.86 17.17 15.12 10.60
0,001 <0,001 <0,001 0,002
0.23 0.29 0.26 0.20
O1-4 14.85 9.32 48.35 13.68
0; 0,001 0,004 <0,001 0,001
0.26 0.18 0.53 0.24
A1 6.94 79.60 54.64 23.36
0,012 <0,001 <0,001 <0,001
0.14 0.65 0.56 0.37

Tabla 1: M, P y parcial eta cuadrado valores (PSA) para los efectos de las clasificaciones de elementos cuestionario, con df = 43. Los factores son FEP: efector virtual (mano virtual vs. rectángulo); ACT: Actividad (exploración activa frente a la estimulación pasiva); y SYN: sincronía (síncrono asincrónica vs). Sólo se muestran los resultados para efectos significativos.

M / SE HP-SY HP-AS HA-SY HA-AS RP-SY RP-AS RA-SY RA-AS
O1-4 4.37 3.44 5.09 3.50 3.79 3.14 4.68 3.05
0.20 0.23 0.19 0.25 0.23 0.23 0.20 0.21
A1 3.59 3.11 6.36 4.36 3.07 2.57 6.09 3.80
0.30 0.32 0.15 0.33 0.28 0.27 0.24 0.33

Cuadro 2: Medios (M) y errores estándar (SE) para las calificaciones de las agencias de propiedad y en las ocho condiciones. H: la mano; R: rectángulo; R: activa; P: pasiva; SY: sincrónica; AS: asíncrono.

F / P / PSE Expresión facial sincronía La expresión facial * Sincronía
Propiedad (O1-4) 38.24
<0,001
0.40
Agencia (A1-2) 77.33
<0,001
0.57
Los cambios IOS 4.03 43.63
0,049 0,001
0.07 0.43
Los cambios afectarán a la rejilla Valence 6.06 7.99 4.40
0,017 0,007 0,041
0.10 0.13 0.07
AUT-Flexibilidad 5.42 4.98
0,024 0.03
0.09 0.08
AUT-Fluidez 7.89
0,007
0.12

Tabla 3: F, P y parcial eta cuadrado valores (PSA) para las medidas dependientes pertinentes, con gl = 58 para el cuestionario y los resultados del IOS, y df = 56 para la dimensión de valencia del moo afectar rejillaD y AUT resultados. Sólo se muestran los resultados para efectos significativos.

M / SE Neutro-SY Neutro-AS Happy-SY Happy-AS
Propiedad (O1-4) 2.88 2.03 3.38 2.36
0.27 0.16 0.23 0.22
Agencia (A1-2) 5.90 4.25 6.16 4.08
0.20 0.25 0.13 0.32
Los cambios IOS 0.37 -0.80 1.00 -0.40
0.21 0.25 0.20 0.24
Los cambios afectarán a la rejilla Valence -1.07 -1.33 0.60 -1.20
0.42 0.33 0.39 0.31
AUT-Flexibilidad 5.87 6.07 7.43 6.10
0.31 0.37 0.29 0.39
AUT-Fluidez 7.27 8.27 9.73 7.37
0.51 0.68 0.68 0.49

Tabla 4: Medios (M) y errores estándar (EE) para las medidas dependientes relevantes en las cuatro condiciones. Neutro: la expresión facial neutra; Feliz: feliz expresión facial; SY: sincrónica; AS: asíncrono.

Discussion

En este artículo se describen dos protocolos detallados para los virtuales a mano y la ilusión cara virtual de paradigmas, en el que nuestro estudio presencial virtual fue el primero en replicar la ilusión tradicional cara titularidad caricias inducida en la realidad virtual, junto con los resultados representativos de los dos paradigmas.

Los efectos significativos de sincronía indican que hemos tenido éxito en la inducción de la propiedad ilusoria de la mano virtual y la cara virtual, similar a la ilusión paradigmas más tradicionales. Ser capaz de reproducir estos efectos por medio de técnicas de realidad virtual tiene considerables ventajas 11, 24. técnicas de realidad virtual están liberando el experimentador del procedimiento caricias bastante artificial y interruptiva y abre nuevas posibilidades para la manipulación experimental. Por ejemplo, los efectores de morphing virtuales nos permiten manipular sistemáticamente el impacto de la appearancia de la mano virtual y la similitud entre lo virtual y real de la mano del participante, o la expresión facial de la cara virtual. El impacto de la agencia también se puede explorar sistemáticamente variando el grado (por ejemplo, la inmediatez) a la que los participantes pueden controlar los movimientos del efector artificial.

Otra vía prometedora para la investigación futura realidad virtual son en primera persona, (1PP) experiencias de realidad virtual. 1PP experiencias pueden crear una inmensa sensación de inmersión y sensación de presencia, en una escala completamente diferente que una tercera persona perspectiva experiencia de realidad virtual 25, 26, 27, 28. En 1PP experimenta uno puede sentir realmente como uno es el avatar, que uno es, literalmente, que incorpora la imagen de usuario. Esto abre posibilidades para todo tipo de manipulaciones tales como partes de un desprendimiento el cuerpo de la persona 28, alargando 29, cambiar la escala de las partes del cuerpo 30, o el cambio de color de la piel de una persona 31, 32.

Como los presentes y muchos otros hallazgos demuestran, controlando los eventos virtuales de una manera sincrónica aumenta fuertemente la percepción de estos eventos que pertenecen a su propio cuerpo. Por ejemplo, nuestros hallazgos del estudio de la mano sugieren que el control inmediato es una clave importante para distinguir entre la producción propia y otras producido eventos (es decir, las agencias personal) y entre la auto-relacionados y los relacionados con otros eventos (es decir, la propiedad del cuerpo) . Los resultados presentados aquí y en otros lugares sugieren que la información de abajo hacia arriba juega un papel decisivo en la aparición de auto-representación fenomenal, incluso para las partes del cuerpo que no son tan como la propia parte del cuerpo 4 relacionados con la identidad.

jove_content "> La parte más crítica de los protocolos descritos es el proceso de inducción, que introduce correlaciones entre visual, táctil y el motor (es decir, propioceptiva) Información en estas correlaciones permite que el sistema cognitivo para derivar la propiedad y la agencia. A medida que estas correlaciones se basan en la temporización relativa de los acontecimientos respectivos, tales como el retardo entre propios movimientos del participante y los movimientos del efector artificial, es crucial para mantener retardos de procesamiento (especialmente con respecto a la traducción de los datos de la dataglove al movimiento del efector virtual en la pantalla) al mínimo. con nuestra configuración de la prueba del tiempo de retardo máximo es de alrededor de 40 ms, que es apenas perceptible y no afecta la percepción de la causalidad y de la agencia. Shimada, Fukuda, y Hiraki 33 han sugerido que la ventana de tiempo crítico para la ocurrencia de procesos de integración multisensorial que constituyen la representación auto-cuerpo es de 300 ms,lo que significa que los retrasos más largos tienden a reducir la percepción de control sobre los eventos virtuales.

Otro aspecto importante del protocolo es el control experimental estricto sobre movimientos de la mano o la cara del participante, dependiendo del paradigma. Durante la inducción, los movimientos activos del correspondiente factor son esenciales, como las correlaciones intersensoriales necesarios se basan en movimientos exploratorios activos en el lado del participante. Por tanto, es importante para alentar a los participantes a moverse con frecuencia y para participar en la exploración activa. En otras fases del experimento, los movimientos pueden perturbar la medición sin embargo. Por ejemplo, en el paradigma ilusión virtual a mano, mover la mano izquierda (de la que se registró SCR) es probable que hacer mediciones de nivel SCR ruidosa y poco fiable.

Una limitación de la técnica paradigma ilusión virtual de mano es que, por razones prácticas, los participantes comúnmente usan un dataglove y orientación tracker durante todo el experimento (a fin de minimizar la distracción). Esto puede no ser cómodo, que a su vez puede afectar el estado de ánimo o la motivación del participante. Una posible solución para ese problema sería el uso de equipos más claro o wearables a medida. Otra limitación de nuestra cara virtual de la técnica actual paradigma ilusión es que el equipo sólo registra movimientos de la cabeza, pero no hay cambios en la expresión facial. Permitiendo a los participantes para controlar las expresiones faciales de una cara virtual es probable que contribuya a las ilusiones de propiedad, pero esto requeriría de hardware y software que proporciona una detección fiable y categorización de las expresiones faciales en los seres humanos -que todavía no tenemos disponibles en nuestro laboratorio. El uso de, por ejemplo, en tiempo real (faciales) utilidades de captura de movimiento sería de gran beneficio para superar estas limitaciones y nos permitiría aumentar el sentido de la agencia y la propiedad de los avatares a niveles significativamente más altos.

Como sugierelos resultados de nuestro estudio 8, la gente considera diversas fuentes de información y actualizar su representación cuerpo continuamente. Parece que usar la información de abajo hacia arriba y la información de arriba hacia abajo de una manera compensatoria, en el sentido de que una fuente de información juega un papel más importante en la ausencia de la otra, similar a lo que ha sido asumido por el sentido de la agencia 34. Esto proporciona interesantes vías de investigación futura, ya que, por ejemplo, sugiere que la propiedad puede ser percibido incluso para los efectores artificiales en posturas incómodas, proporciona un grado suficiente de similitud superficial, o viceversa (es decir, si el efector artificial se alinea perfectamente con el efector de bienes pero se diferencia de ella en términos de características de la superficie). Los hallazgos disponibles también sugieren que los límites entre uno mismo y los demás son más bien plástico, por lo que las características de otra persona o agente puede ser percibido como una característica de uno mismo, siempre algún grado de synchrony entre el comportamiento propio de uno y el de la otra 35, 36.

Materials

Name Company Catalog Number Comments
Vizard (Software controlling the virtual reality environment) Worldviz Vizard allows importing hand models and integrating the hand, dataglove and orientation tracker modules through self-written command scripts. These scripts can be run to control the presentation of the virtual hand in the virtual environment, the appearance of the hand and the way it moves; they also control vibrator activities.
Cybertouch (Dataglove) CyberGlove Systems Cybertouch Participants wear this dataglove to control the movements of the virtual hand in the virtual environment. Measurement frequency = 100 Hz; Vibrator vibrational frequency = 0-125 Hz.
Intersense (Orientation tracker) Thales InertiaCube3 Participants wear the Intersense tracker to permit monitoring the orientation of their real hand (data that the used dataglove does not provide). Update rate = 180 Hz.
Biopac system (Physiological measurement device) Biopac MP100 The hardware to record skin conductance response.
Acquisition unit (Physiological measurement device) Biopac BN-PPGED The hardware to record skin conductance response.
Remote transmitter (Physiological measurement device) Biopac BN-PPGED-T Participants wear the remote transmitter on their left hand wrist; it sends signals to the Biopac acqusition unit.
Electrode (Physiological measurement device) Biopac EL507 Participants wear  the electrode on their fingers; it picks up skin conductance signals.
AcqKnowledge (Software controlling acquisition of physiological data) Biopac ACK100W, ACK100M The software to record skin conductance responses.
Box Custom-made Participants put their right hand into the box
Computer Any standard PC + Screen (could be replaced by VR glasses/devive) Necessary to present the virtual reality environment, including the virtual hand.
Cape Custom-made Participants wear this cape on their right shoulder so they cannot see their right hand and arm.
Kinect (Head position tracker) Microsoft Kinect tracks the X-Y position of the participant's head. Recording frame rate = 30 Hz.
FAAST (Head position tracker software) MXR FAAST 1.0 Software controls Kinect and is used to track the position of the participant's head.
Intersense (Head orientation tracker) Thales InertiaCube3 Intersense tracks rotational orientation changes of the participant's head. Update rate = 180 Hz.
Facegen (Face-model generator software) Singular Inversions FaceGen Modeller  Facegen allows creating various virtual faces by varying various parameters, such as male/female-ness or skin color.
Cap Any cap, e.g., baseball cap The cap carries the Intersense orientation tracker.
Computer Any standard PC + Screen Necessary to present the virtual reality environment, including the virtual head.

DOWNLOAD MATERIALS LIST

References

  1. Tsakiris, M., Schütz-Bosbach, S., Gallagher, S. On agency and body-ownership: Phenomenological and neurocognitive reflections. Conscious. Cogn. 16, (3), 645-660 (2007).
  2. Botvinick, M., Cohen, J. Rubber hands 'feel' touch that eyes see. Nature. 391, (6669), 756-756 (1998).
  3. Armel, K. C., Ramachandran, V. S. Projecting sensations to external objects: Evidence from skin conductance response. Proc. R. Soc. B. 270, (1523), 1499-1506 (2003).
  4. Tsakiris, M. My body in the brain: A neurocognitive model of body-ownership. Neuropsychologia. 48, (3), 703-712 (2010).
  5. Kalckert, A., Ehrsson, H. H. Moving a rubber hand that feels like your own: Dissociation of ownership and agency. Front. Hum. Neurosci. 6, (40), (2012).
  6. Kalckert, A., Ehrsson, H. H. The spatial distance rule in the moving and classical rubber hand illusions. Conscious. Cogn. 30C, 118-132 (2014).
  7. Ma, K., Hommel, B. Body-ownership for actively operated non-corporeal objects. Conscious. Cogn. 36, 75-86 (2015).
  8. Ma, K., Hommel, B. The role of agency for perceived ownership in the virtual hand illusion. Conscious. Cogn. 36, 277-288 (2015).
  9. Slater, M., Perez-Marcos, D., Ehrsson, H. H., Sanchez-Vives, M. V. Towards a digital body: The virtual arm illusion. Front. Hum. Neurosci. 2, (6), (2008).
  10. Sanchez-Vives, M. V., Spanlang, B., Frisoli, A., Bergamasco, M., Slater, M. Virtual hand illusion induced by visuomotor correlations. PLOS ONE. 5, (4), e10381 (2010).
  11. Spanlang, B., et al. How to build an embodiment lab: Achieving body representation illusions in virtual reality. Front. Robot. AI. 1, 1-22 (2014).
  12. Tsakiris, M. Looking for myself: Current multisensory input alters self-face recognition. PLOS ONE. 3, (12), e4040 (2008).
  13. Sforza, A., Bufalari, I., Haggard, P., Aglioti, S. M. My face in yours: Visuo-tactile facial stimulation influences sense of identity. Soc. Neurosci. 5, 148-162 (2010).
  14. Bufalari, I., Porciello, G., Sperduti, M., Minio-Paluello, I. Self-identification with another person's face: the time relevant role of multimodal brain areas in the enfacement illusion. J. Neurophysiol. 113, (7), 1959-1962 (2015).
  15. Ma, K., Sellaro, R., Lippelt, D. P., Hommel, B. Mood migration: How enfacing a smile makes you happier. Cognition. 151, 52-62 (2016).
  16. Ma, K., Hommel, B. The virtual-hand illusion: Effects of impact and threat on perceived ownership and affective resonance. Front. Psychol. 4, (604), (2013).
  17. Suma, E. A., et al. Adapting user interfaces for gestural interaction with the flexible action and articulated skeleton toolkit. Comput. Graph. 37, (3), 193-201 (2013).
  18. Aron, A., Aron, E. N., Smollan, D. Inclusion of Other in the Self Scale and the structure of interpersonal closeness. J. Pers. Soc. Psychol. 63, (4), 596 (1992).
  19. Russell, J. A., Weiss, A., Mendelsohn, G. A. Affect grid: a single-item scale of pleasure and arousal. J. Pers. Soc. Psychol. 57, (3), 493-502 (1989).
  20. Guilford, J. P. The nature of human intelligence. McGraw- Hill. New York, NY. (1967).
  21. Ashby, F. G., Isen, A. M., Turken, A. U. A neuropsychological theory of positive affect and its influence on cognition. Psychol. Rev. 106, (3), 529-550 (1999).
  22. Hommel, B. 34;Action control and the sense of agency". The sense of agency. Haggard, P., Eitam, B. Oxford University Press. New York. 307-326 (2015).
  23. Akbari Chermahini, S., Hommel, B. The (b)link between creativity and dopamine: Spontaneous eye blink rates predict and dissociate divergent and convergent thinking. Cognition. 115, (3), 458-465 (2010).
  24. Sanchez-Vives, M. V., Slater, M. From presence to consciousness through virtual reality. Nat. Rev. Neurosci. 6, (4), 332-339 (2005).
  25. Slater, M., Spanlang, B., Sanchez-Vives, M. V., Blanke, O. First person experience of body transfer in virtual reality. PLOS ONE. 5, (5), (2010).
  26. Maselli, A., Slater, M. The building blocks of the full body ownership illusion. Front. Hum. Neurosci. 7, (83), (2013).
  27. Pavone, E. F., et al. Embodying others in immersive virtual reality: Electro cortical signatures of monitoring the errors in the actions of an avatar seen from a first-person perspective. J. Neurosci. 26, (2), 268-276 (2016).
  28. Tieri, G., Tidoni, E., Pavone, E. F., Aglioti, S. M. Body visual discontinuity affects feeling of ownership and skin conductance responses. Sci. Rep. 5, (17139), (2015).
  29. Kilteni, K., Normand, J., Sanchez-Vives, M. V., Slater, M. Extending body space in immersive virtual reality: A long arm illusion. PLOS ONE. 7, (7), (2012).
  30. Banakou, D., Groten, R., Slater, M. Illusory ownership of a virtual child body causes overestimation of object sizes and implicit attitude changes. Proc. Natl. Acad. Sci. U.S.A. 110, (31), 12846-12851 (2013).
  31. Martini, M., Perez-Marcos, D., Sanchez-Vives, M. V. What color is my arm? Changes in skin color of an embodied virtual arm modulates pain threshold. Front. Hum. Neurosci. 7, (438), (2013).
  32. Peck, T. C., Seinfeld, S., Aglioti, S. M., Slater, M. Putting yourself in the skin of a black avatar reduces implicit racial bias. Consc. Cogn. 22, (3), 779-787 (2013).
  33. Shimada, S., Fukuda, K., Hiraki, K. Rubber hand illusion under delayed visual feedback. PLOS ONE. 4, (7), (2009).
  34. Synofzik, M., Vosgerau, G., Newen, A. Beyond the comparator model: A multifactorial two-step account of agency. Conscious. Cogn. 17, (1), 219-239 (2008).
  35. Hommel, B., Müsseler, J., Aschersleben, G., Prinz, W. The theory of event coding (TEC): A framework for perception and action planning. Behav. Brain. Sci. 24, (5), 849-878 (2001).
  36. Hommel, B. Action control according to TEC (theory of event coding). Psychol. Res. 73, (4), 512-526 (2009).
Creando ilusiones virtual a mano y Virtual-cara de investigar las auto-representación
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Ma, K., Lippelt, D. P., Hommel, B. Creating Virtual-hand and Virtual-face Illusions to Investigate Self-representation. J. Vis. Exp. (121), e54784, doi:10.3791/54784 (2017).More

Ma, K., Lippelt, D. P., Hommel, B. Creating Virtual-hand and Virtual-face Illusions to Investigate Self-representation. J. Vis. Exp. (121), e54784, doi:10.3791/54784 (2017).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
simple hit counter