Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Métodos para probar Visual Atención Online

Published: February 19, 2015 doi: 10.3791/52470

Abstract

Métodos de recolección de datos en línea tienen un atractivo especial para los científicos del comportamiento, ya que ofrecen la promesa de mucho más grande y muestras mucho más datos representativos que normalmente se pueden recoger en los campus universitarios. Sin embargo, antes de que tales métodos pueden ser ampliamente adoptadas, una serie de desafíos tecnológicos debe ser superado - en particular, en experimentos en los que es necesario un estricto control sobre las propiedades de estímulo. Aquí presentamos los métodos de recogida de datos de rendimiento en dos pruebas de la atención visual. Ambas pruebas requieren control sobre el ángulo visual de los estímulos (que a su vez requiere el conocimiento de la distancia de visualización, el tamaño del monitor, resolución de pantalla, etc.) y el momento de los estímulos (como las pruebas involucran ya sea brevemente brilló estímulos o estímulos que mueven a tipos específicos). Los datos recogidos en estas pruebas de más de 1.700 participantes en línea fueron consistentes con los datos recogidos en las versiones basadas en el laboratorio de las mismas pruebas exactas. Estos resultadossugieren que con el cuidado adecuado, las tareas dependientes del tamaño de temporización / estímulo se pueden implementar en los entornos basados ​​en la web.

Introduction

En los últimos cinco años ha habido un aumento del interés en el uso de métodos de recolección de datos en línea de comportamiento. Si bien la gran mayoría de las publicaciones en el dominio de la psicología han utilizado poblaciones sujetas potencialmente no representativos 1 (es decir, principalmente estudiantes universitarios) y con frecuencia razonablemente pequeños tamaños de muestra, así (es decir, por lo general en el rango de decenas de sujetos), métodos en línea ofrecer la promesa de mucho más diversas y más grandes muestras. Por ejemplo, el servicio Mechanical Turk de Amazon ha sido objeto de una serie de estudios recientes, tanto en la descripción de las características de la población "trabajador" y el uso de esta población en la investigación del comportamiento 2-6.

Sin embargo, una preocupación importante relacionada con tales métodos es la relativa falta de control sobre las variables críticas de estímulo. Por ejemplo, en la mayoría de tareas psicofísica visual, los estímulos se describen en términos deángulo visual. El cálculo de ángulos visuales requiere mediciones precisas de distancia de visión, tamaño de pantalla y resolución de la pantalla. Aunque estos parámetros son triviales para medir y controlar en un laboratorio (donde hay un monitor conocido y participantes ven estímulos, mientras que en una mentonera colocado una distancia conocida del monitor), lo mismo no puede decirse de la recopilación de datos en línea. En un entorno en línea, no sólo los participantes inevitablemente utilizar una amplia variedad de monitores de diferentes tamaños con diferentes configuraciones de software, sino que también pueden no tener fácil acceso a los gobernantes / cintas métricas que les permita determinar su tamaño del monitor o tener los conocimientos necesarios para determinar sus ajustes de software y hardware (por ejemplo, frecuencia de actualización, resolución).

Aquí se describe un conjunto de métodos para recopilar datos sobre dos pruebas conocidas de la atención visual - el campo de visión útil (CVU) paradigma 7 y el objeto múltiple seguimiento (MOT) tarea (es decir, tarjeta de crédito / CD - ver Figura 1).

Los datos sobre estos dos tareas fueron recogidos de más de 1.700 participantes en un curso abierto masivo en línea. Rendimiento medio de esta muestra en línea fue muy consistente con los resultados obtenidos en las medidas basadas en el laboratorio estrictamente controladas de las mismas tareas exactas 9,10. Nuestros resultados son por lo tanto compatible con el creciente cuerpo de literatura que demuestra la eficacia de los métodos de recolección de datos en línea, incluso en tareas que requieren un control específico sobre las condiciones de visión.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

El protocolo fue aprobado por la junta de revisión institucional de la Universidad de Wisconsin-Madison. Los siguientes pasos se han escrito como una guía para los programadores para replicar el proceso automatizado de la aplicación web se describe.

1. Entrar Participante

  1. Instruya a los participantes a utilizar una computadora conectada a Internet y vaya a la aplicación web utilizando un navegador compatible con HTML5: http://brainandlearning.org/jove . Haga que el participante se sienta en una habitación tranquila libre de distracciones, con el ordenador a una altura cómoda.
    NOTA: Dado que todo el experimento se encuentra alojado en línea, las tareas también se pueden realizar de forma remota sin la presencia de un asistente de investigación. Todas las instrucciones para que el participante se incluyen en la aplicación web.
  2. Tener la entrada participante un identificador único que se asocia con los datos recogidos y almacenados en un databas MySQLe. Haga que el participante reutilizar este ID si las tareas en línea no se completan dentro de la misma sesión. Antes de iniciar la sesión, obtener el consentimiento del participante a través de un formulario de consentimiento vinculada de la página.
    NOTA: se guarda el progreso de un participante después de cada tarea con el fin de permitir la realización de las tareas a 2 veces por separado si es necesario. Instruya a los participantes a utilizar siempre el mismo ID con el fin de empezar donde uno dejó.

Calibración 2. Pantalla

NOTA: La aplicación web guía al participante a través de los tres pasos que se indican en la página de calibración en: http://brainandlearning.org/jove/Calibration .

  1. Pida al participante para introducir el tamaño diagonal de la pantalla en pulgadas en el cuadro de texto etiquetado.
    1. Sin embargo, si el participante no conoce esta información, tiene el participante encuentra un CD o tarjeta de crédito como un objeto de calibración (
    2. Preguntar al participante para ajustar el tamaño de la imagen de la pantalla para que coincida con el tamaño del objeto físico. Basándose en las mediciones de un CD físico (diámetro de 4,7 ") o una tarjeta de crédito (anchura de 3,2"), además de el tamaño de píxel de la imagen representativa, determinar la relación de píxeles a pulgadas de la pantalla.
    3. Recuperar la resolución de píxeles de la pantalla a través de Screen.Width y Screen.Height propiedades de JavaScript a continuación, calcular el tamaño diagonal de la pantalla en píxeles. Conociendo este valor y la relación estimada previamente de píxel a pulgadas (consulte el paso 2.1.2), convertir el tamaño diagonal de pulgadas. Haga que el participante confirmar este valor a través de un cuadro de diálogo.
  2. Preguntar al participante para ajustar la pantalla brighajustes de aptitud hasta los 12 bandas en un gradiente de blanco y negro a-aparecen en la pantalla son claramente distinguibles. Ajuste los controles de brillo varían según el equipo.
  3. Pídale al participante que se siente a un brazo de distancia de la pantalla en una posición cómoda y ajuste la ventana del navegador en modo de pantalla completa. La ventana del navegador debe estar en modo de pantalla completa para maximizar el espacio visual utilizado por las tareas y para eliminar las distracciones visuales, como la barra de herramientas del navegador y barras de tareas de escritorio.
  4. Conocer la resolución de la pantalla del participante y el tamaño diagonal de la pantalla, use la aplicación web para calcular automáticamente el valor de conversión píxeles / grado, en base a una distancia de visión de 50 cm. Cambiar el tamaño de las dimensiones de los estímulos en las tareas utilizando este valor. Todas las medidas de ángulos visuales se presentan a continuación se basan en este asumieron media distancia del monitor.
  5. Una vez completada la calibración, pida al participante para completar la describ dos tareased a continuación. Elija el orden de las tareas o asignar aleatoriamente el orden a través de la aplicación web.

3. Objeto Múltiple Supervisión de tareas (MOT) - Figura 2

  1. Introducir y familiarizar al participante con los estímulos de ITV a través de un tutorial autoguiado, vistos en: http://brainandlearning.org/jove/MOT/practice.php . Pida al participante que lea las instrucciones paso a paso que muestran cómo funcionan los ensayos. Una vez que el participante termina de leer las instrucciones, solicitará al participante que ir a través de los ensayos de práctica.
    1. Configuración de los estímulos a la práctica consisten en 8 puntos a 0,8 ° con una velocidad de desplazamiento de 2 ° / seg. Utilice el HTML5 requestAnimationFrame API para optimizar la animación navegador a una velocidad de 60 Hz con el fin de controlar este movimiento estímulo.
    2. Asegúrese de que los puntos se mueven dentro de los límites de un círculo de 2 ° excentricidad y una circle no mayor que la altura de la pantalla del participante, sin las instrucciones oscurecidas.
    3. Establecer los puntos para moverse en una trayectoria aleatoria, donde en cada marco de un punto tiene una probabilidad del 60% de cambio de dirección por un ángulo máximo de 0,2 °. Si un punto choca con otro punto o los límites radiales interiores o exteriores, mover el punto en la dirección opuesta.
    4. Preguntar a los participantes a realizar un seguimiento de los puntos azules (que varía entre 1 y 2 puntos por prueba práctica), con los puntos amarillos actuar como distractores.
    5. Después de 2 segundos, cambiar los puntos azules a puntos amarillos y continuar para moverlos entre los puntos amarillos originales para otro 4 seg. Al final de cada ensayo, deje los puntos y resaltar uno.
    6. Preguntar a los participantes a responder a través de pulsar la tecla si el punto destacado fue un punto orugas o un punto distractor. A continuación, pedirá al participante que pulsar la barra espaciadora para continuar a la siguiente prueba.
    7. Después de 3 intentos consecutivos correctos, o un máximo de 6 ensayos, move el participante en la tarea completa.
  2. Iniciar la tarea MOT completo para el participante. Un ejemplo de la tarea se puede encontrar en: http://brainandlearning.org/jove/MOT .
    1. Configuración de la tarea completa con 16 puntos que se mueven a 5 ° / seg dentro del espacio entre 2 ° y 10 ° excentricidad excentricidad. Si la pantalla del participante no puede ajustarse a un círculo de 10 ° excentricidad, usar el tamaño máximo de la pantalla puede contener en su lugar.
    2. Haga que el participante que complete un total de 45 pruebas: una mezcla de 5 ensayos, con 1 punto seguido y 10 ensayos cada uno formado por 2-5 rastreado puntos. Coincidir con todos los otros parámetros a los ensayos de práctica (véanse los pasos 3.1.3 - 3.1.6).
    3. Registre la respuesta y el tiempo de respuesta del participante una vez que se puso de relieve el punto.
    4. Por cada 15 ensayos, sugerir un descanso para el participante. En estos descansos, visualice el participante7; s rendimiento (ciento de los ensayos correctos) dentro del bloque en la pantalla.

4. Pasar de una tarea a otra (Paso opcional)

  1. Permita que el participante para tomar un descanso entre las dos tareas. Sin embargo, repita los pasos 1 y 2 si las tareas no se completan durante la misma sesión de inicio de sesión.

5. El campo de visión útil de tareas (CVU) - Figura 3

  1. Introducir y familiarizar al participante con los estímulos UFOV través de un tutorial autoguiado, vistos en: http://brainandlearning.org/jove/UFOV/practice.php . Pida al participante que pasar por 4 etapas de instrucciones paso a paso que demuestran los dos estímulos objetivo que deben ser atendidos durante la tarea.
    1. Ajuste el estímulo objetivo central, como un emoticono 1 ° que parpadea en el centro de la pantalla, ya sea con el pelo largo o corto. Selección aleatoria de lala longitud del cabello de smiley entre los ensayos.
    2. Ajuste el objetivo estímulo periférico como 1 ° estrella que destella a 4 ° excentricidad en una de las 8 localidades de todo el círculo (0 °, 45 °, 90 °, 135 °, 180 °, 225 °, 270 ° y 315 °) . Selección aleatoria de la ubicación de la estrella entre los ensayos.
    3. Control de estímulos duración a través del número de fotogramas utilizados para tiempo de presentación. Optimizar actualización del fotograma en alrededor de 17 ms por fotograma utilizando la API de HTML5 requestAnimationFrame.
    4. Para comprobar si se alcanzó el tiempo de presentación prevista, utilizar el método getTime de JavaScript () para obtener la hora de inicio y de finalización de la duración del estímulo basado en el reloj del sistema del participante. Calcular el tiempo de presentación medido a partir de estos dos valores y utilizar este valor para el análisis de datos.
    5. Para cada ensayo práctica, espere 500 milisegundos antes de mostrar los estímulos durante aproximadamente 200 milisegundos (unos 12 frames).
    6. Siga estímulo presentación con una máscara de ruido compuesto por una serie de puntos en escala de grises generadas aleatoriamente para 320 ms (aproximadamente 19 fotogramas).
    7. Para la etapa 1, sólo visualizar el objetivo central y luego solicitar al participante para responder a través de pulsación de tecla que se muestra la longitud del cabello.
    8. Para la etapa 2, sólo visualizar el objetivo periférica y luego pedir al participante que hacer clic en una de las 8 líneas radiales, en representación de los 8 posibles ubicaciones de destino, para indicar dónde apareció la estrella.
    9. Para la etapa 3, mostrar ambos estímulos objetivo central y periférico y luego solicitar al participante para proporcionar respuestas a tanto el tipo de smiley y la ubicación de la estrella.
      NOTA: Los participantes pueden elegir libremente el orden de estas dos respuestas.
    10. Para la etapa 4, mostrar ambos estímulos objetivo, además de distractores periféricos y, a continuación, pedirá al participante para responder a los estímulos objetivo. Para los distractores, visualización 1 ° plazas presentados en los 7 lugares restantes a 4 ° excentricidad, iA demás de 8 plazas más en el 2 ° excentricidad.
    11. Después de la respuesta del participante, mostrar la retroalimentación de los participantes (una marca de verificación verde para una respuesta correcta o una cruz roja para una respuesta incorrecta) para cada respuesta del objetivo después de cada ensayo.
    12. Mueva el participante en el escenario práctica siguiente después de conseguir 3 ensayos consecutivos correctos. Después de la etapa 4, mueva el participante en la tarea completa.
  2. Preguntar al participante para iniciar la tarea completa CVU. Un ejemplo de la tarea se puede encontrar en: http://brainandlearning.org/jove/UFOV .
    1. Presentar el mismo estímulo central como en la sesión de práctica (véase el paso 5.1.1). Visualizar el periférico objetivo a 7 ° excentricidad en uno de los mencionados anteriormente 8 ubicaciones (consulte el paso 5.1.2). 24 plazas distractores también se muestran en el 3 ° excentricidad, 5 ° excentricidad, y los restantes 7 °ubicaciones de excentricidad.
    2. Utilice un 3-down, procedimiento 1-up escalera para determinar el tiempo de presentación de los estímulos: disminuir la duración de los estímulos después de 3 ensayos consecutivos correctos y aumentar después de cada ensayo error.
    3. Antes de los 3 primeros reveses en la escalera, use un tamaño de paso de 2 marcos (aproximadamente cada 33 ms). Después de 3 reveses, utilice un tamaño de paso de 1 fotograma. Varíe el retraso antes de la aparición de estímulo entre 1 marco y 99 fotogramas por juicio y mantener la duración de la máscara de ruido en 320 milisegundos (unos 19 frames).
      NOTA: Los retrocesos son los puntos en los que la duración cambia ya sea de creciente a decreciente, o decreciente a creciente.
    4. Poner fin a la tarea cuando se cumple una de tres condiciones: el procedimiento escalera alcanza 8 reveses; el participante completa 10 ensayos consecutivos, ya sea en la duración de techo (99 cuadros) o la duración piso (1 cuadro); o el participante alcanza un máximo de 72 ensayos.
    5. Registre r del participanteESPUESTA y tiempo de respuesta tanto para el estímulo central y el estímulo periférico.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Eliminación de las demás

Un total de 1.779 participantes completaron la tarea CVU. De ellos, 32 participantes tuvieron umbrales UFOV que eran más de 3 desviaciones estándar de la media, lo que sugiere que no fueron capaces de realizar la tarea con las instrucciones. Como tal, los datos UFOV de estos participantes se retiraron del análisis final, dejando un total de 1.747 participantes.

Los datos fueron obtenidos a partir de 1.746 participantes para la tarea MOT. Dos participantes tenían puntuaciones medias de precisión que eran más de 3 desviaciones estándar por debajo de la media, por lo tanto los datos de estos participantes se retiraron del análisis final MOT, dejando un total de 1.744 participantes.

UFOV

Para la tarea UFOV, el rendimiento se calcula promediando el tiempo de presentación durante los últimos 5 ensayos con el fin de obtener un umbral de detección. El tiempo de presentación refleja la presentación del estímulo medido duración en la pantalla de cada participante: el tiempo desde el inicio de la primera trama de estímulo hasta el final de la última trama de estímulo se registró en milisegundos utilizando el reloj del sistema del participante. El umbral de detección refleja la duración mínima presentación en la que los participantes pueden detectar el objetivo periférico con aproximadamente el 79% de precisión, dado el uso de un 3-down, 1-up procedimiento escalera. El umbral medio UFOV era 64,7 mseg (CI SD = 53,5, 95% [62,17, 67,19]) y las puntuaciones varió de 17 mseg a 315 mseg con un umbral medio de 45 mseg (véase la Figura 4). La distribución umbral fue positivamente sesgada, con asimetría de 1.92 (SE = 0,06) y la curtosis de 3.93 (SE = 0.12).

MOT

Rendimiento MOT se midió mediante el cálculo de la precisión media (porcentaje correcto) para cada tamaño del conjunto (1 - 5). Precisión varió 0,4 a 1,0 para el tamaño Conf 1 a 0,1 a 1,0 para el tamaño del conjunto 5, y accur significaACY varió de 0,99 (IC del SD = 0,06, 95% [0.983, 0.989]) para el tamaño del conjunto 1-0,71 (IC SD = 0,17, 95% [0.700, 0.716]) para el tamaño del conjunto 5. Los precisión resultados mediana osciló entre 1,0 a 0,70 para el tamaño del conjunto 1 y 5, respectivamente (véase la Figura 5).

A medidas repetidas ANOVA se realizó para examinar si la precisión difería en función del tamaño del conjunto. Hubo un efecto principal significativo del tamaño del conjunto (F (4, 6968) = 1574.70, p <0,001, n ρ 2 = 0,475) de modo que la precisión disminuye a medida que el tamaño del conjunto aumentado, lo que demuestra un efecto típico MOT.

Figura 1
Figura 1. Pantalla de medición. Debido a que no todos los participantes en línea saber su tamaño de pantalla - o tienen fácil acceso a una medida gobernante / cinta para evaluar su tamaño de la pantalla - elproceso de calibración preguntó temas para utilizar artículos comúnmente disponibles de tamaño estándar (tarjeta de crédito - por encima; CD - abajo). Por favor, haga clic aquí para ver una versión más grande de esta figura.

Figura 2
Figura 2. MOT tareas. Los participantes vieron un conjunto de puntos en movimiento al azar. Al inicio el juicio, un subconjunto de estos puntos fue azules (objetivos), mientras que el resto eran de color amarillo (distractores). Después de 2 segundos los azules puntos de destino cambió a amarillo, haciéndolos visualmente indistinguibles de los distractores. Los participantes tuvieron que realizar un seguimiento de los mentalmente antes azules puntos de destino durante 4 segundos hasta que apareció una pantalla de respuesta. En esta pantalla uno de los puntos era blanco y el sujeto hizo un "sí (este era uno de los objetivos originales)"; o "no (esto no era uno de los objetivos originales)" decisión (con una pulsación de tecla). Haga clic aquí para ver una versión más grande de esta figura.

Figura 3
Figura 3. UFOV de tareas. La pantalla principal consistió en un estímulo central (un smiley amarillo que podría tener ya sea a corto o pelo largo), un estímulo periférico (una estrella blanca llena dentro de un círculo) y distractores periféricos (blanco esbozan cuadrados). Esta pantalla se muestra brevemente (con el tiempo determinado de forma adaptativa basada en el rendimiento de los participantes). Cuando apareció la pantalla de respuesta del participante tuvo que hacer dos respuestas: tenían que indicar (con una pulsación de tecla) si el smiley tenía el pelo largo o corto y tenían que indicar (haciendo clic) en el que de los 8 radial hablóEs el estímulo objetivo apareció. Entonces recibieron retroalimentación sobre ambas respuestas (aquí eligieron la respuesta correcta para la tarea central, pero la respuesta incorrecta para la tarea periférica). Haga clic aquí para ver una versión más grande de esta figura.

Figura 4
Figura 4. UFOV Resultados. Como se desprende de la histograma de rendimiento sujetos, no solamente podían la gran mayoría de los participantes realizan la tarea según las instrucciones (~ 1% removido por mal desempeño / valor atípico), el rendimiento promedio fue de lleno en la gama se espera de las medidas basadas laboratorio en la misma tarea exacta 9.

Figura 5
Figura 5. Resultados de ITV. En consonancia con el trabajo previo 10, exactitud MOT cayeron sin problemas con el aumento de tamaño del conjunto.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

La recolección de datos en línea tiene una serie de ventajas con respecto a la recopilación de datos basada en el laboratorio estándar. Estos incluyen la posibilidad de probar muchas más poblaciones representativas de la piscina de pregrado universitario típico utilizado en el campo, y la capacidad de obtener mucho mayores tamaños de muestras en menos tiempo de lo que se necesita para obtener tamaños de muestra que son un orden de magnitud menor en el laboratorio 1-6 (por ejemplo, los puntos de datos recogidos de más de 1.700 participantes en el actual documento se obtuvieron en menos de una semana).

Los métodos en línea descritas fueron capaces de replicar los resultados obtenidos a partir de estudios basados ​​en laboratorio realizados anteriormente: medios y rangos calculados para los umbrales UFOV y exactitud MOT en las tareas en línea fueron comparables con los resultados reportados por Dye y Bavelier 9 para la tarea UFOV y verde y Bavelier 10 para la tarea MOT. Sin embargo, la gran muestra de participantes tuvo un impacto en la distribución delos resultados, en particular en la tarea UFOV. La distribución en línea umbral UFOV era más sesgada a la derecha de los resultados obtenidos por el laboratorio anteriores 9. Esta diferencia en la inclinación se puede atribuir a la mayor diversidad de participantes reclutados en línea, sobre todo en lo que respecta a su mayor variación en la edad: la muestra en línea varió 18-70 años, mientras que la muestra de laboratorio basados ​​en el rango de 18 - 22 años 9.

Además, la recogida de datos a través de métodos en línea requiere la solución de varios problemas técnicos - especialmente cuando es necesario un estrecho control de estímulo para la validez de las medidas. Las dos tareas empleadas aquí requieren control tanto el ángulo visual de los estímulos que fueron presentados y el calendario de los estímulos. Ángulo visual en particular, puede ser difícil de controlar en los entornos en línea como su cálculo requiere conocer la distancia de visión, el tamaño del monitor, y la resolución de pantalla. Esto es particularmente problemático dado ªen muchos de los participantes en línea no puede saber el tamaño del monitor o tener fácil acceso a una cinta métrica para medir su tamaño del monitor.

Hemos elaborado una serie de medidas para superar algunas de estas cuestiones. Si bien podemos resolver perfectamente tamaño del monitor, todavía no se puede controlar con precisión la distancia de visualización real. Sugerimos a los participantes a sentarse a un brazo de distancia de la pantalla, aunque esta distancia puede variar entre los participantes. Longitud del brazo fue elegido, como los Estados Unidos los datos antropométricos indica que la diferencia en la longitud de un alcance de la mano hacia adelante (la posición en la que los participantes usarían para juzgar su distancia de la pantalla) entre hombres y mujeres adultos es pequeña, de manera que el macho mediana alcance es 63,8 cm, mientras que el alcance hembra mediana es 62,5 cm 11. Aunque el procedimiento de configuración del experimento intenta evitar introducir sesgos sexuales mediante el uso de esta medida, puede haber posibles sesgos de altura; futuros estudios que recogen los participantes y# 8217; tendría que ser llevado a cabo para evaluar esta posibilidad información de altura.

En cuanto a tiempo de estímulo, se tomaron en cuenta las discrepancias entre la duración prevista y la duración grabada de la presentación del estímulo en el cálculo de los valores de umbral. En lugar de depender de la duración prevista de presentación, que mide la duración de los marcos de estímulo mediante el reloj del sistema del participante con una precisión de milisegundos. Sin embargo, las disparidades inherentes entre monitor muestra todavía estaban presentes y no pueden ser controlados porque sin físico mediciones in situ. Es bien sabido que Liquid Crystal Displays (LCD) - el más probable supervisa nuestros participantes tienen acceso a-tener tiempos de respuesta largos que típicamente varían dependiendo de los valores de inicio y final de los cambios de luminancia de píxeles. Esta última cuestión no es una preocupación en nuestro estudio porque siempre cambiamos de el mismo nivel de fondo a los estímulos nivel. Una mayor preocupación es que varicapacidad en las pantallas a través de los participantes hace que una gran parte de la varianza medido. Creemos que esto no es un problema ya que los tiempos de respuesta de píxeles son más pequeños que 1 velocidad de cuadro (es decir, 17 ms) 12,13, que parece aceptable en comparación a la gran variabilidad individual entre en umbrales UFOV.

Los métodos empleados aquí a superar los retos antes mencionados y por lo tanto nos permitió medir el rendimiento en dos tareas - el CVU y el MOT - que ambos requieren el control de ángulo visual y pantalla de temporización propiedades. Los resultados obtenidos por estos métodos fueron consistentes con los obtenidos en la configuración estándar de laboratorio, demostrando así su validez. Además, debido a que estas tareas requieren sólo una conexión a Internet y un navegador compatible HTML 5, estas tareas se pueden emplear no sólo para recoger fácilmente una gran muestra de una población general representativa, pero también pueden utilizarse para llegar a los sub-tipos específicos de Individuals que pueden ser separadas geográficamente y por lo tanto difíciles de llevar a un entorno de laboratorio común (por ejemplo, los pacientes con un cierto tipo de enfermedad o individuos con un determinado origen étnico). Por otra parte, con el aumento de uso de iPads y otras tabletas, el diseño de la aplicación web puede ser fácilmente adaptado para una mejor compatibilidad con la tecnología de pantalla táctil con el fin de llegar a un mayor número de participantes. Mientras que la aplicación web se puede ejecutar actualmente en tabletas a través de un navegador HTML5, iteraciones futuras podrían eliminar el requisito de un teclado y reemplazar las llaves de respuesta con botones de la interfaz o gestos.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
Computer/tablet It must have an internet connection and an HTML5 compatible browser
CD or credit card May not be needed if participant already knows the monitor size

DOWNLOAD MATERIALS LIST

References

  1. Henrich, J., Heine, S. J., Norenzayan, A. The weirdest people in the world. The Behavioral And Brain Sciences. 33, 61-135 (2010).
  2. Buhrmester, M., Kwang, T., Gosling, S. D. Amazon's Mechanical Turk: A new source of inexpensive, yet high-quality, data. Perspectives on Psychological Science. 6 (1), 3-5 (2011).
  3. Goodman, J. K., Cryder, C. E., Cheema, A. Data collection in a flat world: the strengths and weaknesses of mechanical turk samples. Journal of Behavioral Decision Making. 26 (3), 213-224 (2013).
  4. Mason, W., Suri, S. Conducting behavioral research on Amazon's Mechanical Turk. Behavior Research Methods. 44 (1), 1-23 (2012).
  5. Crump, M. J., McDonnell, J. V., Gureckis, T. M. Evaluating Amazon's Mechanical Turk as a tool for experimental behavioral research. PLoS One. 8, e57410 (1371).
  6. Lupyan, G. The difficulties of executing simple algorithms: why brains make mistakes computers don't. Cognition. 129, 615-636 (2013).
  7. Ball, K., Owsley, C. The useful field of view test: a new technique for evaluating age-related declines in visual function. J Am Optom Assoc. 64 (1), 71-79 (1993).
  8. Pylyshyn, Z. W., Storm, R. W. Tracking multiple independent targets: Evidence for a parallel tracking mechanism. Spatial Vision. 3 (3), 179-197 (1988).
  9. Dye, M. W. G., Bavelier, D. Differential development of visual attention skills in school-age children. Vision Research. 50 (4), 452-459 (2010).
  10. Green, C. S., Bavelier, D. Enumeration versus multiple object tracking: The case of action video game players. Cognition. 101 (1), 217-245 (2006).
  11. Chapter 1. Kodak Company. Ergonomics Design Philosophy. Kodak’s Ergonomic Design for People at Work. Chengalur, S. N., Rodgers, S. H., Bernard, T. E. , 2nd Edition, John Wiley & Sons, Inc. Hoboken, NJ. (2004).
  12. Elze, T., Bex, P. P1-7: Modern display technology in vision science: Assessment of OLED and LCD monitors for visual experiments. i-Perception. 3 (9), 621 (2012).
  13. Elze, T., Tanner, T. G. Temporal Properties of Liquid Crystal Displays: Implications for Vision Science Experiments. PLoS One. 7 (9), e44048 (2012).

Tags

Comportamiento Número 96 comportamiento la atención visual la evaluación basada en la web la evaluación basada en computadora búsqueda visual seguimiento de objetos múltiples
Métodos para probar Visual Atención Online
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Yung, A., Cardoso-Leite, P., Dale,More

Yung, A., Cardoso-Leite, P., Dale, G., Bavelier, D., Green, C. S. Methods to Test Visual Attention Online. J. Vis. Exp. (96), e52470, doi:10.3791/52470 (2015).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter