Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Les méthodes pour tester attention visuelle en ligne

Published: February 19, 2015 doi: 10.3791/52470

Abstract

Les méthodes de collecte de données en ligne ont un attrait particulier pour les spécialistes du comportement, car ils offrent la promesse de beaucoup plus grand et beaucoup plus d'échantillons de données représentatives que peuvent généralement être recueillies sur les campus universitaires. Toutefois, avant que ces méthodes peuvent être largement adopté, un certain nombre de défis technologiques doit être surmontée - en particulier dans les expériences où un contrôle serré sur les propriétés de relance est nécessaire. Ici, nous présentons les méthodes de collecte de données de performance sur deux tests d'attention visuelle. Les deux tests nécessitent le contrôle de l'angle visuel des stimuli (qui à son tour nécessite la connaissance de la distance d'observation, la taille de l'écran, la résolution d'écran, etc.) et le calendrier des stimuli (comme les tests concernent soit brièvement flashé stimuli ou des stimuli qui se déplacent à des taux spécifiques). Les données recueillies sur ces tests de plus de 1 700 participants en ligne étaient cohérents avec les données recueillies dans les versions en laboratoire des mêmes tests exacts. Ces résultatssuggèrent que avec des soins appropriés, tâches dépendantes taille calendrier / de relance peuvent être déployés dans des environnements basés sur le Web.

Introduction

Au cours des cinq dernières années, il ya eu un regain d'intérêt dans l'utilisation des méthodes comportementales en ligne de collecte de données. Alors que la grande majorité des publications dans le domaine de la psychologie ont utilisé populations potentiellement non représentatifs thème 1 (c.-à-principalement étudiants des collèges) et de tailles souvent assez petits échantillons ainsi (ce est à dire, généralement de l'ordre de dizaines de sujets), les méthodes en ligne offrir la promesse d'échantillons beaucoup plus divers et plus. Par exemple, le service Mechanical Turk d'Amazon a fait l'objet d'un certain nombre d'études récentes, à la fois décrire les caractéristiques de la population "travailleur" et l'utilisation de cette population dans la recherche comportementale 2-6.

Toutefois, une préoccupation importante liée à ces méthodes est l'absence relative de contrôle sur les variables critiques de relance. Par exemple, dans la plupart des tâches de psychophysique visuelle, les stimuli sont décrits en termes deangle visuel. Le calcul des angles visuels nécessite des mesures précises de la distance de visualisation, taille de l'écran, et la résolution de l'écran. Bien que ces paramètres sont triviaux de mesurer et de contrôle dans un laboratoire (où il ya un moniteur connu et participants considèrent stimuli alors que dans une mentonnière placé une distance connue de l'écran), le même ne est pas vrai de la collecte de données en ligne. Dans un environnement en ligne, non seulement les participants utiliser inévitablement une grande variété de moniteurs de différentes tailles avec différents paramètres du logiciel, ils peuvent aussi ne pas avoir un accès facile aux dirigeants / mesures de bande qui leur permettrait de déterminer la taille de leur moniteur ou posséder les connaissances nécessaires pour déterminer leurs logiciels et matériels paramètres (par exemple, la fréquence de rafraîchissement, résolution).

Nous décrivons ici un ensemble de méthodes pour recueillir des données sur deux tests bien connus de l'attention visuelle - le champ de vision utile (UFOV) paradigme 7 et le suivi (MOT) tâche objets multiples (ce est à dire, la carte de crédit / CD - voir la figure 1).

Les données sur ces deux tâches ont été recueillies auprès de plus de 1700 participants à une ligne Open Course Massive. Performance moyenne de cet échantillon en ligne était très cohérent avec les résultats obtenus dans les mesures à base de laboratoire étroitement contrôlées de exactement les mêmes tâches 9,10. Nos résultats sont donc conformes à la masse croissante de documents démontrant l'efficacité des méthodes de collecte de données en ligne, même dans les tâches qui nécessitent un contrôle spécifique sur les conditions de visualisation.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Le protocole a été approuvé par le comité d'examen institutionnel à l'Université de Wisconsin-Madison. Les étapes suivantes ont été écrit comme un guide pour les programmeurs de reproduire le processus automatisé de l'application Web décrit.

1. Connectez-vous Participant

  1. Demandez au participant d'utiliser un ordinateur connecté à Internet et accédez à l'application Web en utilisant un navigateur compatible HTML5: http://brainandlearning.org/jove . Demandez le participant se asseoir dans une salle tranquille, sans distractions, avec l'ordinateur à une hauteur confortable.
    NOTE: Depuis toute l'expérience est hébergé en ligne, les tâches peuvent également être effectuées à distance sans la présence d'un assistant de recherche. Toutes les instructions pour le participant sont inclus dans l'application Web.
  2. Avoir l'entrée des participants un identifiant unique qui sera associée avec les données collectées et stockées dans un databas MySQLe. Demandez le participant utiliser ce ID si les tâches en ligne ne sont pas terminées dans la même session. Avant de vous connecter, obtenir le consentement du participant par l'intermédiaire d'un formulaire de consentement liée sur la page.
    REMARQUE: les progrès d'un participant est enregistrée après chaque tâche afin de permettre l'achèvement des deux tâches à des moments différents si nécessaire. Demandez au participant d'utiliser toujours le même ID pour commencer là où il se était arrêté.

2. Etalonnage de l'écran

NOTE: L'application Web guide le participant à travers les trois étapes décrites dans la page d'étalonnage à: http://brainandlearning.org/jove/Calibration .

  1. Demandez au participant à l'entrée de la diagonale de l'écran en pouces dans le champ marqué.
    1. Toutefois, si le participant ne sait pas cette information, ont le participant trouver un CD ou carte de crédit comme un objet d'étalonnage (
    2. Demander le participant pour ajuster la taille de l'image de l'écran en fonction de la taille de l'objet physique. Sur la base des mesures d'un CD physique (diamètre de 4,7 ") ou d'une carte de crédit (largeur de 3,2") en plus de la taille des pixels de l'image représentative, déterminer le rapport de pixels à pouces pour l'écran.
    3. Récupérer la résolution en pixels de l'écran via screen.width et screen.height les propriétés de JavaScript pour calculer ensuite la diagonale de l'écran en pixels. Connaître cette valeur et le ratio estimé précédemment pixel-à-pouce (voir l'étape 2.1.2), convertir la diagonale en pouces. Demandez au participant de confirmer cette valeur par une boîte de dialogue.
  2. Demander aux participants de régler le brigh écranparamètres de tness 12 jusqu'à ce que toutes les bandes dans un gradient de noir à blanc affichées sur l'écran se distinguent clairement. Luminosité contrôles de réglage varient par ordinateur.
  3. Demandez au participant de se asseoir à une longueur de bras à côté du moniteur dans une position confortable, puis réglez la fenêtre du navigateur en mode plein écran. La fenêtre du navigateur doit être en mode plein écran pour maximiser l'espace visuel utilisé par les tâches et d'éliminer toutes les distractions visuelles, telles que la barre d'outils de navigateur et les barres des tâches de bureau.
  4. Connaître la résolution de l'écran du participant et la diagonale de l'écran, utilisez l'application Web pour calculer automatiquement la valeur de conversion pixels / degré, basée sur une distance d'observation de 50 cm. Redimensionner les dimensions des stimuli dans les tâches à l'aide de cette valeur. Toutes les dimensions de l'angle visuel rapportées ci-dessous sont basés sur ce supposé valeur moyenne du moniteur à distance.
  5. Une fois l'étalonnage est terminé, demander au participant de remplir les deux tâches described ci-dessous. Choisissez l'ordre des tâches ou assigner au hasard l'ordre via l'application web.

3. Multiple Object Tracking Groupe (MOT) - Figure 2

  1. Introduire et familiariser le participant avec les stimuli MOT travers un didacticiel auto-guidé, vus à: http://brainandlearning.org/jove/MOT/practice.php . Demandez au participant de lire les instructions étape-par-étape qui démontrent comment les essais vont travailler. Une fois que le participant a fini de lire les instructions, invite le participant à passer par les essais pratiques.
    1. Configurez les stimuli de pratique pour se composent de huit points à 0,8 ° avec une vitesse de déplacement de 2 ° / sec. Utilisez le HTML5 requestAnimationFrame API pour optimiser l'animation du navigateur à un taux de 60 Hz de cadre pour contrôler ce mouvement de relance.
    2. Se assurer que les points se déplacent dans les limites d'un cercle de 2 ° excentricité et un circle pas plus grand que la hauteur de l'écran du participant, sans les instructions obscurcies.
    3. Définissez les points pour se déplacer dans une trajectoire aléatoire, où à chaque image un point a une chance de changer de direction par un angle maximum de 0,2 ° de 60%. Si un point entre en collision avec un autre point ou les limites radiales intérieures ou extérieures, déplacer le point dans la direction opposée.
    4. Demander aux participants de suivre les points bleus (variant entre 1 et 2 points par essai de la pratique), avec les points jaunes agissant comme distracteurs.
    5. Après 2 secondes, changer les points bleus à points jaunes et de continuer à les déplacer parmi les points jaunes originaux pour un autre 4 sec. À la fin de chaque essai, arrêter les points et mettre en évidence une.
    6. Demander aux participants de répondre par appuyer sur la touche si le point était mis en évidence un point chenilles ou un point de distraction. Ensuite, invite le participant à appuyer sur la barre d'espace pour continuer sur le prochain procès.
    7. Après trois essais consécutifs corrects, ou un maximum de six essais, move le participant sur la tâche complète.
  2. Lancer la tâche MOT complète pour le participant. Un exemple de la tâche peut être trouvé à: http://brainandlearning.org/jove/MOT .
    1. Configuration de la tâche complète avec 16 points qui se déplacent à 5 ° / sec à l'intérieur de l'espace compris entre 2 ° et 10 ° excentricité excentricité. Si l'écran du participant ne peut pas se adapter à un cercle de 10 ° d'excentricité, utiliser la taille maximale de l'écran peut contenir à la place.
    2. Demandez au participant de compléter un total de 45 essais: un mélange de cinq essais consistant en une dot suivis et 10 essais chacun consistant en 2-5 points suivis. Correspondre à tous les autres paramètres à des essais pratiques (voir les étapes 3.1.3 - 3.1.6).
    3. Enregistrez la réponse et la réponse du temps du participant une fois que le point est mis en évidence.
    4. Pour toutes les 15 essais, suggérer une pause pour le participant. Lors de ces pauses, afficher le participantLa performance du (des essais corrects pour cent) dans le bloc à l'écran; 7.

4. Passer d'une tâche à l'autre (Facultatif)

  1. Permettre aux participants de prendre une pause entre les deux tâches. Cependant, répétez les étapes 1 et 2 si les tâches ne sont pas achevées au cours de la même session de connexion.

5. Useful Field of View Groupe (UFOV) - Figure 3

  1. Introduire et familiariser le participant avec les stimuli UFOV travers un didacticiel auto-guidé, vus à: http://brainandlearning.org/jove/UFOV/practice.php . Demandez au participant de passer par quatre étapes d'instructions étape-par-étape qui démontrent les deux stimuli cibles qui doivent être pris en charge au cours de la tâche.
    1. Réglez le stimulus central cible comme une ° smiley qui clignote au centre de l'écran soit avec cheveux longs ou courts. Aléatoire lala longueur des cheveux de smiley entre les essais.
    2. Réglez le stimulus cible périphérique comme une étoile 1 ° qui clignote à 4 ° excentricité à l'un des huit endroits autour du cercle (0 °, 45 °, 90 °, 135 °, 180 °, 225 °, 270 ° et 315 °) . Aléatoire l'emplacement de l'étoile entre les essais.
    3. Contrôle des stimuli via durée nombre d'images utilisées pour le temps de présentation. Optimiser cadre rafraîchissement à environ 17 ms par image en utilisant l'API HTML5 requestAnimationFrame.
    4. Pour vérifier si le temps de présentation attendu a été atteint, utiliser la méthode getTime de JavaScript () pour obtenir un temps de début et de fin du temps de la durée de relance basé sur l'horloge système du participant. Calculer le temps de présentation mesurée à partir de ces deux valeurs et utiliser cette valeur pour l'analyse des données.
    5. Pour chaque essai de la pratique, attendre 500 ms avant d'afficher les stimuli pour environ 200 ms (environ 12 cadres).
    6. Suivez relance présentation avec un masque de bruit composé d'une matrice de points en niveaux de gris généré aléatoirement pour 320 ms (environ 19 cadres).
    7. Pour la phase 1, ne affiche que l'objectif central et demandera alors au participant de répondre par appuyer sur la touche dont la longueur des cheveux a été affiché.
    8. Pour la phase 2, ne affiche que la cible périphérique et demandera alors au participant de cliquer sur l'un des huit lignes radiales, représentant les huit emplacements cibles possibles, pour indiquer où l'étoile brillait.
    9. Pour l'étape 3, afficher les deux stimuli cibles centrales et périphériques, puis invite le participant à fournir des réponses à la fois le type de smiley et l'emplacement de l'étoile.
      NOTE: Les participants peuvent choisir librement l'ordre de ces deux réponses.
    10. Pour l'étape 4, afficher les deux stimuli cibles en plus de distracteurs périphériques, puis invite le participant à répondre à deux stimuli cibles. Pour les distracteurs, affichage 1 ° carrés présentés aux sept emplacements restants à 4 ° excentricité, in plus de 8 autres places à 2 ° excentricité.
    11. Après la réponse du participant, montrer les évaluations des participants (une coche verte pour une réponse correcte ou une croix rouge pour une réponse incorrecte) pour chaque réponse cible après chaque essai.
    12. Déplacez le participant sur la scène de la pratique suivante après avoir obtenu trois essais consécutifs corrects. Après l'étape 4, déplacer le participant sur la tâche complète.
  2. Demander le participant pour démarrer la tâche complète UFOV. Un exemple de la tâche peut être trouvé à: http://brainandlearning.org/jove/UFOV .
    1. Présenter le même stimulus central dans la séance d'essais (voir l'étape 5.1.1). Affichez le périphérique cible à 7 ° excentricité à l'un des huit emplacements mentionnés précédemment (voir point 5.1.2). 24 carrés distracteurs sont également affichées à 3 ° excentricité, 5 ° excentricité, et les 7 ° restantsemplacements d'excentricité.
    2. Utiliser un 3-bas, une procédure en place escalier pour déterminer le temps de présentation des stimuli: diminuer la durée des stimuli après trois essais consécutifs corrects et augmenter après chaque essai d'erreur.
    3. Avant les trois premières reprises dans l'escalier, utiliser une taille de pas de deux cadres (environ toutes les 33 ms). Après trois reprises, utiliser une taille de pas d'une trame. Varier le retard avant le début de relance entre une trame et 99 images par procès, et de garder la durée de masque de bruit à 320 msec (environ 19 cadres).
      REMARQUE: Les reprises sont les points où la durée modifie de façon significative à la diminution de l'augmentation ou diminution à une augmentation.
    4. Terminer la tâche lorsque l'une des trois conditions est remplie: la procédure d'escalier atteint huit reprises; le participant remplit 10 essais consécutifs soit à la durée de plafond (99 trames) ou la durée de plancher (1 trame); ou le participant atteint un maximum de 72 essais.
    5. Enregistrez r du participantÉPONSE et temps de réponse pour les deux stimulus central et le stimulus périphérique.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Retrait des valeurs aberrantes

Un total de 1 779 participants ont terminé la tâche UFOV. De ce nombre, 32 participants avaient seuils UFOV qui étaient plus de 3 écarts-types de la moyenne, ce qui suggère qu'ils ne ont pas pu effectuer la tâche en suivant les instructions. En tant que tel, les données UFOV de ces participants ont été retirés de l'analyse finale, laissant un total de 1747 participants.

Les données ont été obtenues à partir de 1 746 participants pour la tâche de MOT. Deux participants avaient le score moyen de précision qui étaient plus de trois écarts-types en dessous de la moyenne, ainsi les données de ces participants ont été retirés de l'analyse finale de MOT, laissant un total de 1744 participants.

UFOV

Pour la tâche UFOV, le rendement a été calculé en faisant la moyenne du temps de présentation au cours des cinq derniers essais afin d'obtenir un seuil de détection. Le temps de présentation reflète la présentation du stimulus de mesure duration sur l'écran de chaque participant: le temps depuis le début de la première image de relance jusqu'à la fin de la dernière image de relance a été enregistré en millisecondes en utilisant l'horloge système du participant. Le seuil de détection reflète la durée minimale de présentation au cours de laquelle les participants peuvent détecter le périphérique cible avec environ 79% de précision, étant donné notre utilisation d'un trois-bas, 1-up procédure d'escalier. Le seuil moyen UFOV était 64,7 ms (SD = 53,5, IC à 95% [62,17, 67,19]) et les scores variait de 17 ms à 315 ms avec un seuil médian de 45 ms (voir Figure 4). La distribution de seuil était positivement asymétrique, avec asymétrie de 1,92 (SE = 0,06) et l'aplatissement de 3,93 (SE = 0,12).

MOT

performances MOT a été mesurée en calculant la précision moyenne (pour cent correct) pour chaque taille de jeu (1-5). Précision variait de 0,4 à 1,0 pour voir la taille 1 à 0,1 - 1,0 pour taille de l'ensemble 5, et signifie AccurAcy variait de 0,99 (SD = 0,06, IC à 95% [0,983, 0,989]) pour voir la taille de 1 à 0,71 (SD = 0,17, IC à 95% [0,700, 0,716]) pour voir la taille 5. Les scores médians de précision allaient de 1,0 à 0,70 pour voir la taille 1 et 5 respectivement (voir figure 5).

A l'analyse de variance à mesures répétées a été menée pour examiner si la précision diffère en fonction de la taille de l'ensemble. Il y avait un effet principal significatif de la taille de jeu (F (4, 6968) = 1574,70, p <0,001, n ρ 2 = 0,475) tels que la précision diminué en taille de l'ensemble augmenté, démontrant un effet typique MOT.

Figure 1
Figure 1. Mesure de l'écran. Parce que tous les participants en ligne connaître leur taille de l'écran - ou avoir un accès facile à une mesure règle / bande pour évaluer leur taille de l'écran - laprocessus d'étalonnage demandé sujets d'utiliser articles couramment disponibles de taille standard (carte de crédit - ci-dessus; CD - ci-dessous). Se il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 2
Figure 2. MOT Groupe. Les participants ont visionné un ensemble de points se déplaçant au hasard. Au début de procès, un sous-ensemble de ces points était bleu (cibles), tandis que le reste étaient jaunes (distracteurs). Après 2 sec les points cibles bleus changé en jaune, les rendant impossible à distinguer visuellement les distracteurs. Les participants devaient suivre mentalement les points cibles autrefois bleus pendant 4 secondes jusqu'à ce qu'un écran de réponse est apparu. Sur cet écran, l'un des points était blanc et le sujet fait un «oui (ce était l'un des objectifs initiaux)"; ou "non (ce ne était pas l'un des objectifs initiaux)" décision (avec une touche). Se il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 3
Figure 3. UFOV Groupe. L'écran principal se composait d'un stimulus central (un smiley jaune qui pourrait avoir à court ou à cheveux longs), un stimulus périphérique (une étoile blanche remplie intérieur d'un cercle) et distracteurs périphériques (blanc décrites carrés). Cet écran a été brièvement flashé (avec le calendrier déterminé adaptative basée sur la performance des participants). Lorsque l'écran de réponse est apparu le participant a dû faire deux réponses: ils devaient indiquer (avec une touche) si le smiley avait les cheveux longs ou courts, et ils ont eu à indiquer (en cliquant) sur lequel des huit radiale parléest le stimulus cible est apparu. Ils ont ensuite reçu des commentaires sur les deux réponses (ici, ils ont choisi la bonne réponse pour la tâche centrale, mais la réponse incorrecte pour la tâche périphérique). Se il vous plaît cliquer ici pour voir une version plus grande de cette figure.

Figure 4
Figure 4. Résultats UFOV. Comme il ressort de l'histogramme de la performance du sujet, non seulement pourraient la grande majorité des participants effectuent la tâche conformément aux instructions (~ 1% retiré pour mauvaise performance / valeur aberrante), la performance moyenne était carrément dans la gamme attendu de mesures fondées sur le laboratoire sur la même tâche exacte neuf.

Figure 5
Figure 5. Résultats de la MOT. Conformément aux travaux antérieurs 10, l'exactitude MOT tombés en douceur avec l'augmentation de la taille du jeu.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

La collecte de données en ligne a un certain nombre d'avantages par rapport collection standard de données en laboratoire. Il se agit notamment de la possibilité d'échantillonner les populations beaucoup plus représentatif que le collège typique piscine cycle utilisé dans le domaine, et la capacité à obtenir des tailles beaucoup plus d'échantillons en moins de temps qu'il ne faut pour obtenir des tailles d'échantillons qui sont un ordre de grandeur plus petite dans le laboratoire 6.1 (par exemple, les points de données recueillies à partir de 1,700+ participants dans le présent document ont été obtenus en moins d'une semaine).

Les méthodes en ligne décrites ont pu reproduire les résultats obtenus à partir d'études basées en laboratoire menées précédemment: les moyens et les plages calculées pour seuils UFOV et la précision de la MOT dans les tâches en ligne ont été comparables aux résultats rapportés par Dye et Bavelier 9 pour la tâche UFOV et Green et Bavelier 10 pour la tâche de MOT. Cependant, le grand échantillon des participants at-il eu un impact sur la répartition desles résultats, en particulier dans la tâche UFOV. La distribution de seuil en ligne UFOV était plus asymétrique à droite que les résultats en fonction de laboratoire précédentes 9. Cette différence en biais peut être attribuée à la plus grande diversité de participants recrutés en ligne, en particulier en ce qui concerne leur plus grande variation dans l'âge: l'échantillon en ligne variait de 18 à 70 ans, tandis que l'échantillon en laboratoire variait de 18 à 22 ans 9.

En outre, la collecte de données par l'intermédiaire de méthodes en ligne ne nécessite résoudre plusieurs défis techniques - en particulier quand un contrôle étroit de relance est nécessaire pour la validité des mesures. Les deux tâches employées ici tenus contrôle à la fois l'angle visuel des stimuli qui ont été présentés et le calendrier des stimuli. Angle visuel en particulier, peut être difficile à contrôler dans les paramètres en ligne que son calcul nécessite de connaître la distance de visualisation, la taille de l'écran, et la résolution de l'écran. Cela est particulièrement problématique étant donné ede nombreux participants en ligne peuvent ne pas savoir la taille de leur moniteur ou avoir un accès facile à un ruban à mesurer pour mesurer la taille de leur écran.

Nous avons élaboré une série de mesures pour surmonter certaines de ces questions. Alors que nous pouvons parfaitement régler la taille de l'écran, nous ne pouvons pas contrôler précisément la distance de vue réelle. Nous suggérons aux participants de se asseoir à une longueur de bras à côté du moniteur, bien que cette distance peut varier entre les participants. Longueur du bras a été choisi, comme US données anthropométriques indique que la différence de longueur d'une portée de bras vers l'avant (la position dans laquelle les participants utilisent pour juger de leur distance de l'écran) entre mâles et femelles adultes est faible, de sorte que le mâle médian portée est 63,8 cm tandis que la portée des femmes médian est de 62,5 cm 11. Bien que la procédure de configuration de l'expérience tente d'éviter d'introduire des biais sexuels en utilisant cette mesure, il peut y avoir des biais potentiels de hauteur; les études futures qui recueillent participants &# 8217; informations de hauteur devrait être menée pour évaluer cette possibilité.

En ce qui concerne le calendrier de relance, nous avons pris en compte les écarts entre durée prévue et la durée enregistrée de la présentation du stimulus lors du calcul des valeurs de seuil. Plutôt que de compter sur la durée de présentation attendue, nous avons mesuré la durée des cadres de relance à l'aide de l'horloge système du participant à la milliseconde près. Toutefois, les disparités entre inhérents moniteur affiche étaient toujours présents et ne peuvent pas être contrôlés sans physique des mesures in situ. Il est bien connu que Liquid Crystal Displays (LCD) - surveille les plus susceptibles de nos participants ont accès à des temps de réponse longs qui varient généralement en fonction des valeurs de début et de fin des changements pixel de luminance. Cette dernière question ne est pas une préoccupation dans notre étude car nous avons toujours changé du même niveau de fond au stimulus niveau. Une plus grande préoccupation est que varicapacité à travers affichages participants provoque une grande partie de la variance mesurée. Nous croyons que ce ne est pas un problème car les temps de réponse de pixel sont généralement inférieures à 1 taux de trame (ce est à dire, 17 msec) 12,13, ce qui semble acceptable en comparaison de la grande variabilité interindividuelle des seuils UFOV.

Les méthodes employées ici à surmonter les défis susmentionnés et donc nous ont permis de mesurer les performances sur deux tâches - l'UFOV et la MOT - qui exigent tous deux le contrôle de l'angle visuel et propriétés de l'écran de synchronisation. Les résultats obtenus par ces méthodes étaient en accord avec ceux obtenus dans les paramètres de laboratoire standard, démontrant ainsi leur validité. En outre, parce que ces tâches nécessitent seulement une connexion Internet et un navigateur compatible HTML5, ces tâches peuvent être utilisés non seulement pour recueillir facilement un large échantillon d'une population généralement représentatives, mais peuvent également être utilisés pour atteindre des sous-types spécifiques de individuals qui peuvent être séparés géographiquement et donc difficiles à porter à un laboratoire commun (par exemple, les patients atteints d'un certain type de maladie ou d'individus avec une certaine origine ethnique). En outre, avec la hausse de l'utilisation du iPad et autres tablettes, la conception de l'application Web pourrait facilement être adapté pour une meilleure compatibilité avec la technologie de l'écran tactile afin d'atteindre un plus grand nombre de participants. Bien que l'application Web peut actuellement fonctionner sur des tablettes via un navigateur HTML5, les futures itérations pourraient supprimer l'exigence d'un clavier et remplacer les clés de réponse avec des boutons de l'interface ou des gestes.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
Computer/tablet It must have an internet connection and an HTML5 compatible browser
CD or credit card May not be needed if participant already knows the monitor size

DOWNLOAD MATERIALS LIST

References

  1. Henrich, J., Heine, S. J., Norenzayan, A. The weirdest people in the world. The Behavioral And Brain Sciences. 33, 61-135 (2010).
  2. Buhrmester, M., Kwang, T., Gosling, S. D. Amazon's Mechanical Turk: A new source of inexpensive, yet high-quality, data. Perspectives on Psychological Science. 6 (1), 3-5 (2011).
  3. Goodman, J. K., Cryder, C. E., Cheema, A. Data collection in a flat world: the strengths and weaknesses of mechanical turk samples. Journal of Behavioral Decision Making. 26 (3), 213-224 (2013).
  4. Mason, W., Suri, S. Conducting behavioral research on Amazon's Mechanical Turk. Behavior Research Methods. 44 (1), 1-23 (2012).
  5. Crump, M. J., McDonnell, J. V., Gureckis, T. M. Evaluating Amazon's Mechanical Turk as a tool for experimental behavioral research. PLoS One. 8, e57410 (1371).
  6. Lupyan, G. The difficulties of executing simple algorithms: why brains make mistakes computers don't. Cognition. 129, 615-636 (2013).
  7. Ball, K., Owsley, C. The useful field of view test: a new technique for evaluating age-related declines in visual function. J Am Optom Assoc. 64 (1), 71-79 (1993).
  8. Pylyshyn, Z. W., Storm, R. W. Tracking multiple independent targets: Evidence for a parallel tracking mechanism. Spatial Vision. 3 (3), 179-197 (1988).
  9. Dye, M. W. G., Bavelier, D. Differential development of visual attention skills in school-age children. Vision Research. 50 (4), 452-459 (2010).
  10. Green, C. S., Bavelier, D. Enumeration versus multiple object tracking: The case of action video game players. Cognition. 101 (1), 217-245 (2006).
  11. Chapter 1. Kodak Company. Ergonomics Design Philosophy. Kodak’s Ergonomic Design for People at Work. Chengalur, S. N., Rodgers, S. H., Bernard, T. E. , 2nd Edition, John Wiley & Sons, Inc. Hoboken, NJ. (2004).
  12. Elze, T., Bex, P. P1-7: Modern display technology in vision science: Assessment of OLED and LCD monitors for visual experiments. i-Perception. 3 (9), 621 (2012).
  13. Elze, T., Tanner, T. G. Temporal Properties of Liquid Crystal Displays: Implications for Vision Science Experiments. PLoS One. 7 (9), e44048 (2012).

Tags

Comportement Numéro 96 Comportement l'attention visuelle l'évaluation basée sur le Web l'évaluation par ordinateur la recherche visuelle suivi d'objets multiples
Les méthodes pour tester attention visuelle en ligne
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Yung, A., Cardoso-Leite, P., Dale,More

Yung, A., Cardoso-Leite, P., Dale, G., Bavelier, D., Green, C. S. Methods to Test Visual Attention Online. J. Vis. Exp. (96), e52470, doi:10.3791/52470 (2015).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter