Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Regard en Action : Head-mounted Eye Tracking d’Attention visuelle dynamique de l’enfant au cours de comportement naturaliste

Published: November 14, 2018 doi: 10.3791/58496

Summary

Jeunes enfants ne font pas passivement observer le monde, mais plutôt activement Explorer et engager avec leur environnement. Ce protocole prévoit des principes directeurs et des recommandations pratiques pour l’utilisation des trackers visiocasques oeil pour enregistrer des nourrissons et des tout-petits environnements visuels dynamiques et attention visuelle dans le contexte du comportement naturel.

Abstract

Environnements visuels pour jeunes enfants sont dynamiques, changeant de chaque instant comme enfants physiquement et visuellement explorent des espaces et objets et interagissent avec les gens autour d’eux. Visiocasques oculométrique offre une occasion unique pour capturer les enfants dynamiques vues égocentriques et comment ils affectent l’attention visuelle au sein de ces points de vue. Ce protocole prévoit des principes directeurs et des recommandations pratiques pour les chercheurs qui utilisent des traqueurs de visiocasques oeil en laboratoire et des réglages plus naturalistes. Visiocasques oculométrique vient compléter les autres méthodes expérimentales en améliorant les possibilités de collecte de données dans des contextes plus écologiquement valides par le biais de portabilité accrue et de la liberté des mouvements de tête et le corps par rapport à oculométrique axée sur l’écran. Ce protocole peut également être intégré avec d’autres technologies, telles que le suivi de mouvement et rythme cardiaque suivi, afin de fournir un ensemble de données multimodal à haute densité pour examiner le comportement naturel, d’apprentissage et le développement qu’auparavant. Cet article illustre les types de données issues des visiocasques oculométrique dans une étude visant à examiner l’attention visuelle dans un cadre naturel pour les tout-petits : fluide jouet jouer avec un parent. Bonne utilisation de ce protocole permettra aux chercheurs de recueillir des données qui peuvent être utilisées pour répondre à des questions non seulement sur l’attention visuelle, mais aussi sur un large éventail d’autres habiletés perceptives, cognitives et sociales et leur développement.

Introduction

Ces dernières décennies ont vu un intérêt croissant pour l’étude du développement des nourrissons et des tout-petits attention visuelle. Cet intérêt a découlé en grande partie de l’utilisation de la recherche temporelle comme principal moyen d’évaluer d’autres fonctions cognitives dans la petite enfance et a évolué dans l’étude de l’attention visuelle infantile à part entière. Investigations contemporaines des nourrissons et des tout-petits attention visuelle mesurent principalement les mouvements des yeux lors de tâches d’oculométrie axée sur l’écran. Les bébés assis dans une chaise ou sur les genoux du parent devant un écran pendant que leurs mouvements oculaires sont surveillés lors de la présentation d’images statiques ou d’événements. Ces tâches, cependant, ne pas saisir la nature dynamique de l’attention visuelle naturelle et les moyens par lesquels sont générés environnements visuels naturels de l’enfant - exploration active.

Nourrissons et enfants en bas âge sont des créatures actives, déplaçant leurs mains, tête, yeux et organes à explorer les objets, personnes et les espaces autour d’eux. Chaque nouveau développement dans la morphologie du corps, motricité et comportement - ramper, marcher, ramasser des objets, s’engager avec les partenaires sociaux - s’accompagne de changements concomitantes dans l’environnement visual précoce. Parce que les bébés faire détermine ce qu’ils voient, et ce qu’ils voient sert pour ce qu’ils font en action visuellement guidée, étudiant le développement naturel de l’attention visuelle s’effectue mieux dans le contexte du comportement naturel1.

Visiocasques oeil trackers (ETs) ont été inventés et utilisés pour les adultes pour des décennies2,3. Seulement récemment ont avancées technologiques visiocasques oculométrie technologie appropriée pour les nourrissons et les tout-petits. Participants sont équipés de deux caméras légers sur la tête, une caméra de la scène vers l’extérieur qui capte la perspective du participant à la première personne et un appareil d’oeil vers l’intérieur qui saisit l’image de le œil. Une procédure d’étalonnage fournit des données de la formation à un algorithme qui correspond aussi exactement que possible le changement de la position de l’élève et le reflet cornéen (CR) dans l’image de le œil aux pixels correspondants à l’image de la scène qui ont été fréquentée visuellement. L’objectif de cette méthode consiste à capturer les deux milieux visuels naturels d’exploration visuelle active nourrissons et enfants en bas âge de ces environnements comme les nourrissons librement. Ces données peuvent aider à répondre à des questions non seulement sur l’attention visuelle, mais aussi sur un large éventail de développements perceptives, cognitives et sociales4,5,6,7,8. L’utilisation de ces techniques a transformé les compréhensions d’attention conjointe7,8,9, une attention soutenue10, changer des expériences visuelles avec l’âge et le développement de la motricité4 , 6 , 11et le rôle des expériences visuelles dans word apprentissage12. Le présent document fournit des principes directeurs et des recommandations pratiques pour mener à bien les visiocasques oculométrie expériences avec des nourrissons et des tout-petits et illustre les types de données qui peuvent être générées de visiocasques oculométrique dans un naturel contexte pour les tout-petits : fluide jouet jouer avec un parent.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Ce tutoriel est basé sur une procédure de collecte de données de suivi oculaire visiocasques aux tout-petits, approuvés par la Commission de révision institutionnelle à l’Université de l’Indiana. Consentement éclairé des parents a été obtenu avant la participation à l’expérience de chasuble.

1. préparation de l’étude

  1. Eye-Tracking Equipment. Sélectionnez l’une des plusieurs visiocasques oculométrie systèmes qui sont disponibles dans le commerce, soit une commercialisés plus spécifiquement pour les enfants ou de modifier le système fonctionne avec une casquette pour bébé sur mesure, par exemple, tel qu’illustré dans les Figures 1 et 2. S’assurer que le système de suivi oculaire a les dispositifs nécessaires pour tester les nourrissons ou enfants en bas âge en procédant comme suit :
    1. Sélectionnez une caméra de la scène qui est réglable en termes de positionnement et a un assez large angle de capturer un champ de vision appropriée pour aborder les questions de recherche. Pour capturer la plupart de l’activité enfant dans un cadre de jeu libre comme celle décrite ici, sélectionnez une caméra qui capte un champ de vision diagonal d’au moins 100 degrés.
    2. Sélectionnez une caméra eye qui est réglable en termes de positionnement et intègre une LED infrarouge soit intégré dans la caméra ou adjacentes à la caméra et positionné de telle manière que la cornée de le œil reflétera cette lumière. Notez que certains modèles d’oculométrie ont fixé de positionnement, mais les modèles que permettre des ajustements souples sont recommandés.
    3. Choisir un système de suivi du regard qui est aussi discret et léger que possible fournir le plus de chance que les bébés/bambins tolérera porter l’équipement.
      1. Intégrer le système dans un plafond en attachant les caméras de la scène et l’oeil à une sangle Velcro qui est apposée sur le côté opposé du Velcro cousu sur la PAC, et le positionnement des caméras hors Centre de vue de l’enfant en bas âge.
        Remarque : Les systèmes conçus pour être semblable à lunettes ne sont pas optimales. La morphologie du visage de l’enfant en bas âge est différente de celle d’un adulte et pièces qui reposent sur le nez ou les oreilles de l’enfant en bas âge peuvent être source de distraction et inconfortable pour le participant.
      2. Si l’ET est connecté à un ordinateur, regroupez les câbles et garder leur dos du participant pour éviter la distraction ou de trébucher. Vous pouvez également utiliser un système autonome qui stocke les données sur un appareil intermédiaire, tel qu’un téléphone mobile, qui peut être placé sur l’enfant, ce qui permet une plus grande mobilité.
    4. Sélectionner un package de logiciel de calibration qui permet pour l’étalonnage en mode hors connexion.
  2. Environnement d’enregistrement.
    1. Examiner l’étendue à laquelle l’enfant se déplace dans tout l’espace au cours de la collecte de données. Si une seule position est préférable, le mentionner à fournisseur de soins de l’enfant donc ils peuvent aider l’enfant à rester à l’endroit désiré. Retirez tous les distracteurs possibles de l’espace à l’exception de ceux de que l’enfant doit interagir avec, qui devrait être à portée de main.
    2. Utiliser une caméra de troisième-personne pour aider à la codification ultérieure du comportement de l’enfant ainsi que pour identifier des moments quand la ET peut devenir déplacé. Si l’enfant se déplace dans tout l’espace, tenir compte aussi bien des caméras supplémentaires.

2. collecter les données de l’Eye-Tracking.

  1. Personnel et activité. Avoir deux expérimentateurs présents, d’interagir avec et d’occuper l’enfant et un pour placer et insérer le ET.
    1. Participer pleinement l’enfant à une activité qui occupe les mains de l’enfant afin que l’enfant ne pas atteindre jusqu'à déplacer ou prenez le ET alors qu’il est mis sur leur tête. Examiner les jouets qui encouragent les interventions manuelles et petits livres que l’enfant peut tenir alors que l’expérimentateur ou lit de la mère à l’enfant.
  2. Placer le ET sur l’enfant. Parce que la tolérance de la chasuble de porter le visiocasques ET varie, suivez ces recommandations pour favoriser la réussite en plaçant et en conservant la ET sur l’enfant :
    1. Dans la période précédant l’étude, demander soignants d’avoir leur usure enfant un bonnet ou bonnet, semblable à ce qui est utilisé avec le He, à la maison pour obtenir les habitués à avoir quelque chose sur leur tête.
    2. À l’étude, ont différents types de capuchons disponibles auxquels le ET peut être attaché. Personnaliser casquettes en achat de différentes tailles et styles de casquettes, tel qu’une casquette qui peut être portée vers l’arrière ou un bonnet avec des oreilles animales et en ajoutant les Velcro auquel le système de suivi oculaire, monté avec le côté opposé de la Velcro, peut être attaché. Également envisager de faire des chapeaux pour être porté par le soignant et les expérimentateurs, afin d’encourager l’intérêt de l’enfant et la volonté de porter aussi un bonnet.
      1. Avant de mettre le cap sur l’enfant, ont un expérimentateur désensibiliser le bambin à la main à la tête de toucher légèrement les cheveux plusieurs fois lorsque l’attention et l’intérêt de l’enfant en bas âge est dirigé vers un jouet.
    3. Pour placer le ET sur l’enfant, être derrière ou à côté de l’enfant (voir la Figure 2A). Placez le ET sur l’enfant lorsque les mains sont occupées, comme quand l’enfant tient un jouet dans chaque main.
      1. Si l’enfant se tourne vers l’expérimentateur plaçant l’ET, dire Bonjour et informez l’enfant ce qui est fait tout en procédant à placer rapidement la ET sur la tête de l’enfant. Évitez de trop lentement tout en mettant le ET, ce qui peut causer la détresse de l’enfant et peut conduire à mauvais positionnement comme l’enfant a plus de chances à bouger leur tête ou à atteindre pour le ET.
      2. Pour réduire le temps passé à régler la caméra après le placement, avant de placer le ET sur le participant, définir les caméras leur position prévue quand à la tête de l’enfant (voir les Sections 2.3.1 et 2.3.2).
  3. Position du ET scène et caméras. Une fois la ET sur la tête de l’enfant, effectuer des réglages sur la position des caméras scène et oculaires tout en contrôlant le flux vidéo de ces caméras :
    1. Position approximative de la caméra de scène faible sur le front au meilleur champ de vision de l’enfant (voir Figure 1B) ; Centrez la scène caméra vue sur ce que l’enfant étudiera au cours de l’étude.
      1. N’oubliez pas que les mains et les objets qui s’est tenues seront toujours très proche de l’enfant et faible selon l’appareil photo de scène, tandis que les autres objets seront dans le fond et plus dans la vue de caméra de scène. Positionner la caméra de la scène pour mieux capter le type d’affichage plus pertinent à la question de recherche.
      2. Tester la position de la caméra de la scène en attirant l’attention de l’enfant vers des emplacements spécifiques dans leur champ de vision à l’aide d’un pointeur laser ou jouet petit. S’assurer que ces endroits sont à l’attendu la distance de visualisation des régions qui seront d’intérêt au cours de l’étude (voir Figure 3).
      3. Évitez d’inclinaison en vérifiant que les surfaces horizontales apparaissent Appartement à la scène vue de caméra. Marquer l’orientation verticale de la caméra de la scène pour atténuer la possibilité de la caméra s’inversée par inadvertance pendant le repositionnement, mais note que des mesures supplémentaires au cours de post-traitement peuvent revenir les images à la bonne orientation si nécessaire.
    2. Pour obtenir des données de haute qualité regard, positionner la caméra eye pour détecter l’élève et le reflet cornéen (CR) (voir la Figure 2).
      1. Positionner la caméra eye afin qu’il soit centré sur la pupille de l’enfant, avec aucune occlusion par joues ou cils tout au long de la gamme complète de le œil du mouvement (voir la Figure 2A-C pour obtenir des exemples d’images du bon et du mauvais œil). Pour vous aider avec ceci, placez la caméra eye sous l’oeil, près de la joue, pointant vers le haut, en gardant la caméra hors Centre de vue de l’enfant. Vous pouvez également positionner la caméra eye ci-dessous et sur le côté extérieur de l’oeil, pointe vers l’intérieur.
      2. Veiller à ce que la caméra est assez proche de le œil que son mouvement produit un déplacement relativement important de la pupille dans l’image oeil de la caméra.
      3. Éviter le tilt en veillant à ce que les coins de le œil à l’image de le œil peuvent former une ligne horizontale (voir Figure 2C).
      4. Veiller à ce que le contraste de la pupille et l’iris est relativement élevé, afin que l’élève peut distinguer avec précision d’iris (voir Figure 2C). Pour vous aider avec ceci, ajustez la position de la lumière de LED (si à côté de la caméra eye) ou la distance de la caméra de le œil de le œil (si la LED n’est pas réglable séparément). Pour la détection de l’élève accrue, positionner le voyant à un angle et pas directement dans le œil. N’oubliez pas que tous les ajustements à la lumière de LED produisent toujours un CR claire (voir Figure 2C).
  4. Obtenir des Points au cours de l’étude pour l’étalonnage en mode hors connexion.
    1. Une fois que les images de la scène et les yeux sont comme de haute qualité comme ils peuvent être, des données d’étalonnage virés en attirant l’attention de l’enfant à différents endroits dans leur champ de vision.
      1. Obtenir des points d’étalonnage sur différentes surfaces avec n’importe quoi qui dirige clairement l’attention de l’enfant à un petit point clair dans leur champ de vision (voir Figure 3). Par exemple, utiliser un pointeur laser contre un arrière-plan Uni, ou une surface avec des petites lumières LED activées indépendamment.
      2. Limiter la présence d’autres cibles intéressantes en vue de l’enfant pour s’assurer que l’enfant regarde les cibles d’étalonnage.
    2. Alterner entre attirant l’attention sur les différents endroits qui nécessitent de grands déplacements angulaires de le œil.
      1. Couvre le champ de vision à la fois et ne bougent pas trop vite entre les points, ce qui vont aidera à trouver les saccades clairs de l’enfant lors de l’étalonnage en mode hors connexion afin d’en déduire quand ils ont regardé à l’emplacement suivant.
      2. Si l’enfant ne ressemble pas immédiatement vers le nouvel emplacement mis en surbrillance, attirer leur attention vers l’emplacement en remuant le laser, tournant Eteindre/Allumer les LEDs ou toucher l’emplacement avec un doigt.
      3. Si possible, obtenir plus de points d’étalonnage que nécessaire dans le cas où certains se pour révéler inutilisable par la suite.
    3. N’oubliez pas que la position du corps de l’enfant lors de l’étalonnage correspond à la position qui sera utilisée lors de l’étude.
      1. Par exemple, ne recueillent pas points d’étalonnage lorsque l’enfant est assis si il est prévu que les enfants seront plus tard debout.
      2. Veiller à ce que la distance entre l’enfant et les cibles d’étalonnage est similaire à la distance entre l’enfant et les régions qui seront d’intérêt au cours de l’étude.
      3. Ne placez pas de points d’étalonnage très proche de corps de l’enfant si, pendant l’expérience, l’enfant sera principalement être Regardez les objets qui sont plus loin. Si on s’intéresse à des objets proches ou lointaines, envisager d’obtenir deux ensembles différents de points d’étalonnage qui plus tard peut être utilisé pour créer des calibrages uniques pour chaque distance de visualisation (pour plus d’informations, voir la Section 3.1).
        NOTE : Binoculaire oculométrique est une technologie en développement13,14 , que les promesses avancées dans suivi regard en profondeur.
    4. Pour tenir compte du drift ou mouvement de la ET au cours de l’étude, cumulez des points d’étalonnage au début et à la fin de l’étude au minimum. Si c’est possible, collecter des points de réglage supplémentaire à intervalles réguliers au cours de la session.
  5. Surveiller les flux vidéo ET et troisième personne au cours de l’étude.
    1. Si le ET obtient la cognée ou mal aligné en raison d’autres mouvements/actions, prenez note du moment dans l’étude de ce qui s’est passé parce qu’il peut être nécessaire de recalibrer et coder les parties de l’étude, avant et après la bosse/désalignement, séparément (voir point 3.1.1).
    2. Si possible, interrompre l’étude après chaque bosse/alignement pour repositionner les caméras de scène et des yeux (voir la Section 2.3), puis obtenir de nouveaux points d’étalonnage (voir la Section 2.4).

3. après l’étude, étalonner les données ET en utilisant le logiciel de Calibration.

Remarque : Une variété de logiciels de calibration sont disponibles dans le commerce.

  1. Pensez à créer plusieurs étalonnages. Personnaliser les points d’étalonnage pour différents segments vidéo pour maximiser la précision de la piste de regard en alimentant ne pas les données de l’algorithme incorrectement correspondent pas.
    1. Si le ET a changé de position à tout moment au cours de l’étude, créer des étalonnages distincts pour les parties avant et après le changement de position ET.
    2. Si intéressé par attention aux objets à une distance d’affichage très différents, créer des étalonnages distincts pour les parties de la vidéo où l’enfant est à la recherche d’objets à chaque distance. Gardez à l’esprit que les différences dans la distance de visualisation peut être créée par des fluctuations dans l’attention visuelle de l’enfant entre très près et varier les objets extrême, mais aussi par des changements dans la position du corps de l’enfant par rapport à un objet, tel que passer d’assis à debout.
  2. Chaque étalonnage. Établir le mappage entre le œil et scène en créant une série de points d’étalonnage - points dans l’image de la scène vers laquelle le regard de l’enfant est clairement dirigée pendant ce laps. Notez que le logiciel d’étalonnage peut extrapoler et interpoler le point du regard (POG) dans toutes les trames à partir d’un ensemble de points d’étalonnage uniformément dispersée à travers l’image de la scène.
    1. Aider le logiciel d’étalonnage dans la détection de l’élève et le CR dans chaque image de la caméra eye vidéo pour s’assurer que le programme de bon gouvernement identifié est fiable. Dans les cas où le logiciel ne peut pas détecter le CR fiable et uniforme, utiliser l’élève seule (note, cependant, que la qualité des données vont souffrir en conséquence).
      1. Obtenir une image de bon œil dans les cadres de caméra eye en ajustant les seuils de l’étalonnage de divers paramètres de détection du logiciel, qui peuvent inclure : la luminosité de l’image de le œil, la taille de la pupille le logiciel attend et un rectangle englobant qui définit la limites d’où le logiciel va chercher de l’élève. Dessiner le cadre englobant aussi petit que possible tout en veillant à ce que l’élève reste à l’intérieur de la boîte dans l’ensemble de la gamme complète de le œil du mouvement. Sachez qu’une plus grande boîte englobante qui englobe l’espace qui l’élève occupe jamais augmente la probabilité de détection de faux élève et peut causer des petits mouvements de la pupille pour être détecté moins précise.
      2. Sachez que, même après ajustement des seuils de détection du logiciel, le logiciel peut localiser encore parfois à tort l’élève ou CR ; par exemple, si l’élève s’étendent sur cils.
    2. Trouver des points de bon étalonnage basés sur les images caméra scène et oculaires. Notez que les meilleurs points d’étalonnage fournies au logiciel sont ceux dont l’élève et CR sont correctement détectés, le œil est solidement fixé sur un point clairement identifiable dans l’espace à l’image de la scène, et les points sont réparties sur toute la gamme de l’image de la scène.
      1. Veiller à ce que la détection de l’élève est exacte pour chaque trame dans laquelle un point d’étalonnage est tracé, afin que tant valide XY scène coordonnées et valide XY élève sont introduits dans l’algorithme.
      2. Lors du premier passage au calibrage, identifier les points d’étalonnage à des moments où l’enfant est résolument tournés vers un point distinct dans l’image de la scène. Gardez à l’esprit que ceux-ci peuvent être des points créés intentionnellement par l’expérimentateur au cours de la collecte de données, par exemple avec un pointeur laser (voir la Figure 3A-B), ou ils peuvent être des points de l’étude dans laquelle le programme de bon gouvernement est facilement identifiable (voir Figure 3C), tant que l’élève est détectée avec précision pour ces cadres.
      3. Pour trouver des moments de regard plus extrême XY scène image coordonnées, de parcourir les images de caméra oeil pour trouver les moments avec détection précise élève quand le œil de l’enfant est à sa position la plus extrême XY.
    3. Faire plusieurs « passes » pour chaque étalonnage de manière itérative perfectionner sur l’étalonnage plus précis possible. Notez qu’après avoir terminé une première « passe » à l’étalonnage, de nombreux logiciels permettra la suppression des points précédemment utilisés sans perdre la piste courante (par exemple en forme de croix). Sélectionner un nouvel ensemble de points d’étalonnage pour former l’algorithme à partir de zéro, mais avec l’aide supplémentaire de la piste POG générée par le col de calibrage précédent, permettant de progressivement augmenter la précision de l’étalonnage par progressivement « nettoyer » tout bruit ou inexactitudes introduites par des passes précédentes.
  3. Évaluation de la qualité de l’étalonnage en observant comment bien le programme de bon gouvernement correspond aux emplacements de regard connus, tels que les points produits par un pointeur laser lors de l’étalonnage et reflète la direction et l’amplitude des saccades de l’enfant. Évitez d’utiliser les points pour évaluer la qualité d’étalonnage qui servaient également de points durant le processus d’étalonnage.
    1. N’oubliez pas que parce que les enfants chefs et les yeux est généralement alignées et une piste précise cela reflétera l’attention visuelle de l’enfant est le plus souvent dirigée vers le centre de l’image de la scène. Pour évaluer l’égocentrisme de la piste, tracer les coordonnées POG XY image par image dans l’image de scène générés par l’étalonnage (voir Figure 4). Confirmer que les points soient plus dense dans le centre de l’image de la scène et distribuées symétriquement, sauf dans les cas où la caméra de la scène n’était pas centrée sur le centre de champ l’enfant lorsque initialement positionné.
    2. Notez que certains logiciels d’étalonnage va générer des scores ajustement linéaires et/ou homographies qui reflètent la précision d’étalonnage. N’oubliez pas que ces scores sont utiles dans une certaine mesure, puisque, s’ils sont pauvres, la piste aussi sera probablement médiocre. Toutefois, n’utilisez pas de scores fit comme la principale mesure de précision d’étalonnage puisqu’elles reflètent le degré auquel les points de calibration choisie d’accord avec eux-mêmes, qui ne fournit aucune information sur l’ajustement de ces points à l’emplacement de vérité au sol du programme.
    3. N’oubliez pas qu’il y a des moments dans l’étude que l’objectif du regard est facilement identifiable et donc peut être utilisé comme une vérité au sol. Calculer la précision en degrés d’angle visuel en mesurant l’erreur entre des cibles connues de regard et le viseur POG (erreur en pixels de l’image vidéo peut être approximativement convertie en degrés basés sur les caractéristiques de la lentille de la caméra de la scène)4.

4. code de régions d’intérêt (ROIs).

Remarque : Le codage de ROI est l’évaluation des données POG pour déterminer quelle région visuellement un enfant fréquente à pendant un moment donné. Retour sur investissement peut être codé avec haute précision et haute résolution à partir des données du programme de bon gouvernement image par image. La sortie de ce codage est un flot de points de données - un point par image vidéo - indiquant la région de POG au fil du temps (voir Figure 5A).

  1. Avant de commencer le codage du ROI, dresser une liste de tous les ROIs qui doivent être codés basés sur les questions de recherche. Sachez que les ROIs qui ne sont pas nécessaires pour répondre à la recherche de codage questions rend codage inutilement fastidieux.
  2. Principes de codage du ROI.
    1. N’oubliez pas que codage réussie exige renonçant hypothèses du codeur sujet où l’enfant doit être à la recherche et à la place un examen attentif de chaque trame oeil image, image de la scène et POG calculée. Par exemple, même si un objet est tenu par l’enfant et est très important dans l’image de la scène pour une trame particulière, ne pas déduire que l’enfant cherche à cet objet à ce moment, sauf s’il est également indiqué par la position des yeux. Notez que les ROIs indiquent quelle région l’enfant est foveating, mais ne pas capturer l’information visuelle complète l’enfant prend en.
    2. Utilisez l’oeil image, image de la scène et piste POG pour déterminer quel retour sur investissement est fréquentée visuellement à.
      1. Utiliser la piste POG comme guide, et non comme réalité-terrain. Bien qu’idéalement la piste POG permettra d’indiquer clairement l’emplacement exact contemplé par l’enfant pour chaque trame, sachez que ce ne sera pas toujours le cas en raison de la nature (2D) dimensions 2 de l’image de la scène par rapport à la nature 3D du monde réel vu par le chil d et la variation de la justesse de la calibration entre les participants.
        1. N’oubliez pas que la piste POG calculée est une estimation basée sur un algorithme de calibration et que la fiabilité de la piste POG pour une trame particulière dépend donc comment bien l’élève et les CR sont détectés ; Si un ou les deux ne sont pas détectés ou sont incorrectes, la voie du programme de bon gouvernement ne sera pas fiable.
          Remarque : Parfois, le viseur sera toujours hors-cible par une distance fixe. Des logiciels plus récents peuvent permettent de corriger par le calcul de cette divergence. Dans le cas contraire, un chercheur qualifié peut faire la correction manuellement.
      2. Utiliser le mouvement de la pupille à l’image de le œil comme le signal primaire que le ROI a peut-être changé.
        1. Défiler les images une par une en regardant l’image de le œil. En cas d’un mouvement visible de l’oeil, vérifier si l’enfant se déplace à leur programme de bon gouvernement pour un nouveau ROI ou aucun ROI défini.
        2. Notez que pas tous les mouvements des yeux indiquent un changement de ROI. Si le retour sur investissement constitue une grande région d’espace (par exemple, un objet près), garder à l’esprit cet œil petit mouvement peut refléter un coup d’oeil vers un nouvel emplacement au sein du même ROI. De même, n’oubliez pas que les mouvements des yeux peuvent se produire car l’enfant suit un retour sur investissement mobile unique, ou comme un enfant qui se déplace la tête déplace également leurs yeux de maintenir le regard sur le même retour sur investissement.
        3. Notez qu’avec certains ETs l’image de le œil est une image miroir de le œil de l’enfant, auquel cas si le œil se déplace vers la gauche qui doit correspondre à un déplacement vers la droite de la scène.
    3. Parce que la piste POG sert uniquement de guide, faire utiliser des données contextuelles disponibles aussi bien pour guider les décisions de codage.
      1. Intégrer l’information provenant de sources différentes ou cadres lors du codage de ROI. Même si le retour sur investissement est codée séparément pour chaque trame, utilisent des images avant et après le frame en cours pour obtenir des informations contextuelles qui peuvent aider à déterminer le retour sur investissement correct. Par exemple, si la piste POG est absent ou incorrect pour une trame donnée en raison de la détection de mauvais élève, mais l’oeil ne bougea pas basé sur les images précédentes et suivantes dans lequel l’élève a été correctement détecté, puis ignorer la piste POG pour cette image et coder la ba de la ROI sed sur les cadres environnants.
      2. Prendre d’autres décisions spécifiques aux questions de recherche des utilisateurs.
        1. Par exemple, faire un protocole pour savoir comment le code retour sur investissement lorsque deux ROIs sont très proches les uns des autres, auquel cas il peut être difficile de déterminer quel est le retour sur investissement « correcte ». Dans les cas où l’enfant semble être fixer à la jonction de la deux ROIs, décider s’il faut coder les deux ROIs en même temps ou s’il faut formuler un ensemble de règles de décision pour savoir comment sélectionner et affecter uniquement une des catégories ROI.
        2. Titre d’exemple supplémentaire, quand un objet d’intérêt est tenu telles qu’une main est obstruant l’objet, décider coder le programme comme un retour sur investissement pour la main ou un retour sur investissement de l’objet qui a eu lieu.
  3. Code de retour sur investissement pour la fiabilité. Mettre en œuvre une fiabilité codage procédure après que le retour sur investissement initial protocole de codage est terminée. Il y a beaucoup de différents types de procédures de codage de fiabilité disponible ; Choisissez la procédure plus pertinente basée sur les questions de recherche spécifiques.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

La méthode décrite ici a été appliquée à un contexte de jeu jouet fluide entre les tout-petits et leurs parents. L’étude visait à évaluer l’attention visuelle naturelle dans un environnement encombré. Dyades devaient jouer librement avec un ensemble de 24 jouets pendant six minutes. Attention visuelle des tout-petits a été mesurée par l’apparition de codage et offset de recherche spécifique régions d’intérêt (ROIs)--chacun de 24 jouets et visage du parent--et en analysant la durée et la proportion de regarder le temps de chaque ROI. Les résultats sont visualisées à la Figure 5.

Figure 5 A montre le flux de retour sur investissement d’échantillon pour deux enfants de 18 mois. Chaque bloc coloré dans les ruisseaux représentant des cadres continus dans lequel l’enfant regardait un ROI particulier. Les yeux-regard données obtenues montrent un certain nombre de propriétés intéressantes d’attention visuelle naturelle.

Tout d’abord, les enfants montrent les différences individuelles dans leur sélectivité pour les différents sous-ensembles de jouets. Figure 5 B montre la proportion de l’interaction de 6 minutes que chaque enfant a passé en regardant chacun des 10 ROIs jouets sélectionnés. Bien que la proportion totale de 1 enfant et enfant 2 passé en regardant jouets (y compris tous les ROIs de jouet 24) était assez semblable, 0,76 et 0,87, respectivement, des proportions du temps consacré aux jouets individuels varient beaucoup, l’intérieur et entre les sujets.

Comment ces proportions de regarder le temps ont été réalisés également différaient selon les enfants. Figure 5 C indique la durée moyenne de chaque enfant de regards à chacun des 10 ROIs jouets sélectionnés. La durée moyenne de regards à 24 tous les ROIs de jouet pour enfant 2 (M = 2,38 s, SD = 2.20 s) était presque deux fois aussi longue que celle de l’enfant 1 (M = 1,20 s, SD = 0,78 s). En comparant les modèles de la recherche pour le hochet coccinelle rouge (barres de violets) dans la Figure 5B, C illustre pourquoi les mesures de recherche multiples, tels que les proportions et la durée de la recherche, l’informatique est important pour une compréhension complète des données ; la même proportion de regarder ce jouet a été obtenue pour ces enfants par le biais de différents numéros de regards de différentes durées.

Une autre propriété témoigne de ces données est que les deux enfants rarement paru au visage de leurs parents : les proportions du visage à la recherche d’enfant 1 et 2 de l’enfant étaient.015 et disponibles.003, respectivement. En outre, la durée de regards de ces enfants au visage de leurs parents étaient courtes, sur moyenne 0.79 s (SD = 0,39 s) et 0,40 s (SD = 0,04 s) pour 1 enfant et enfant 2, respectivement.

Figure 1
Figure 1 . Visiocasques oculométrique employés dans trois contextes différents : (A) jeu de table jouet, jeu jouet (B) à l’étage et (C) lecture d’un livre photo. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 2
Figure 2 . Mise en place du système d’oculométrie visiocasques. (A) un chercheur, un traqueur d’oeil de positionnement sur un nourrisson. (B) un traqueur d’oeil bien placés sur un nourrisson. (C) bon oeil image avec grand élève centré et claire reflet cornéen (CR). (D, E, F) Exemples d’images de mauvais oeil. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 3
Figure 3 . Trois façons d’obtenir des points d’étalonnage. Deux vues de chaque instant sont indiquées ; dessus : vue à la troisième personne, en bas : vue première personne de l’enfant. Flèches dans la vue troisième personne illustrent la direction d’un faisceau laser. Insertion de type boîtes en haut à droite de spectacle de vue de l’enfant des images de bon oeil à chaque instant, utilisée pour l’étalonnage et le réticule rose montrent point de regard basé sur l’étalonnage terminé. (A) point d’étalonnage généré par un expérimentateur à l’aide d’un doigt et pointeur laser pour attirer l’attention vers un objet sur le sol. Point de Calibration (B) généré par un expérimentateur à l’aide d’un pointeur laser pour attirer l’attention de points sur une surface. (C) point d’étalonnage pendant jouet jouer avec un parent dans lequel l’attention de l’enfant est dirigée vers un objet qui a eu lieu. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 4
Figure 4 . Parcelles d’exemple utilisées pour évaluer la qualité de la calibration. Points individuels représentent point XY image par image de regard (POG) coordonnées dans l’image de la caméra de scène, tel que déterminé par l’algorithme de calibration. (A) qualité bon calibrage pour une expérience de jeu jouet enfant, indiquée par la densité à peu près circulaire de POG qui est centrée et faible (POG est généralement dirigée légèrement vers le bas quand regardant jouets de l’enfant tient l’enfant) et à peu près uniformément POG distribuée dans l’image de la caméra de scène restants. (B) la qualité mauvaise calibration, indiquée par densité allongée et inclinée de POG qui est décentré et POG mal répartie dans l’image de la caméra de scène restants. (C) étalonnage mauvaise qualité et/ou mauvais positionnement initial de la caméra de la scène, indiquée par POG décentrée. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 5
Figure 5 . Deux enfants yeux-regard données et statistiques. (A) échantillon ROI transmet pour enfant 1 et 2 de l’enfant pendant 60 s de l’interaction. Chaque bloc coloré dans les ruisseaux représentant des cadres continus dans lequel l’enfant regardait un retour sur investissement pour un jouet précis ou le visage du parent. Espace blanc représentant des cadres dans lesquels l’enfant ne regarde pas tout la ROIs. (B) la Proportion de temps à regarder son visage et 10 jouets ROIs, pour les deux enfants. Pourcentage a été calculé en additionnant les durées de tous les regards à chaque ROI et en divisant la durée cumulée lors de la session total de 6 minutes. (C) durée de regards sur le visage du parent et les jouets dix ROIs, moyenne pour les deux enfants. La durée moyenne a été calculée en faisant la moyenne des durées de regards individuels à chaque ROI lors de l’interaction de 6 minutes. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Ce protocole prévoit des principes directeurs et recommandations pratiques pour la mise en œuvre de visiocasques oculométrique nourrissons et jeunes enfants. Ce protocole repose sur l’étude des comportements naturels bambin dans le contexte de jeu parent-enfant en bas âge avec des jouets dans un environnement de laboratoire. Logiciel et matériel d’oculométrie interne ont été utilisés pour l’étalonnage et le codage des données. Néanmoins, ce protocole vise à être généralement applicable aux chercheurs qui utilisent une variété de systèmes d’oculométrie visiocasques pour étudier une variété de sujets dans le développement infantile. Bien que l’utilisation optimale du présent protocole impliquera l’étude spécifique couture, l’adoption de ces pratiques générales ont conduit à une utilisation fructueuse de ce protocole dans une variété de contextes (voir Figure 1), y compris la simultanée visiocasques oculométrique parents et tout-petits7,8,9,10, et oeil visiocasques suivi des populations cliniques, y compris les enfants avec implant cochléaire15 et enfants atteints du spectre autistique troubles de16,17.

Ce protocole prévoit de nombreux avantages pour étudier le développement d’une variété de compétences naturelles et les comportements. La liberté de mouvement de tête et le corps qui ETs visiocasques permettent aux chercheurs de donne la possibilité de capturer les environnements visuels autoproduite des participants et leur exploration active de ces environnements. La portabilité des ETs visiocasques améliore la capacité de chercheurs pour recueillir des données dans des contextes plus écologiquement valables. En raison de ces avantages, cette méthode fournit une alternative à temps à la recherche axée sur l’écran et méthodes oculométrie pour étudier le développement sur plusieurs domaines tels que l’attention visuelle, l’attention sociale et intégration perceptuelle-motrice et complète et occasionnellement défis les chercheurs d’inférences peuvent dessiner en utilisant des méthodes expérimentales plus traditionnelles. Par exemple, le protocole décrit ici augmente l’occasion aux participants d’exposer les différences individuelles en regardant le comportement, parce que les participants aient contrôle pas seulement plus où et pour combien de temps ils concentrent leur attention visuelle dans une scène, comme dans sur écran oculométrique, mais aussi sur la composition de ces scènes à travers leurs yeux, la tête et la gestuelle et de la manipulation physique des éléments dans l’environnement. Les données des deux participants présentées ici montrent les différences individuelles dans combien de temps les tout-petits look et ce qui tout petits objets déguster quand ils sont en mesure de créer et explorer leur environnement visuel activement. En outre, les données présentées ici, ainsi que d’autres études utilisant ce protocole, suggèrent que dans le jeu naturaliste jouet avec leurs parents, les tout-petits regard au visage de leurs parents beaucoup moins que suggéré par la précédente recherche4,5 ,7,8,9,10.

Malgré ces avantages, visiocasques oculométrique avec nourrissons et enfants en bas âge pose un certain nombre de défis méthodologiques. Le plus important défi est d’obtenir un bon calibrage. Parce que l’image de la scène n’est qu’une représentation 2D du monde 3D qui a été effectivement vu, une correspondance parfaite entre la position de le œil et l’emplacement de la scène regardait est impossible. En suivant les directives fournies dans le présent protocole, le mappage peut devenir fiable proche de la vérité « au sol », toutefois une attention particulière devrait être accordée aux questions de plusieurs. Tout d’abord, la liberté de mouvement de tête et le corps autorisé par visiocasques oculométrique aussi moyen que jeunes participants bosse souvent le système de suivi du regard. Il s’agit d’un problème parce que tout changement dans la position physique de le œil par rapport à le œil ou scène caméras changera le mappage entre l’élève/CR et les pixels correspondants a assisté à l’image de la scène. Effectuer des étalonnages distinctes pour ces parties de l’étude est donc crucial, car faute de quoi se traduira par un algorithme qui ne suit le regard de l’enfant avec précision pour une partie de l’étude, si un seul des points lors d’une partie sont utilisées pour calibrer. Deuxième une détection précise des CR et élève l’enfant sont essentiels. Si un point de calibration de l’image de la scène est tracé alors que la pupille est incorrectement détectée ou pas détectée du tout, alors l’algorithme soit apprend à associer les coordonnées XY d’étalonnage à l’image de la scène à une coordonnée x-y de mauvais élève, ou la algorithme est alimenté données vides dans le cas où l’élève n’est pas détectée du tout. Ainsi, si bonne détection n’est pas atteint pour un segment de l’étude, qualité d’étalonnage pour ces cadres est pauvre et ne devrait pas faire confiance pour le codage de POG. En troisième lieu, parce que les chefs pour l’enfance et les yeux est généralement alignées, attention visuelle est plus souvent dirigée vers le centre de l’image de la scène. Néanmoins, XY extrême points d’étalonnage à l’image de la scène sont également nécessaires pour créer une piste de regard précis dans l’ensemble de l’image de l’ensemble de la scène. Ainsi, bien que les points d’étalonnage on choisira généralement à des moments lorsque le œil est stable sur un objet, ce n'est pas possible pour les points d’étalonnage dans les quatre coins de l’image de la scène. Enfin, n’oubliez pas que même quand on obtient une image de bon oeil et étalonne le système, cela ne garantit pas que les données sont d’une qualité suffisante pour les analyses prévues. Différences dans des facteurs individuels tels que de la physiologie de le œil, ainsi que des facteurs environnementaux tels que l’éclairage et en oculométrie matérielles et logicielles peuvent tous influencer la qualité des données et sont susceptibles de créer des décalages ou des inexactitudes dans les données. 18 , 19 fournir plus d’informations et, éventuellement de solutions pour ces questions (voir aussi Franchak 201720).

Travailler avec les bébés et les tout-petits aussi implique le défi d’assurer la tolérance de la tête-monté ET tout au long de la session. Employant les recommandations contenues dans le présent protocole, conçu pour être utilisé avec les enfants d’environ 9 à 24 mois d’âge, un laboratoire peut obtenir qualité visiocasques oculométrie données d’environ 70 % des participants ont20. Les autres 30 % des participants peut commencer pas non plus de l’étude en raison de l’intolérance du Traqueur d’oeil ou agitation de l’étude avant que des données suffisantes (par exemple, > 3-5 minutes de jeu) avec un bon oeil la piste peut être obtenu. Le succès de 70 % des nourrissons et des tout-petits participants, ces sessions généralement dernière pour plus de 10 minutes, cependant beaucoup sessions plus longues peuvent être infaisables avec les technologies actuelles, selon l’âge du participant et la nature de la tâche dans laquelle le participant s’engage. Lors de la conception de l’environnement et le travail de recherche, chercheurs devraient garder à l’esprit l’état de développement des participants, comme capacité moteur, les capacités cognitives et le développement social, y compris le sentiment de sécurité autour des étrangers, peuvent de toute influence durée d’attention et capacité d’exécuter la tâche prévue des participants. Utilisant ce protocole avec les enfants beaucoup plus jeunes que 9 mois comportera également des défis pratiques supplémentaires telles que l’étayage des nourrissons qui ne peuvent pas encore se reposent sur leurs propres, mais aussi l’examen de la morphologie de l’oeil et de la physiologie, par exemple de la disparité binoculaire, qui diffèrent de celle du plus vieux enfants et adultes19,21. De plus, ce protocole est plus réussi lorsque effectué par les expérimentateurs formés expérimentés, qui peuvent limiter la gamme des environnements dans lesquels les données peuvent être collectées. Les expérimentateurs de pratique plus ont, plus ils seront en mesure d’effectuer l’expérience en douceur et recueillir des données de suivi oculaire de haute qualité.

Visiocasques oculométrique peut également poser le défi supplémentaire de codage de données, processus long relativement plus. C’est parce que, dans le but de trouver des ROIs, visiocasques oculométrie données sont mieux codées image par image que par « fixations » d’attention visuelle. Autrement dit, fixations sont identifiées lorsque le taux de changement dans les coordonnées de l’image par image XY POG est faible, considéré comme une indication que les yeux sont stables sur un point. Cependant, parce que la vue de la scène depuis un tracker visiocasques oeil se déplace avec la tête du participant et les mouvements du corps, position de le œil peut seulement être précisément mappée à un emplacement physique étant foveated en examinant comment les yeux sont déplacent par rapport à la tête et les mouvements du corps. Par exemple, si un participant déplace la tête et les yeux ensemble, plutôt que de leurs yeux seulement, les coordonnées x-y POG au sein de la scène peuvent rester inchangées même et un participant scanne une pièce ou un objet en mouvement des pistes. Ainsi, « fixations » d’attention visuelle ne peut pas être facilement et précisément déterminées à partir uniquement les données du programme de bon gouvernement. Pour plus d’informations sur les questions liées à l’identification des fixations en données oculométrique visiocasques, veuillez consulter autres travaux15,22. Codage manuellement les données image par image pour ROI peut exiger de temps supplémentaire par rapport au codage des fixations. Comme référence, il a fallu des codeurs hautement qualifiés entre 5 et 10 minutes pour coder manuellement pour ROI chaque minute des données présentées ici, qui ont été recueillis à 30 images par seconde. Le temps requis pour le codage est très variable et dépend de la qualité de le œil suivi de données ; la taille, nombre et circonstancielles visuelle des cibles ROI ; l’expérience du codeur ; et l’outil d’annotation utilisée.

Malgré ces défis, ce protocole peut être flexible adapté à un éventail d’environnements contrôlés et naturalistes. Ce protocole peut également être intégré avec d’autres technologies, telles que le suivi de mouvement et rythme cardiaque suivi, afin de fournir un ensemble de données multimodal à haute densité pour examiner le comportement naturel, d’apprentissage et le développement qu’auparavant. Progrès continus visiocasques oculométrie technologiques seront sans aucun doute atténuer les nombreux défis actuels et fournir des frontières encore plus grande pour les types de questions de recherche qui peuvent être résolues à l’aide de cette méthode.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Les auteurs déclarent qu’ils n’ont pas d’intérêts opposés ou contradictoires.

Acknowledgments

Cette recherche a été financée par les National Institutes of Health, subventions R01HD074601 (c), T32HD007475-22 (J.I.B., D.H.A.) et F32HD093280 (L.K.S.) ; National Science Foundation grant BCS1523982 (L.B.S., C.Y.) ; et par l’Université de l’Indiana par le biais de l’Initiative de recherche zone émergente - apprentissage : cerveau, Machines et les enfants (L.B.S.). Les auteurs remercient les enfants et parents bénévoles qui ont participé à cette recherche et qui ont accepté d’être utilisés dans les figures et tournage du présent protocole. Nous remercions également les membres de la Cognition computationnelle et laboratoire d’apprentissage, surtout Sven Bambach, Chen Anting, Steven Elmlinger, Seth Foster, Grace Lisandrelli et Charlene Tay, pour leur aide dans l’élaboration et le rodage de ce protocole.

Materials

Name Company Catalog Number Comments
Head-mounted eye tracker Pupil Labs World Camera and Eye Camera

DOWNLOAD MATERIALS LIST

References

  1. Tatler, B. W., Hayhoe, M. M., Land, M. F., Ballard, D. H. Eye guidance in natural vision: Reinterpreting salience. Journal of Vision. 11 (5), 1-23 (2011).
  2. Hayhoe, M. Vision using routines: A functional account of vision. Visual Cognition. 7 (1-3), 43-64 (2000).
  3. Land, M., Mennie, N., Rusted, J. The Roles of Vision and Eye Movements in the Control of Activities of Daily Living. Perception. 28 (11), 1311-1328 (1999).
  4. Franchak, J. M., Kretch, K. S., Adolph, K. E. See and be seen: Infant-caregiver social looking during locomotor free play. Developmental Science. 21 (4), 12626 (2018).
  5. Franchak, J. M., Kretch, K. S., Soska, K. C., Adolph, K. E. Head-mounted eye tracking: a new method to describe infant looking. Child Development. 82 (6), 1738-1750 (2011).
  6. Kretch, K. S., Adolph, K. E. The organization of exploratory behaviors in infant locomotor planning. Developmental Science. 20 (4), 12421 (2017).
  7. Yu, C., Smith, L. B. Hand-Eye Coordination Predicts Joint Attention. Child Development. 88 (6), 2060-2078 (2017).
  8. Yu, C., Smith, L. B. Joint Attention without Gaze Following: Human Infants and Their Parents Coordinate Visual Attention to Objects through Eye-Hand Coordination. PLoS One. 8 (11), 79659 (2013).
  9. Yu, C., Smith, L. B. Multiple Sensory-Motor Pathways Lead to Coordinated Visual Attention. Cognitive Science. 41, 5-31 (2016).
  10. Yu, C., Smith, L. B. The Social Origins of Sustained Attention in One-Year-Old Human Infants. Current Biology. 26 (9), 1-6 (2016).
  11. Kretch, K. S., Franchak, J. M., Adolph, K. E. Crawling and walking infants see the world differently. Child Development. 85 (4), 1503-1518 (2014).
  12. Yu, C., Suanda, S. H., Smith, L. B. Infant sustained attention but not joint attention to objects at 9 months predicts vocabulary at 12 and 15 months. Developmental Science. , (2018).
  13. Hennessey, C., Lawrence, P. Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions. IEEE Transactions on Biomedical Engineering. 56 (3), 790-799 (2009).
  14. Elmadjian, C., Shukla, P., Tula, A. D., Morimoto, C. H. 3D gaze estimation in the scene volume with a head-mounted eye tracker. Proceedings of the Workshop on Communication by Gaze Interaction. , Association for Computing Machinery. New York. 3 (2018).
  15. Castellanos, I., Pisoni, D. B., Yu, C., Chen, C., Houston, D. M. Embodied cognition in prelingually deaf children with cochlear implants: Preliminary findings. Educating Deaf Learners: New Perspectives. Knoors, H., Marschark, M. , Oxford University Press. New York. (2018).
  16. Kennedy, D. P., Lisandrelli, G., Shaffer, R., Pedapati, E., Erickson, C. A., Yu, C. Face Looking, Eye Contact, and Joint Attention during Naturalistic Toy Play: A Dual Head-Mounted Eye Tracking Study in Young Children with ASD. Poster at the International Society for Autism Research Annual Meeting. , (2018).
  17. Yurkovic, J. R., Lisandrelli, G., Shaffer, R., Pedapati, E., Erickson, C. A., Yu, C., Kennedy, D. P. Using Dual Head-Mounted Eye Tracking to Index Social Responsiveness in Naturalistic Parent-Child Interaction. Talk at the International Congress for Infant Studies Biennial Congress. , July (2018).
  18. Holmqvist, K., Nyström, M., Andersson, R., Dewhurst, R., Jarodzka, H., Van de Weijer, J. Eye tracking: A comprehensive guide to methods and measures. , Oxford University Press. (2011).
  19. Saez de Urabain, I. R., Johnson, M. H., Smith, T. J. GraFIX: a semiautomatic approach for parsing low- and high-quality eye-tracking data. Behavior Research Methods. 47 (1), 53-72 (2015).
  20. Franchak, J. M. Using head-mounted eye tracking to study development. The Cambridge Encyclopedia of Child Development 2nd ed. Hopkins, B., Geangu, E., Linkenauger, S. , Cambridge University Press. Cambridge, UK. 113-116 (2017).
  21. Yonas, A., Arterberry, M. E., Granrud, C. E. Four-month-old infants' sensitivity to binocular and kinetic information for three-dimensional-object shape. Child Development. 58 (4), 910-917 (1987).
  22. Smith, T. J., Saez de Urabain, I. R. Eye tracking. The Cambridge Encyclopedia of Child Development. Hopkins, B., Geangu, E., Linkenauger, S. , Cambridge University Press. Cambridge, UK. 97-101 (2017).

Tags

Comportement numéro 141 visiocasques oculométrique vision égocentrique développement enfant enfant en bas âge attention visuelle
Regard en Action : Head-mounted Eye Tracking d’Attention visuelle dynamique de l’enfant au cours de comportement naturaliste
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Slone, L. K., Abney, D. H., Borjon,More

Slone, L. K., Abney, D. H., Borjon, J. I., Chen, C. h., Franchak, J. M., Pearcy, D., Suarez-Rivera, C., Xu, T. L., Zhang, Y., Smith, L. B., Yu, C. Gaze in Action: Head-mounted Eye Tracking of Children's Dynamic Visual Attention During Naturalistic Behavior. J. Vis. Exp. (141), e58496, doi:10.3791/58496 (2018).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter