Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Blick in Aktion: Head-mounted Eyetracking Kinder-dynamische visuelle Aufmerksamkeit während der naturalistischen Verhalten

Published: November 14, 2018 doi: 10.3791/58496

Summary

Kleinkinder nicht passiv beobachten die Welt, aber eher aktiv erforschen und mit ihrer Umwelt zu engagieren. Dieses Protokoll bietet Leitlinien und praktische Empfehlungen für die Verwendung von Head mounted Eye Tracker Säuglinge aufzeichnen und Kleinkinder dynamische visuelle Umgebungen und visuelle Aufmerksamkeit im Rahmen des natürlichen Verhaltens.

Abstract

Kleinen Kindern visuelle Umgebungen sind dynamisch und ändern von Augenblick zu Augenblick, wie Kinder physisch und visuell Räume und Objekte erkunden und Interaktion mit Menschen um sie herum. Head mounted Eye-tracking bietet eine einzigartige Gelegenheit, Kinder dynamische egozentrischen Ansichten und wie sie visuellen Aufmerksamkeit in diesen Ansichten zuordnen zu erfassen. Dieses Protokoll bietet Leitlinien und praktische Empfehlungen für Forscher mit Head mounted Eye Tracker im Labor und naturalistischer Einstellungen. Head mounted Eye-tracking ergänzt andere experimentelle Methoden durch Verbesserung der Möglichkeiten zur Datenerfassung in ökologisch gültig Kontexten durch erhöhte Beweglichkeit und Freiheit von Kopf und Körper Bewegungen im Vergleich zum Bildschirm-basierte Eye-tracking. Dieses Protokoll kann auch mit anderen Technologien wie Motion-tracking und Herzfrequenz-Überwachung, um ein High-Density multimodalen Dataset zu bieten, für die Prüfung von natürlichen Verhalten, lernen und Entwicklung als bisher möglich integriert werden. Dieses Papier zeigt die Arten von Daten aus Head mounted Eye-tracking in einer Studie zu untersuchen, visuellen Aufmerksamkeit in einem natürlichen Rahmen für Kleinkinder: fließende Spielzeug spielen mit einem Elternteil. Erfolgreicher Einsatz des Protokolls erlauben Forschern, Daten zu sammeln, die verwendet werden können, zur Beantwortung von Fragen nicht nur über visuelle Aufmerksamkeit, aber auch über eine breite Palette von anderen Wahrnehmung, kognitiven und sozialen Kompetenzen und deren Entwicklung.

Introduction

Die letzten Jahrzehnten haben Interesse an einem Studium der Entwicklung von Säugling und Kleinkind visuelle Aufmerksamkeit gesehen. Dieses Interesse hat zum großen Teil ergab sich aus der Nutzung der Zeitmessungen zu suchen, wie eine primäre bedeutet, andere kognitiven Funktionen im Kleinkindalter zu bewerten und in das Studium der Säugling visuelle Aufmerksamkeit aus eigenem Recht entwickelt hat. Zeitgenössische Untersuchungen von Säugling und Kleinkind visuelle Aufmerksamkeit Messen in erster Linie Augenbewegungen während bildschirmbasierte Eyetracking-Aufgaben. Kleinkinder sitzen in einem Stuhl oder Schoß der Eltern vor einem Bildschirm, während ihre Augenbewegungen während der Präsentation von statischen Bildern oder Ereignisse überwacht werden. Solche Aufgaben, nicht jedoch die dynamische Natur der natürliche visuelle Aufmerksamkeit und die Mittel, mit denen Kinder natürliche visuelle Umgebungen generiert werden - aktive Auseinandersetzung zu erfassen.

Säuglinge und Kleinkinder sind aktive Wesen, bewegen ihre Hände, Kopf, Augen und Körper, Objekte, Menschen und Räume um sie herum zu erkunden. Jede Neuentwicklung im Körper Morphologie, motorische Fähigkeiten und Verhalten - krabbeln, gehen, Objekte, Dialog mit den Sozialpartnern Abholung - wird durch die damit einhergehenden Veränderungen in der frühen visuellen Umgebung begleitet. Da was Kinder tun bestimmt, was sie sehen und was sie sehen, für was sie in optisch geführte Aktion tun dient, wird der natürlichen Entwicklung der visuellen Aufmerksamkeit am besten im Rahmen des natürlichen Verhaltens1durchgeführt.

Head mounted Eye Tracker (ETs) wurden nicht erfunden und verwendet für Erwachsene für Jahrzehnte2,3. Erst vor kurzem haben Sie technologische Fortschritte Head mounted Eyetracking-Technologie für Säuglinge und Kleinkinder geeignet. Teilnehmer sind ausgestattet mit zwei leichten Kameras auf den Kopf, eine Szenenkamera nach außen, die der Ego-Perspektive des Teilnehmers erfasst und ein Eye-Kamera nach innen, die das Auge Bild einfängt. Eine Kalibrierung liefert Trainingsdaten auf einen Algorithmus, der so genau wie möglich die wechselnden Positionen der Pupille und Hornhaut Reflexion (CR) Karten im Auge Bild, um die entsprechenden Pixel in das Bild der Szene, die optisch teilnahmen. Das Ziel dieser Methode ist es, sowohl die visuelle Naturlandschaften der Säuglinge und Kleinkinder aktive visuelle Auseinandersetzung mit diesen Umgebungen als Säuglinge bewegen frei zu erfassen. Solche Daten können helfen, die Fragen nicht nur über visuelle Aufmerksamkeit, sondern auch über eine breite Palette von Wahrnehmung, kognitive und soziale Entwicklung4,5,6,7,8. Die Verwendung dieser Techniken hat Verständnis der gemeinsamen Aufmerksamkeit7,8,9, Daueraufmerksamkeit10, visuelle Erlebnisse mit Alter und motorische Entwicklung4 ändern verwandelt. , 6 , 11, und die Rolle der visuelle Erlebnisse in Wort lernen12. Der vorliegende Beitrag gibt Leitlinien und praktische Empfehlungen für Head mounted Eyetracking-Experimente mit Säuglingen und Kleinkindern und zeigt die Datentypen, die vom Kopf montiertes Eye-tracking in einem natürlichen generiert werden können Kontext für Kleinkinder: fließende Spielzeug spielen mit einem Elternteil.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Dieses Tutorial basiert auf einem Verfahren zum Sammeln von Head mounted Eyetracking-Daten mit Kleinkindern Institutional Review Board an der Indiana University gebilligt. Informierte Einwilligung der Eltern wurde vor Kleinkinder Teilnahme an dem Experiment erhalten.

1. Vorbereitung für das Studium

  1. Eye-Tracking-Geräte. Wählen Sie eines der mehreren Head mounted Eyetracking-Systeme, die im Handel erhältlich, sind entweder ein speziell für Kinder vermarktet oder ändern Sie das System funktioniert mit einer maßgeschneiderte Säugling Kappe, zum Beispiel wie in Abb. 1 und 2dargestellt. Sicherstellen Sie, dass das Eye-tracking-System die notwendigen Funktionen zum Testen hat/Säuglinge oder Kleinkinder, wie folgt:
    1. Wählen Sie eine Szenenkamera, die lässt sich in Bezug auf die Positionierung und hat eine breit genug Winkel, eine Sichtfeld geeignet für den Umgang mit der Forschungsfragen zu erfassen. Um die meisten des Kleinkindes Aktivität in eine free Play-Einstellung wie die hier beschriebenen zu erfassen, wählen Sie eine Kamera, die eine mindestens 100 Grad-Diagonale Blickfeld erfasst.
    2. Wählen Sie eine Eye-Kamera, die ist einstellbar in Bezug auf die Positionierung und verfügt über eine Infrarot-LED entweder in die Kamera oder angrenzend an die Kamera gebaut und positioniert in einer Weise, dass die Hornhaut des Auges wird dieses Licht zu reflektieren. Beachten Sie, dass einige Eyetracking-Modelle haben feste Positionierung, sondern Modelle, die flexible Anpassungen leisten werden empfohlen.
    3. Wählen Sie ein Eye-tracking-System, das so unauffällig und leicht wie möglich zu bieten, die größte chance, dass Säuglinge/Kleinkinder duldet die Ausrüstung tragen.
      1. Binden Sie das System in eine Kappe durch Anfügen der Szene und Auge-Kameras an einem Velcro-Band, das auf der gegenüberliegenden Seite des Velcro genäht auf der Kappe angebracht ist und die Positionierung der Kameras aus der Mitte der Ansicht das Kleinkind.
        Hinweis: Systeme, die ähnlich wie Gläser sind nicht optimal. Die Morphologie des Gesichts das Kleinkind ist anders als die eines Erwachsenen und Teile, die auf des Kleinkindes Nase oder Ohren ausruhen können störend und unangenehm für die Teilnehmer.
      2. Wenn die ET an einen Computer angeschlossen ist, bündeln Sie die Kabel zu und halten Sie Rücken die Teilnehmer um Ablenkung zu vermeiden oder stolpern. Alternativ können Sie ein in sich geschlossenes System, das Daten über ein zwischengeschaltetes Gerät, z. B. ein Mobiltelefon speichert, die auf das Kind gelegt werden kann, ermöglicht eine größere Mobilität.
    4. Wählen Sie eine Kalibrierung-Softwarepaket, das offline-Kalibrierung ermöglicht.
  2. Aufnahmeumgebung.
    1. Betrachten Sie das Ausmaß an dem das Kind während der Datensammlung über den gesamten Raum verschoben wird. Wenn eine einzelne Position vorzuziehen ist, erwähne dies zur Bezugsperson des Kindes, so können sie helfen, das Kind in der gewünschten Position bleiben. Entfernen Sie alle potenziellen Distraktoren aus dem Raum mit Ausnahme derjenigen, die, denen das Kind interagieren soll, die in Reichweite sein sollte.
    2. Beschäftigen Sie eine dritte-Person-Kamera gerne in der späteren Kodierung des Kinder Verhalten sowie Momente zu ermitteln, wann der ET verdrängt werden kann. Wenn das Kind über den gesamten Raum bewegt, betrachten Sie sowie zusätzliche Kameras.

2. sammeln Sie die Eyetracking-Daten.

  1. Personal und Tätigkeit. Haben Sie zwei Experimentatoren zu präsentieren, zu interagieren und das Kind, und eins zu platzieren und positionieren die ET zu besetzen.
    1. Voll zu engagieren das Kind in einer Aktivität, die die Hände des Kindes einnimmt, so dass das Kind nicht bis zu bewegen erreichen oder die ET zu greifen, während es auf den Kopf gelegt wird. Betrachten Sie Spielsachen, die manuelle Aktionen und kleine Bücher, die das Kind halten kann, während des Experimentators oder liest die Eltern für dem Kind zu fördern.
  2. Legen die ET auf das Kind. Da Kleinkinder Toleranz des Tragens der Head mounted ETS variiert, befolgen Sie diese Empfehlungen, Erfolg bei der Platzierung und Pflege der ET auf das Kind zu fördern:
    1. Fragen Sie in der Zeit bis zum Studium Bezugspersonen für ihr Kind tragen haben eine Kappe oder Mütze, ähnlich, was mit der ET verwendet wird, um zu Hause zu bekommen, daran gewöhnt, dass etwas auf den Kopf.
    2. Haben Sie an der Studie verschiedene Arten von Kappen zur Verfügung die ET befestigt werden kann. Passen Sie Kappen durch den Kauf verschiedener Größen und Arten von Kappen, wie eine Kugel-Kappe, die nach hinten getragen werden kann oder eine Mütze mit tierischen Ohren und Hinzufügen von Velcro das Eye-tracking-System, ausgestattet mit der gegenüberliegenden Seite der Velcro befestigt werden kann. Prüfen Sie auch, ob man Hüte von der Pflegeperson und Experimentatoren, Förderung des Kindes Interesse und Bereitschaft, auch eine Mütze getragen werden.
      1. Haben Sie bevor die Kappe auf das Kind ein Experimentator das Kleinkind auf Berührungen am Kopf durch leichte Berührung der Haare mehrmals, wenn die Aufmerksamkeit und das Interesse des Kleinkindes richtet sich an ein Spielzeug zu desensibilisieren.
    3. Um die ET auf das Kind zu platzieren, werden hinter oder seitlich des Kindes (siehe Abb. 2A). Legen Sie die ET auf das Kind, wenn ihre Hände beschäftigt sind, z. B. wenn das Kind eine Spielzeug in jeder Hand hält.
      1. Wenn das Kind in der Experimentator Platzierung der ET blickt, Hallo sagen und lassen Sie das Kind wissen, was getan wird, während Sie fortfahren, um schnell die ET auf den Kopf des Kindes legen. Vermeiden Sie auch langsam während des Einsetzens der ET, die kann dazu führen, dass Kind Not und zu schlechte Positionierung führen kann, wie das Kind mehr Möglichkeiten hat, ihren Kopf bewegen oder für die ET zu erreichen.
      2. Reduzieren Zeitaufwand einstellen der Kameras nach der Platzierung, bevor man die ET auf die Teilnehmer setzen die Kameras in der erwarteten Position bei der der Kopf des Kindes sein (siehe Abschnitte 2.3.1 und 2.3.2).
  3. Position der ETS-Szene und Auge Kameras. Sobald die ET auf den Kopf des Kindes ist, nehmen Sie Anpassungen vor, um die Position der Szene und Auge Kameras bei der Überwachung dieser Kameras video-Feeds:
    1. Position auf der Stirn zu besten niedrigen Szenenkamera ungefähre Sichtfeld des Kindes (siehe Abbildung 1B); Zentrum der Szene-Kamera-Ansicht auf was das Kind während der Studie sehen sein wird.
      1. Denken Sie daran, die Hände und gehaltenen Objekte werden immer sehr nahe an das Kind und niedrig in der Szene-Kamera-Ansicht, während weitere Objekte in der Szene-Kamera-Ansicht im Hintergrund und höher sein werden. Position der Szenenkamera zu besten erobern den Typ der Ansicht am relevantesten für die Forschungsfrage.
      2. Testen Sie die Position der Szenenkamera durch Aufmerksamkeit des Kindes zu bestimmten Stellen in ihrem Sichtfeld durch mit einem kleinen Spielzeug oder Laser-Pointer. Diese Standorte sind an den zu erwartenden Betrachtungsabstand der Regionen, die von Interesse, während der Studie sein wird zu gewährleisten (siehe Abbildung 3).
      3. Vermeiden Sie Tilt, indem Sie überprüfen, ob horizontale Flächen flach in der Szene-Kamera-Ansicht angezeigt werden. Markieren Sie die aufrechte Ausrichtung der Szenenkamera um die Möglichkeit, die Kamera immer versehentlich beim umsetzen invertiert zu mildern, aber beachten Sie, dass zusätzliche Schritte während der Nachbearbeitung der Bilder auf die richtige Orientierung bei Bedarf wiederherstellen können.
    2. Um hohe Datenqualität Blick zu erhalten, positionieren Sie die Eye-Kamera um die Pupille und die Hornhaut Reflexion (CR) zu erkennen (siehe Abbildung 2).
      1. Die Eye-Kamera zu positionieren, so dass es auf das Kind Schüler mit keine Okklusion durch Wangen oder Wimpern in das Auge die vollständige Palette von Bewegung zentriert ist (siehe Abbildung 2C-F Beispiele für gute und schlechte Augenbilder). Um dabei zu helfen, positionieren Sie die Eye-Kamera unterhalb des Auges, in der Nähe von der Wange, nach oben zeigen, halten die Kamera aus dem Zentrum der untergeordneten Ansicht. Alternativ, positionieren Sie die Eye-Kamera unten und an der Außenseite des Auges nach innen zeigen.
      2. Stellen Sie sicher, dass die Kamera nahe genug an das Auge, dass seine Bewegung eine relativ große Verschiebung der Pupille im Auge Kamerabild erzeugt.
      3. Tilt vermeiden, indem Sie sicherstellen, dass die Ecken des Auges des Auges können eine horizontale Linie bilden (siehe Abbildung 2C).
      4. Stellen Sie sicher, dass der Kontrast des Schülers gegenüber der Iris relativ hoch ist, so dass die Schüler von Iris genau unterschieden werden kann (siehe Abbildung 2C). Um dabei zu helfen, passen Sie entweder die Position der LED-Anzeige (wenn in der Nähe der Eye-Kamera) oder die Entfernung von der Eye-Kamera aus dem Auge an (wenn die LED nicht unabhängig voneinander einstellbar ist). Positionieren Sie für die Erkennung von erhöhten Schüler das LED-Licht in einem Winkel und nicht direkt ins Auge. Achten Sie darauf, dass alle Anpassungen an das LED-Licht noch eine klare CR produzieren (siehe Abbildung 2C).
  4. Erzielen Sie Punkte, während des Studiums für Offline-Kalibrierung.
    1. Sobald die Szene und Auge Bilder sind so hochwertig wie möglich, sammeln Kalibrierdaten des Kindes Aufmerksamkeit auf verschiedenen Standorten in ihrem Blickfeld.
      1. Kalibrierpunkte auf verschiedenen Oberflächen mit alles, was eindeutig das Kind Aufmerksamkeit auf einen kleinen, klaren Punkt in ihrem Sichtfeld leitet zu erhalten (siehe Abbildung 3). Zum Beispiel verwenden Sie einen Laser-Pointer gegen einen soliden Hintergrund oder eine Oberfläche mit kleinen unabhängig aktiviert LED-Leuchten.
      2. Begrenzen Sie die Anwesenheit von anderen interessanten Zielen in der Unteransicht um sicherzustellen, dass das Kind auf die Kalibrierung Ziele sieht.
    2. Abwechselnd auf verschiedenen Standorten, die große eckige Verschiebungen des Auges erfordern aufmerksam.
      1. Bedecken Sie das Sichtfeld gleichmäßig und bewegen Sie sich nicht zu schnell zwischen Punkten, die Hilfe werden bei der Suche nach klaren Sakkaden des Kindes während der offline-Kalibrierung für ableiten, wenn sie an den nächsten Ort sah.
      2. Wenn das Kind nicht sofort an die neue hervorgehobene Position aussieht, bekommen Sie ihre Aufmerksamkeit auf die Lage durch wackeln mit den Laser, drehen, aus-/Einschalten der LEDs oder die Lage mit einem Finger zu berühren.
      3. Wenn möglich, erhalten Sie mehr Kalibrierungspunkte als nötig für den Fall, dass einige entpuppen sich später nicht mehr verwendet werden.
    3. Achten Sie darauf, dass das Kind Körperhaltung während der Kalibrierung die Position entspricht, die während der Studie verwendet werden.
      1. Zum Beispiel sammeln Sie keine Kalibrierungspunkte, wenn das Kind sitzt, wenn zu erwarten ist, dass das Kind später stehen wird.
      2. Sicherstellen, dass der Abstand zwischen dem Kind und die Kalibrierung Ziele ist vergleichbar mit der Entfernung zwischen dem Kind und Regionen, die während der Studie von Interesse sein werden.
      3. Stellen Sie Kalibrierungspunkte sehr nah an den Körper des Kindes nicht, wenn während des Versuchs, das Kind in erster Linie Objekte betrachten wird, die weiter entfernt sind. Sollten im Nahen und fernen Objekten interessiert ist, zwei verschiedene Sätze von Kalibrierungspunkte zu erhalten, kann später gebraucht, um einzigartige Kalibrierungen für jedes Betrachtungsabstand erstellen (weitere Informationen finden Sie unter Abschnitt 3.1).
        Hinweis: Fernglas Eye-tracking ist eine entwickelnde Technologie13,14 , dass verspricht Fortschritte bei der Verfolgung von Blick in die Tiefe.
    4. Um während des Studiums für Drift oder Bewegung der et unterzubringen, sammeln Sie Kalibrierpunkte am Anfang und Ende der Studie mindestens. Wenn möglich, sammeln Sie zusätzliche Kalibrierungspunkte in regelmäßigen Abständen während der Sitzung.
  5. Überwachen Sie die ET und Third-Person-Video-Feeds, während des Studiums.
    1. Wenn die ET gestoßen oder durch andere Bewegungen/Handlungen falsch ausgerichtet wird, notieren Sie wann in der Studie Dies geschah, weil es möglicherweise notwendig, neu kalibrieren und code-Teile der Studie vor und nach der Beule/Versatz getrennt (siehe Abschnitt 3.1.1).
    2. Wenn möglich, das Studium zu unterbrechen, nach jeder Stoß/Fehlausrichtung der Szene und Auge Kamera neu zu positionieren (siehe Abschnitt 2.3), dann erhalten neue Punkte für die Kalibrierung (siehe Abschnitt 2.4).

(3) nach der Studie die ET-Daten mithilfe von Kalibrierungs-Software zu kalibrieren.

Hinweis: Eine Vielzahl von Kalibrierung Software-Pakete sind im Handel erhältlich.

  1. Sollten Sie erstellen mehrere Kalibrierungen. Passen Sie Kalibrierpunkte zu verschiedenen video-Segmente die Genauigkeit der Blick Spur zu maximieren, indem nicht füttern die Algorithmus fehlerhaft übereinstimmende Daten an.
    1. Wenn die ET Position zu jeder Zeit während des Studiums verändert, erstellen Sie separate Kalibrierungen für die Teile vor und nach der Änderung ET Position.
    2. Wenn Interesse an Aufmerksamkeit auf Objekte auf sehr verschiedene Distanzen, erstellen Sie separate Kalibrierungen für die Teile des Videos, wo das Kind auf Objekte in jeder Betrachtungsabstand sucht. Denken Sie daran, die Unterschiede in der Betrachtungsabstand können erstellt von Verschiebungen des Kindes visuelle Aufmerksamkeit zwischen sehr nahe und entfernte Objekte variieren, aber auch durch Veränderungen des Kindes Körperposition relativ zu einem Objekt, wie z. B. Verlagerung vom sitzen zum stehen.
  2. Führen Sie jede Kalibrierung. Schaffen Sie die Zuordnung zwischen Szene und Auge durch die Schaffung einer Reihe von Kalibrierungspunkte - Punkte im Bild, Szene, das Blick des Kindes deutlich in diesem Frame gerichtet war. Beachten Sie, dass die Kalibrierungssoftware extrapolieren und den Punkt des Blicks (POG) gleichmäßig in allen Frames aus einer Reihe von Kalibrierungspunkten interpolieren kann verstreut über das Bild der Szene.
    1. Kalibrierungs-Software bei der Erkennung der Pupille und CR in jedem Frame die Eye-Kamera video um sicherzustellen, dass die identifizierten POG zuverlässig ist. Verwenden Sie in Fällen, wo die Software die CR konsequent und zuverlässig erkennen kann die Schüler nur (beachten Sie jedoch, die Datenqualität leiden).
      1. Erhalten ein gutes Auge Bild im Auge Kamera Rahmen durch Anpassung der Schwellenwerte für die Kalibrierung Software verschiedene Erkennung Parameter, darunter: die Helligkeit des Auges, die Größe der Pupille die Software erwartet, und einen Begrenzungsrahmen, setzt die Grenzen, wo die Software für den Schüler aussehen wird. Zeichnen Sie die bounding Box so klein wie möglich und gleichzeitig, die die Pupille bleibt im Inneren der Box in das Auge die komplette Palette von Bewegung. Beachten Sie, dass einen größeren Begrenzungsrahmen, der Raum umfasst, die die Schüler nie belegt die Wahrscheinlichkeit der falsche Schüler-Erkennung erhöht und kann dazu führen, dass kleine Bewegungen des Schülers zu weniger genau erfasst werden.
      2. Beachten Sie, dass die Software auch nach Anpassung der Software verschiedene Detektionsschwellen, manchmal noch nicht richtig die Schüler oder CR finden kann; zum Beispiel wenn Wimpern die Pupille abdecken.
    2. Finden Sie gute Kalibrierungspunkte basierend auf die Szene und Eye Kamera Frames. Beachten Sie, dass die besten Kalibrierungspunkte bereitgestellt, um die Software jene in denen Schüler und CR sind präzise erkannt sind, das Auge auf eine eindeutig identifizierbare Punkt im Raum in der Szene Bild stabil fixiert ist, und die Punkte sind gleichmäßig verteilt über den gesamten Bereich das Bild der Szene.
      1. Stellen Sie sicher, dass Schüler Erkennung korrekt für jeden Frame, in dem ein Kalibrierpunkt geplottet wird, so dass der Algorithmus gültige X-y-Szene-Koordinaten und gültige X-y-Schüler-Koordinaten zugeführt werden.
      2. Während des ersten Durchlaufs bei Kalibrierung identifizieren Sie Kalibrierungspunkte in Momenten, wenn das Kind eindeutig auf einen eindeutigen Punkt in der Szene Bild freut. Denken Sie daran, dass diese Punkte absichtlich von der Experimentator während der Datenerfassung, z. B. mit einem Laser-Pointer erstellt werden können (siehe Abbildung 3-A-B), oder sie können Punkte aus der Studie, in denen die POG leicht zu erkennen (siehe ist, Abbildung 3C), solange die Schüler genau für diese Frames erkannt wird.
      3. Um Momente des Blicks auf mehr extremen XY-Szene Bildkoordinaten zu finden, durchsuchen Sie die Eye Kamera Rahmen Momente mit genauen Schüler Erkennung zu finden, wenn das Kind die Augen an der extremsten X-y-Position ist.
    3. Haben Sie mehrere "Durchgänge" für jede Kalibrierung zu iterativ auf das genaueste Kalibrierung möglich trainieren. Beachten Sie, dass viele Software-Programme nach Abschluss einen ersten "Durchgang" bei Kalibrierung, die Löschung der Punkte, die bisher ohne Verlust des aktuellen Titels (z.B. Fadenkreuz) verwendet werden. Wählen Sie einen neuen Satz von Kalibrierungspunkte den Algorithmus von Grund auf neu, aber mit zusätzlicher Hilfe der POG Spur durch den vorherigen Kalibrierung Pass, so dass man nach und nach steigern Kalibriergenauigkeit durch das schrittweise "Aufräumen" keinen Lärm erzeugt zu trainieren oder Ungenauigkeiten durch frühere Pässe eingeführt.
  3. Die Qualität der Kalibrierung zu bewerten, indem man beobachtet, wie gut die POG entspricht bekannten Blick Orten, wie z.B. die Punkte, die während der Kalibrierung von einem Laser-Pointer produziert und reflektiert die Richtung und die Größe des Kindes Sakkaden. Vermeiden Sie die Verwendung von Punkten bewerten Kalibrierung-Qualität, die auch als Punkte während der Kalibrierung verwendet wurden.
    1. Beachten Sie, dass, weil Kinder Köpfe und Augen sind in der Regel ausgerichtet, Kinder visuelle Aufmerksamkeit sich in den meisten Fällen auf die Bildmitte Szene richtet und eine genaue Strecke spiegeln dies wider. Um die Zentriertheit des Titels zu beurteilen, zeichnen die Frame-by-Frame-XY-POG Koordinaten in das Szene-Bild durch die Kalibrierung erzeugt (siehe Abbildung 4). Bestätigen Sie, dass die Punkte in der Mitte des Bildes Szene dicht und verteilte symmetrisch, außer in Fällen wo der Szenenkamera nicht in der Mitte des Kindes Blickfeld zentriert wurde, wenn ursprünglich positioniert.
    2. Beachten Sie, dass einige Kalibrierungs-Software lineare und/oder homography Fit Partituren generieren, die Kalibriergenauigkeit widerspiegeln. Denken Sie daran, dass diese Werte zu einem gewissen Grad nützlich sind, weil, wenn sie arm sind, die Strecke voraussichtlich auch Arm. Verwenden Sie Fit punktet jedoch nicht als das primäre Maß für Kalibriergenauigkeit, reflektieren den Grad, zu dem gewählten Kalibrierungspunkte zustimmen selbst, bietet keine Informationen über die Passung von diesen Punkten auf den Boden-Wahrheit-Speicherort der die POG.
    3. Denken Sie daran, dass es Momente in der Studie, dass das Ziel des Blicks leicht erkennbar ist und daher als Grundwahrheit verwendet werden kann. Genauigkeit im Grad der Gesichtswinkel durch Messfehler zwischen bekannten Blick Ziele und das Fadenkreuz POG berechnen (Fehler in Pixel aus dem video Bild konvertiert werden kann etwa Grad anhand Objektiv Merkmale der Szenenkamera)4.

4. Code Regions of Interest (ROI).

Hinweis: ROI-Codierung ist die Auswertung der Daten der POG, welche Region festzustellen, ein Kind in einem bestimmten Moment in der Zeit visuell zu besucht. ROI kann mit hoher Genauigkeit und hoher Auflösung aus den Frame-by-Frame POG Daten kodiert werden. Die Ausgabe dieser Codierung ist ein Stream von Datenpunkten - ein Punkt pro video-Frame -, die die Region von POG im Laufe der Zeit hinweisen (siehe Abbildung 5A).

  1. Vor Beginn der ROI Codierung, kompilieren eine Liste von allen ROIs, die codiert werden soll anhand der Forschungsfragen. Beachten Sie, dass die Codierung ROIs, die nicht benötigt werden, um die Forschung zu beantworten macht Codierung unnötig zeitraubende Fragen.
  2. Grundsätze der ROI-Codierung.
    1. Beachten Sie, dass erfolgreiche Codierung Verzicht der Coder Annahmen erfordert darüber, wo das Kind suchen und stattdessen sorgfältiger Prüfung des Rahmens Auge Bild, Szene Bild und berechnete POG werden sollte. Zum Beispiel, auch wenn ein Objekt durch das Kind gehalten wird und sehr groß in Szene-Bild für einen bestimmten Frame ist, ableiten Sie nicht, dass das Kind auf das Objekt in diesem Augenblick sucht, wenn auch an der Position der Augen erkennen. Beachten Sie, dass ROIs angeben, welcher Region das Kind ist Foveating, aber nicht erfassen, die das komplette Bildsignal das Kind dabei ist.
    2. Verwenden Sie Auge Bild und Szene Image POG Track um zu bestimmen, welche ROI visuell, betreut wird.
      1. Fahren auf der Strecke POG, als Richtschnur, nicht als Boden-Wahrheit. Obwohl im Idealfall die POG-Strecke den genauen Standort, blickte auf das Kind für jeden Frame zeigen deutlich wird, seien Sie sich bewusst, dass dies nicht immer der Fall 2 dimensionale (2D) aufgrund des Szene-Bildes im Verhältnis zu der 3D Art der realen Welt, die von den Kindern angesehen werden d und Variation in Kalibriergenauigkeit zwischen den Teilnehmern.
        1. Denken Sie daran, dass die berechnete POG-Strecke eine Schätzung auf der Grundlage eines Kalibrierung Algorithmus ist und Zuverlässigkeit des POG Titels für ein bestimmtes Bild hängt daher davon ab, wie gut die Schüler und CR erkannt werden; Wenn eine oder beide nicht erkannt werden oder falsch sind, wird die POG-Strecke nicht zuverlässig ist.
          Hinweis: Gelegentlich wird das Fadenkreuz konsequent Ziel durch einen festen Abstand sein. Neuerer Software kann ein rechnerisch für diese Diskrepanz zu korrigieren lassen. Andernfalls kann ein ausgebildete Forscher die Korrektur manuell vornehmen.
      2. Verwenden Sie Bewegung der Pupille im Auge Bild als die primäre Cue, die der ROI geändert haben können.
        1. Blättern Sie durch die Bilder eins nach dem anderen sehen des Auges. Tritt eine sichtbare Bewegung des Auges, überprüfen Sie, ob das Kind einen neuen ROI oder ohne definierte ROI ihrer POG verlagert.
        2. Beachten Sie, dass nicht alle Augenbewegungen eine Änderung im ROI anzugeben. Wenn der ROI eine große Region des Weltraums (z. B. ein Objekt aus nächster Nähe) darstellt, denken Sie daran, dass kleine Auge Bewegung spiegeln sich an eine neue Position innerhalb des gleichen ROI. Auch nicht vergessen Sie, dass Augenbewegungen auftreten können, wie das Kind einen einzigen beweglichen ROI verfolgt, oder wie ein Kind, bewegt ihren Kopf bewegt sich auch ihre Augen, Blick auf den gleichen ROI beizubehalten.
        3. Beachten Sie, dass mit einigen ETs des Auges ein gespiegelt-Bild des Kindes Auge, in diesem Fall ist, wenn das Auge bewegt sich nach links, die entsprechen sollte, um eine Verschiebung nach rechts in die Szene.
    3. Da die POG-Spur nur als Orientierungshilfe dient, machen sowie kontextbezogene Informationen verwenden, um Codierung Entscheidungen zu führen.
      1. Integration von Informationen aus unterschiedlichen Quellen oder Frames beim Codieren von ROI. Auch wenn der ROI separat für jeden Frame kodiert ist, nutzen Sie Frames vor und nach dem aktuellen Frame, Kontextinformationen zu gewinnen, die Hilfe bei der Bestimmung des richtigen ROI. Zum Beispiel, wenn die POG-Strecke abwesend oder für einen bestimmten Frame aufgrund der schlechten Schüler-Erkennung nicht korrekt ist, aber das Auge rührte sich nicht auf den vorhergehenden und nachfolgenden Frames basieren in dem die Schüler genau erkannt wurde, dann ignorieren die POG-Strecke für diesen Frame und code-ROI-ba Sed auf die umgebenden Rahmen.
      2. Entscheidungen Sie andere spezifische auf die Benutzer Forschungsfragen.
        1. Beispielsweise muss ein Protokoll wie ROI zu kodieren, wenn zwei ROIs in unmittelbarer Nähe zueinander, sind in diesem Fall kann es schwierig sein zu bestimmen, welches die "richtige" ROI ist. Entscheiden Sie in Fällen, wo das Kind erscheint, an der Kreuzung der beiden ROIs fixiert werden, ob Sie beide ROIs gleichzeitig kodieren oder formulieren Sie einen Satz von Entscheidungsregeln für gewusst wie: auswählen und nur eines der ROI-Kategorien zuweisen.
        2. Als ein weiteres Beispiel wenn ein Objekt von Interesse stattfindet, so dass eine Hand das Objekt zubeißt ist, entscheiden Sie, ob Sie die POG als einen ROI für die Hand oder als ein ROI für das gehaltene Objekt-code.
  3. Code ROI für Zuverlässigkeit. Implementieren Sie eine Zuverlässigkeit, die Codierung Verfahren, nachdem der anfängliche ROI Codierung Protokoll abgeschlossen ist. Es gibt viele verschiedene Arten von Zuverlässigkeit Verschlüsselungsverfahren zur Verfügung; Wählen Sie die wichtigsten Verfahren anhand der spezifischen Forschungsfragen.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Die hier beschriebene Methode wurde auf eine frei fließende Spielzeug spielen Zusammenhang zwischen Kleinkinder und ihre Eltern angewendet. Die Studie wurde entwickelt, um natürliche visuelle Aufmerksamkeit in einer unübersichtlichen Umgebung zu untersuchen. Dyaden wurden angewiesen, frei mit einem Satz von 24 Spielzeug für sechs Minuten zu spielen. Kleinkinder visuelle Aufmerksamkeit wurde durch die Kodierung der Beginn gemessen und Offset des sieht für bestimmte Regionen von Interesse (ROIs)--jeweils 24 Spielsachen und des Elternteils Gesicht-- und durch die Analyse, die Dauer und den Anteil der Suche Zeit zu jedem ROI. Die Ergebnisse sind in Abbildung 5dargestellt.

Abbildung 5 A zeigt Beispiel ROI Streams für 18 Monate alte Kinder. Jedes farbige Block in den Bächen stellt kontinuierliche Rahmen, in denen das Kind eine besondere ROI angeschaut. Die erhaltenen Augen-Blick-Daten zeigen eine Reihe von interessanten Eigenschaften des natürlichen visuelle Aufmerksamkeit.

Zunächst zeigen Sie den Kindern individuelle Unterschiede in ihrer Selektivität für verschiedene Teilmengen von Spielzeug. Abbildung 5 B zeigt den Anteil der 6-minütige Interaktion, dass jedes Kind verbracht, an jedem der 10 ausgewählten Spielzeug-ROIs. Obwohl der Gesamtanteil der Zeit Kind 1 und Kind 2 verbrachte betrachtete Spielzeug (einschließlich alle 24 Spielzeug ROIs) etwas ähnlich, 0,76 und 0,87, bzw. Proportionen der Zeitaufwand für die einzelnen Spielzeug, sowohl innerhalb als auch zwischen Personen unterschiedlich.

Diese Proportionen zu schauen, wie die Zeit erreichten auch über Kinder unterschieden. Abbildung 5 C zeigt jedes Kind mittlere Dauer der sieht zu jedem der 10 ausgewählten Spielzeug-ROIs. Die mittlere Dauer der schaut auf alle 24 Spielzeug ROIs für Kind 2 (M = 2.38 s, SD = 2.20 s) war fast doppelt so lang wie das Kind 1 (M = 1,20 s, SD = 0,78 s). Vergleich zu der roten Marienkäfer Rassel (lila Balken) aussehende Muster in Abbildung 5B, C zeigt, warum computing mehrere schauende Maßnahmen, wie die Proportionen und die Dauer der Suche, wichtig für ein vollständiges Verständnis der Daten; derselbe Anteil der Blick auf dieses Spielzeug wurde für diese Kinder durch unterschiedliche Anzahl von blicken von unterschiedlicher Dauer erreicht.

Eine weitere Eigenschaft, die durch diese Daten nachgewiesen ist, dass beide Kinder selten zu ihrer Eltern Gesicht sah: die Proportionen des Gesichts, die auf der Suche nach Kind 1 und Kind 2.015 und.003, bzw. waren. Darüber hinaus waren die Dauer dieser Kinder sieht der Eltern Gesicht kurz, auf Durchschnitt 0.79 s (SD = 0,39 s) und 0,40 s (SD = 0,04 s) für Kind 1 und Kind 2, beziehungsweise.

Figure 1
Abbildung 1 . Head mounted Eye-tracking in drei unterschiedlichen Kontexten eingesetzt: (A) Tabletop Spielzeug spielen, (B) Spielzeug spielen auf dem Boden, und (C) ein Bild-Buch zu lesen. Bitte klicken Sie hier für eine größere Version dieser Figur.

Figure 2
Abbildung 2 . Einrichtung des Head mounted Eye-Tracking-Systems. (A) ein Forscher Positionierung eine Eye-Tracker auf ein Kind. (B) eine gut positionierte Eye-Tracker auf ein Kind. (C) gute Auge Bild mit großen zentriert Pupille und Hornhaut Reflexion (CR) zu löschen. (D, E, F) Beispiele für schlechte Augenbilder. Bitte klicken Sie hier für eine größere Version dieser Figur.

Figure 3
Abbildung 3 . Drei verschiedene Möglichkeiten der Erlangung Kalibrierungspunkte. Zwei Ansichten des Augenblicks dargestellt werden; oben: Third-Person-Ansicht, unten: Ego-Perspektive des Kindes. Pfeile in der Third-Person-Ansicht zeigen die Richtung eines Laserstrahls. Inset Boxen im oberen rechten des Kindes Bildschirmpräsentation gutes Augenbilder in jedem Moment für die Kalibrierung und rosa Fadenkreuz Stelle des Blicks basierend auf die abgeschlossene Kalibrierung angegeben. (A) Kalibrierungspunkt erzeugte ein Experimentator mit einem Finger und Laser-Pointer, die Aufmerksamkeit auf ein Objekt auf dem Boden. (B) Kalibrierungspunkt erzeugte ein Experimentator mit einem Laserpointer Aufmerksamkeit auf Punkte auf einer Oberfläche zu lenken. (C) Kalibrierungspunkt während Spielzeug spielen mit einem Elternteil in die Aufmerksamkeit des Kindes zu einem gehaltenen Objekt gerichtet ist. Bitte klicken Sie hier für eine größere Version dieser Figur.

Figure 4
Abbildung 4 . Beispiel Grundstücke zur Kalibrierung Qualität bewerten. Einzelne Punkte stehen pro Frame X-y Punkt Blick (POG) Koordinaten in das Kamerabild Szene, wie durch die Kalibrierung Algorithmus bestimmt. (A) gute Kalibrierung Qualität für ein Kind-Spielzeug-spielen-Experiment, angezeigt durch etwa kreisförmig Dichte der POG, die zentriert ist und niedrig (Kind POG in der Regel leicht nach unten gerichtet ist, wenn Blick auf Spielzeug das Kind hält), und ungefähr gleichmäßig verteilte POG im übrigen Szene Kamerabild. (B) schlechte Kalibrierung Qualität, angedeutet durch längliche und gekippte Dichte der POG-zentrierten und schlecht verteilte POG im übrigen Szene Kamerabild ist. (C) schlechte Kalibrierung Qualität und/oder Armen anfängliche Positionierung der Szenenkamera, durch POG-zentriert angezeigt. Bitte klicken Sie hier für eine größere Version dieser Figur.

Figure 5
Abbildung 5 . Zwei Kinder Augen-Blick-Daten und Statistiken. (A) Probe ROI streamt für Kind 1 und Kind 2 während 60 s der Interaktion. Jeder farbigen Block in den Bächen steht für kontinuierliche Rahmen, in denen das Kind eine ROI nach entweder einem bestimmten Spielzeug oder des Elternteils Gesicht sah. Leerraum stellt Rahmen, in denen das Kind nicht jederzeit des ROIs aussah. (B) Anteil der Zeit betrachten die Eltern Gesicht und 10 Spielzeug ROIs, für beide Kinder. Anteil wurde berechnet, indem die Dauer der alle Blicke auf jeder ROI zu summieren und teilt die aufsummierte Dauer der gesamten Sitzung Zeit von 6 Minuten. (C) mittlere Dauer der Blicke der Eltern Gesicht und zehn Spielzeug ROIs, für beide Kinder. Mittlere Dauer wurde berechnet, indem man die Dauer der einzelnen sieht jeder ROI während der 6-Minuten-Interaktion. Bitte klicken Sie hier für eine größere Version dieser Figur.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Dieses Protokoll bietet Leitlinien und praktische Empfehlungen für die Umsetzung der Head mounted Eye-tracking mit Säuglingen und Kleinkindern. Dieses Protokoll basiert auf der Studie der natürlichen Kleinkind Verhaltensweisen im Rahmen der Eltern-Kleinkind kostenlos spielen mit Spielzeug in einer Laborumgebung. Innerbetriebliche Eyetracking-Ausrüstung und Software wurden für die Kalibrierung und Datenkodierung verwendet. Dennoch ist dieses Protokoll soll generell für Forscher, die mit einer Vielzahl von Head mounted Eye-Tracking-Systeme, um eine Vielzahl von Themen in der Säuglings- und Entwicklung zu studieren. Obwohl optimale Nutzung dieses Protokolls studienspezifischen beteiligt wird führten Schneiderei, die Annahme dieser allgemeinen Praktiken zu erfolgreichen Einsatz dieses Protokolls in einer Vielzahl von Kontexten (siehe Abbildung 1), einschließlich der gleichzeitigen Head mounted Eye-tracking von Eltern und Kleinkindern7,8,9,10und Head mounted Eyetracking der klinischen Populationen auch für Kinder mit Cochlea-Implantaten15 und Kindern mit Autismus-Spektrum 16,17Störungen.

Dieses Protokoll bietet zahlreiche Vorteile für die Untersuchung der Entwicklung von einer Vielzahl von natürlichen Kompetenzen und Verhaltensweisen. Der Kopf und Körper, die ETs Head mounted Bewegungsfreiheit gibt Forschern der Möglichkeit, die Teilnehmer selbst erzeugten visuellen Umgebungen und die aktive Auseinandersetzung mit diesen Umgebungen zu erfassen. Die Übertragbarkeit von Head mounted ETs verbessert Forscher Fähigkeit zur Datenerhebung in ökologisch gültigen zusammenhängen. Aufgrund dieser Vorteile diese Methode stellt eine Alternative zur Bildschirm-basierte Suche Zeit und Eye-Tracking-Methoden für die Untersuchung von Entwicklung in Bereichen wie visuelle Aufmerksamkeit, soziale Aufmerksamkeit und Wahrnehmungs-Motor Integration und ergänzt und Gelegentlich können Herausforderungen die Forscher Rückschlüsse ziehen mit traditionelleren experimentellen Methoden. Zum Beispiel das hier beschriebene Protokoll erhöht die Möglichkeit für die Teilnehmer individuelle Unterschiede in der Ausstellung auf der Suche Verhalten, weil Teilnehmer Kontrolle nicht nur über haben, wo und für wie lange sie ihre visuellen Aufmerksamkeit in einer Szene, wie in konzentrieren Bildschirm-basierte Eye-tracking, sondern auch über die Zusammensetzung dieser Szenen durch ihre Augen, Kopf, und Körperbewegungen und physikalische Manipulation der Elemente in der Umgebung. Die beiden Teilnehmer hier vorgestellten Daten zeigen individuelle Unterschiede in wie lange Kleinkinder aussehen und welche Objekte Kleinkinder probieren, wenn sie in der Lage sind, aktiv zu schaffen und ihre visuelle Umgebung erforschen. Darüber hinaus Daten deuten darauf hin die hier vorgestellten, sowie andere Forschung beschäftigt dieses Protokolls, die in naturalistischen Spielzeug spielen mit ihren Eltern, Kleinkinder Blick der Eltern Gesicht viel weniger als von früheren Forschung4,5 vorgeschlagen ,7,8,9,10.

Trotz dieser Vorteile wirft Head mounted Eye-tracking mit Säuglingen und Kleinkindern eine Reihe von methodischen Herausforderungen. Die wichtigste Herausforderung ist eine gute Kalibrierung erhalten. Weil die Szene Bild nur eine 2D-Darstellung der 3D-Welt, die tatsächlich angesehen wurde, ist eine perfekte Zuordnung zwischen Augenposition und verglasten Szene-Location unmöglich. Nach den Hinweisen in diesem Protokoll zur Verfügung gestellt, kann die Zuordnung zuverlässig geworden, in der Nähe des "Ground Truth", mehrere Probleme jedoch besondere Aufmerksamkeit geschenkt werden sollte. Erstens, die Freiheit von Kopf und Körper Bewegung von Kopf montiertes Eye-tracking auch bedeutet, dass die jungen Teilnehmerinnen und Teilnehmer werden oft stoßen die Eyetracking-System erlaubt. Dies ist ein Problem, denn jede Änderung in der physischen Position des Auges bezogen auf das Auge oder Szene-Kameras die Zuordnung zwischen den Schüler/CR und die entsprechenden Pixel in das Bild der Szene besuchte verändern. Durchführung von separaten Kalibrierungen für diese Teile der Studie ist daher kritisch, da Fehler dazu in einen Algorithmus, der nur des Kindes Blick genau für ein Teil der Studie, führt Spuren wenn nur Punkte während eine Portion verwendet werden, um zu kalibrieren. Zweite, genaue Erkennung von Schüler und CR des Kindes sind entscheidend. Wenn ein Kalibrierungspunkt in der Szene Bild gezeichnet wird, während die Pupille ist falsch oder nicht erkannt, dann der Algorithmus entweder lernt diese Kalibrierung-X-y-Koordinate in der Szene Bild eine falsche Schüler-X-y-Koordinate zugeordnet oder die Algorithmus wird leere Daten im Fall zugeführt wo die Schüler überhaupt nicht erkannt wird. So, wenn gute Erkennung für ein Segment der Studie nicht erreicht wird, Kalibrierung Qualität für diese Frames wird Arm sein und sollte nicht für die Codierung POG vertraut werden. Drittens, weil Kinder Köpfe und Augen in der Regel ausgerichtet sind, visueller Aufmerksamkeit am häufigsten die Bildmitte Szene richtet sich an. Dennoch sind extreme XY-Kalibrierungspunkte im Bild, Szene auch notwendig für den Aufbau einer genauen Blick Spur über die gesamte Szene Bild. So, obwohl Kalibrierungspunkte in der Regel in Momenten sollte wenn das Auge stabil auf ein Objekt ist gewählt werden, kann dies nicht für Kalibrierungspunkte in die entlegensten Winkel des Bildes Szene möglich. Schließlich denken Sie daran, dass auch wenn eine gutes Auge Bild ergibt sich, das System kalibriert, dies nicht gewährleistet, dass die Daten von ausreichender Qualität für die vorgesehenen Analysen. Unterschiede im individuellen Faktoren wie Auge Physiologie als auch Umweltfaktoren wie Beleuchtung und Eyetracking-Hard-und Software können alle beeinflussen die Qualität der Daten und haben das Potenzial, Versatz oder Ungenauigkeiten in den Daten zu erstellen. 18 , 19 bieten weitere Informationen und mögliche Lösungen für solche Probleme (siehe auch Franchak 2017-20).

Arbeit mit Säuglingen und Kleinkindern auch beinhaltet die Herausforderung Toleranz der Head mounted et während der gesamten Sitzung zu gewährleisten. Beschäftigt die Empfehlungen in diesem Protokoll, konzipiert für den Einsatz mit Kleinkindern von ca. 9-24 Monate alt sind, erhalten ein Labor qualitativ hochwertige Head mounted Eyetracking-Daten von etwa 70 % der Teilnehmer20. Die restlichen 30 % der Teilnehmer können entweder nicht die Studie wegen Unverträglichkeit der Eye-Tracker oder Aufregung aus der Studie vor genügend Daten beginnen (z. B. > 3-5 Minuten Spielzeit) mit einem guten Auge Strecke erhalten werden. Für die erfolgreiche 70 % der Säugling und Kleinkind Teilnehmer diese Sitzungen in der Regel zuletzt für aufwärts von 10 Minuten, jedoch viel längere Sessions infeasible mit aktuellen Technologien, je nach Alter des Teilnehmers und der Art der Aufgabe in dem möglicherweise die Teilnehmer engagiert. Bei der Gestaltung der Forschungsaufgabe und Umgebung, sollten Forscher den Entwicklungen Status der Teilnehmer berücksichtigen motorischen Fähigkeiten, kognitive Fähigkeiten und soziale Entwicklung einschließlich Gefühl der Sicherheit um fremde, alle Einfluss können Aufmerksamkeitsspanne und Fähigkeit zur Erfüllung der vorgesehenen Aufgaben der Teilnehmer. Einsatz dieses Protokoll mit Kleinkindern viel jünger als 9 Monate beinhaltet auch zusätzliche praktische Herausforderungen wie Kleinkinder, die noch ihre eigenen sitzen können nicht auf, ebenso wie die Berücksichtigung von Auge Morphologie und Physiologie, wie z. B. binokulare Disparität Stützung, die unterscheiden sich von der älteren Kinder und Erwachsene19,21. Darüber hinaus ist dieses Protokoll am erfolgreichsten, wenn durchgeführt von erfahrenen geschulten Experimentatoren des Spektrums der Umgebung einschränken kann, in denen Daten gesammelt werden können. Die weitere Praxis Experimentatoren haben, desto wahrscheinlicher werden sie zur Durchführung des Experiments reibungslos und Eye-Tracking-Daten von hoher Qualität zu sammeln.

Head mounted Eye-tracking ist auch die zusätzliche Herausforderung von relativ mehr zeitaufwändig Datenkodierung. Dies liegt daran, zum Zwecke der Feststellung ROIs, Head mounted Eyetracking-Daten besser Frame für Frame als durch "Fixierungen" der visuellen Aufmerksamkeit kodiert ist. Fixierungen sind das heißt, in der Regel identifiziert, wenn die Änderungsrate in den Frame-by-Frame X-y-POG-Koordinaten niedrig als Indiz dafür ist, dass die Augen auf einen Punkt stabil sind. Jedoch weil die Szene von einem Head mounted Eye-Tracker mit des Teilnehmers Kopf- und Körperbewegungen "wandert", kann die Augenposition nur genau einem physischen Standort wird durch die Berücksichtigung, wie die Augen bewegen foveated relativ zum Kopf zugeordnet werden und Körper Bewegungen. Beispielsweise wenn ein Teilnehmer Kopf und Augen zusammen, anstatt ihre Augen nur bewegt, können die X / y-POG-Koordinaten innerhalb der Szene unverändert bleiben sogar während ein Teilnehmers ein Zimmer scannt oder ein sich bewegendes Objekt verfolgt. "Fixierungen" der visuellen Aufmerksamkeit können nicht so leicht und genau aus nur die POG-Daten ermittelt werden. Konsultieren Sie für weitere Informationen über Probleme im Zusammenhang mit der Ermittlung Fixierungen im Kopf montiertes Eyetracking-Daten bitte andere Arbeit15,22. Codierung manuell Daten Frame-by-Frame für ROI kann erfordern mehr Zeit im Vergleich zur Codierung Fixierungen. Als Referenz dauerte es gut ausgebildete Programmierer zwischen 5 und 10 Minuten, jede Minute, die hier vorgestellten Daten manuell für ROI code die mit 30 Bildern pro Sekunde erfasst wurden. Der Zeitaufwand für die Codierung ist sehr variabel und hängt von der Qualität der Eyetracking-Daten; die Größe, Anzahl und visuelle Unterscheidbarkeit von ROI-Ziele; die Erfahrung der Programmierer; und die Annotation-Tool verwendet.

Trotz dieser Herausforderungen kann dieses Protokoll zu einer Reihe von kontrollierten und naturalistischen Umgebungen flexibel angepasst werden. Dieses Protokoll kann auch mit anderen Technologien wie Motion-tracking und Herzfrequenz-Überwachung, um ein High-Density multimodalen Dataset zu bieten, für die Prüfung von natürlichen Verhalten, lernen und Entwicklung als bisher möglich integriert werden. Weitere Fortschritte in der Head mounted Eye-Tracking-Technologie werden zweifellos lindern viele aktuelle Herausforderungen und bieten noch mehr Grenzen für die Typen von Forschungsfragen, die mit dieser Methode behandelt werden können.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren erklären, dass sie keine konkurrierenden oder widersprüchlichen Interessen haben.

Acknowledgments

Diese Forschung wurde durch die National Institutes of Health Zuschüsse R01HD074601 (C.Y), T32HD007475-22 (J.I.B., D.H.A.) und F32HD093280 (L.K.S.) finanziert; National Science Foundation grant BCS1523982 (L.B.S., C.Y); und von der Indiana University durch die aufstrebenden Bereich Research Initiative - lernen: Gehirn, Maschinen und Kinder (L.B.S.). Die Autoren danken die untergeordneten und übergeordneten Freiwilligen an dieser Studie teilgenommen und sich bereit erklärt zu Dreharbeiten dieses Protokolls und in den Figuren verwendet werden. Wir schätzen auch die Mitglieder der Computational Kognition und Learning Laboratory, Sven Bambach, Anting Chen, Steven Elmlinger, Seth Foster, Grace Lisandrelli und Charlene Tay, für ihre Unterstützung bei der Entwicklung und Honen dieses Protokolls.

Materials

Name Company Catalog Number Comments
Head-mounted eye tracker Pupil Labs World Camera and Eye Camera

DOWNLOAD MATERIALS LIST

References

  1. Tatler, B. W., Hayhoe, M. M., Land, M. F., Ballard, D. H. Eye guidance in natural vision: Reinterpreting salience. Journal of Vision. 11 (5), 1-23 (2011).
  2. Hayhoe, M. Vision using routines: A functional account of vision. Visual Cognition. 7 (1-3), 43-64 (2000).
  3. Land, M., Mennie, N., Rusted, J. The Roles of Vision and Eye Movements in the Control of Activities of Daily Living. Perception. 28 (11), 1311-1328 (1999).
  4. Franchak, J. M., Kretch, K. S., Adolph, K. E. See and be seen: Infant-caregiver social looking during locomotor free play. Developmental Science. 21 (4), 12626 (2018).
  5. Franchak, J. M., Kretch, K. S., Soska, K. C., Adolph, K. E. Head-mounted eye tracking: a new method to describe infant looking. Child Development. 82 (6), 1738-1750 (2011).
  6. Kretch, K. S., Adolph, K. E. The organization of exploratory behaviors in infant locomotor planning. Developmental Science. 20 (4), 12421 (2017).
  7. Yu, C., Smith, L. B. Hand-Eye Coordination Predicts Joint Attention. Child Development. 88 (6), 2060-2078 (2017).
  8. Yu, C., Smith, L. B. Joint Attention without Gaze Following: Human Infants and Their Parents Coordinate Visual Attention to Objects through Eye-Hand Coordination. PLoS One. 8 (11), 79659 (2013).
  9. Yu, C., Smith, L. B. Multiple Sensory-Motor Pathways Lead to Coordinated Visual Attention. Cognitive Science. 41, 5-31 (2016).
  10. Yu, C., Smith, L. B. The Social Origins of Sustained Attention in One-Year-Old Human Infants. Current Biology. 26 (9), 1-6 (2016).
  11. Kretch, K. S., Franchak, J. M., Adolph, K. E. Crawling and walking infants see the world differently. Child Development. 85 (4), 1503-1518 (2014).
  12. Yu, C., Suanda, S. H., Smith, L. B. Infant sustained attention but not joint attention to objects at 9 months predicts vocabulary at 12 and 15 months. Developmental Science. , (2018).
  13. Hennessey, C., Lawrence, P. Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions. IEEE Transactions on Biomedical Engineering. 56 (3), 790-799 (2009).
  14. Elmadjian, C., Shukla, P., Tula, A. D., Morimoto, C. H. 3D gaze estimation in the scene volume with a head-mounted eye tracker. Proceedings of the Workshop on Communication by Gaze Interaction. , Association for Computing Machinery. New York. 3 (2018).
  15. Castellanos, I., Pisoni, D. B., Yu, C., Chen, C., Houston, D. M. Embodied cognition in prelingually deaf children with cochlear implants: Preliminary findings. Educating Deaf Learners: New Perspectives. Knoors, H., Marschark, M. , Oxford University Press. New York. (2018).
  16. Kennedy, D. P., Lisandrelli, G., Shaffer, R., Pedapati, E., Erickson, C. A., Yu, C. Face Looking, Eye Contact, and Joint Attention during Naturalistic Toy Play: A Dual Head-Mounted Eye Tracking Study in Young Children with ASD. Poster at the International Society for Autism Research Annual Meeting. , (2018).
  17. Yurkovic, J. R., Lisandrelli, G., Shaffer, R., Pedapati, E., Erickson, C. A., Yu, C., Kennedy, D. P. Using Dual Head-Mounted Eye Tracking to Index Social Responsiveness in Naturalistic Parent-Child Interaction. Talk at the International Congress for Infant Studies Biennial Congress. , July (2018).
  18. Holmqvist, K., Nyström, M., Andersson, R., Dewhurst, R., Jarodzka, H., Van de Weijer, J. Eye tracking: A comprehensive guide to methods and measures. , Oxford University Press. (2011).
  19. Saez de Urabain, I. R., Johnson, M. H., Smith, T. J. GraFIX: a semiautomatic approach for parsing low- and high-quality eye-tracking data. Behavior Research Methods. 47 (1), 53-72 (2015).
  20. Franchak, J. M. Using head-mounted eye tracking to study development. The Cambridge Encyclopedia of Child Development 2nd ed. Hopkins, B., Geangu, E., Linkenauger, S. , Cambridge University Press. Cambridge, UK. 113-116 (2017).
  21. Yonas, A., Arterberry, M. E., Granrud, C. E. Four-month-old infants' sensitivity to binocular and kinetic information for three-dimensional-object shape. Child Development. 58 (4), 910-917 (1987).
  22. Smith, T. J., Saez de Urabain, I. R. Eye tracking. The Cambridge Encyclopedia of Child Development. Hopkins, B., Geangu, E., Linkenauger, S. , Cambridge University Press. Cambridge, UK. 97-101 (2017).

Tags

Verhalten Ausgabe 141 Head-mounted Eye-tracking egozentrischen Vision Entwicklung Säugling Kleinkind visuelle Aufmerksamkeit
Blick in Aktion: Head-mounted Eyetracking Kinder-dynamische visuelle Aufmerksamkeit während der naturalistischen Verhalten
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Slone, L. K., Abney, D. H., Borjon,More

Slone, L. K., Abney, D. H., Borjon, J. I., Chen, C. h., Franchak, J. M., Pearcy, D., Suarez-Rivera, C., Xu, T. L., Zhang, Y., Smith, L. B., Yu, C. Gaze in Action: Head-mounted Eye Tracking of Children's Dynamic Visual Attention During Naturalistic Behavior. J. Vis. Exp. (141), e58496, doi:10.3791/58496 (2018).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter