Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

アクションの視線: 自然主義的な行動の中に子供の動的視覚的注意のヘッド マウント型の目の追跡

Published: November 14, 2018 doi: 10.3791/58496

Summary

幼児ない受動的、世界を観察が、むしろ積極的に探索を行い環境に従事。このプロトコルは、原則の自然な動作のコンテキストで乳児を記録する目のヘッド マウント型トラッカーと幼児の動的なビジュアル環境と視覚的注意を用いた実用的な推奨事項を提供します。

Abstract

幼児の視覚環境は動的な子供たちが物理的、視覚的に空間とオブジェクトを探索し、周りの人々 との対話で瞬間瞬間を変更します。頭に取り付けられた視線は、子どもの動的自己中心的なビューとそれらのビュー内の視覚的注意を割り当てる彼らどのようにキャプチャするユニークな機会を提供しています。このプロトコルは、基本理念と研究室でより自然主義的な設定ヘッド マウント目トラッカーを使用して研究者の実用的な推奨事項を提供します。ヘッド マウント型視線より携帯性と画面の視線と比較して頭と体の動きの自由をもっと生態学上有効なコンテキストでのデータ収集のための機会を高めることによって他の実験方法を補完します。このプロトコルは、モーショントラッ キングや心拍監視、自然な動作、学習、および以前より開発を調べるため高密度マルチ モーダルなデータセットを提供するなど、他のテクノロジと統合できます。本稿は、幼児のための 1 つの自然な文脈で視覚的注意を調査するように設計研究では頭部装着視線から生成されるデータの種類を示しています: 親と玩具プレイを自由に流れます。このプロトコルの使用の成功は、視覚的注意についてだけでなく、他の知覚・認知・社会的スキルとその開発の広い範囲についての質問に答えるためのデータを収集する研究者になります。

Introduction

最後の数十年は、幼児と幼児の視覚的注意の開発の研究に関心の高まりを見てきました。この関心は、プライマリばかりで他の認知機能を評価するためには、独自の権利で乳児の視覚的注意に関する研究に進化するいると時間の測定の使用から大きい部分で茎しています。乳児と幼児の視覚的注意の現代調査は主にアイ ・ トラッキング タスクの画面の中に眼球運動を測定します。幼児は、静止画像やイベントのプレゼンテーション中に目の動きを監視しながら椅子またはスクリーンの前に親のひざに座っています。このようなタスクは、自然な視覚的注意と能動的探索 - 子供の自然な視覚環境を生成手段の動的な性質をキャプチャするただし、失敗します。

乳児や幼児は、彼らの手、頭、目とオブジェクト、人々、および前後にスペースを探検するボディを移動アクティブな生き物です。体形態、運動技能と行動 - クロール、ウォーキング、社会的パートナーとの魅力的なオブジェクトを拾って - の各の新しい開発は初期の視覚環境の変化を伴います。幼児が何彼らが参照してください決定します、彼らが参照してください彼らは視覚的にガイド付きのアクションで何の提供していますので視覚的注意の自然な開発を勉強して最高で行われます自然現象1のコンテキスト。

ヘッド マウントの目追跡システム (ETs) が発明・大人のための十年2,3の使用します。最近技術の進歩したアイトラッ キング技術のヘッド マウント乳幼児に適した。参加者には 2 台の軽量カメラ頭、参加者の最初の人の視点をキャプチャするシーンのカメラが外側に直面していると目の画像をキャプチャに内側に直面して目カメラが備わっています。校正手順は、視覚的に出席されていた情景画像の対応するピクセルに目の画像で瞳孔や角膜反射 (CR) の変化する位置をできるだけ正確にマップするアルゴリズムにトレーニング データを提供します。このメソッドの目的は、自由に両方、幼児や乳児のアクティブな視覚探索それら環境の幼児の動きとして自然な視覚環境をキャプチャすることです。このようなデータは、視覚的注意についてだけでなく、知覚、認知、および社会開発4,5,6,7,8の広い範囲についての質問に答えるのに役立ちます。これらの技術の使用を変えた共同注意7,8,9, 持続的注意10年齢と運動機能発達4視覚の経験を変更することの理解,6,11と単語学習12視覚経験の役割。本指針および乳幼児を持つヘッド マウント アイトラッ キング実験を行うための実用的な推奨事項を提供し、自然にヘッド マウント型視線から生成できるデータの種類を示しています幼児のためのコンテキスト: 親と玩具プレイを自由に流れます。

Subscription Required. Please recommend JoVE to your librarian.

Protocol

このチュートリアルは、インディアナ大学の制度検討委員会によって承認された幼児とヘッド マウント目追跡データを収集する手順に基づいています。幼児の実験に参加する前に情報の親権者の同意が得られました。

1. 研究のための準備

  1. 眼球追尾装置。いくつかヘッド マウント アイトラッ キング システム、市販されているいずれか 1 つの子供のために具体的には、販売のいずれかを選択またはカスタムメイド幼児キャップ、例えばとして図 1 および図 2に示すように動作するようにシステムを変更します。アイトラッ キング システムに乳児や幼児を次の手順でテストするために必要な機能があることを確認します。
    1. ポジショニングの面で調整可能ですし、研究の質問に対処するための適切なフィールドのビューを取得する十分な幅の角度を持っているシーンのカメラを選択します。ここで説明したような無料プレイ設定で幼児の活動の大部分をキャプチャするには、少なくとも 100 度斜めの視野をキャプチャするカメラを選択します。
    2. ポジショニングの面で調整可能で、いずれかのカメラやカメラに隣接して建てられたし、目の角膜が光を反射するように配置されている赤外線 LED 目カメラを選択します。メモいくつかのアイトラッ キング モデルが固定位置が、柔軟な調整をできるモデルをお勧めします。
    3. 控えめな、最大のチャンスを提供するために可能な限り軽量アイトラッ キング システムを選択・乳児が容認する装置を身に着けています。
      1. キャップに、キャップに縫い付けて Velcro の反対側に貼付されている Velcro ストラップをシーンと目のカメラを接続することによってシステムを埋め込むと幼児のビューの中心からカメラを配置します。
        注: メガネに似ているように設計されたシステムが最適ではないです。幼児の顔の形態が異なっている大人と幼児の鼻や耳に残りの部分は、気が散ると参加者の不快感をすることができます。
      2. ET はコンピューターに有線、ケーブルをバンドルし、トリップまたは気晴らしを防ぐために参加者の後ろにそれらを保ちます。また、大きく移動する子供に配置することができます携帯電話などの中間デバイスにデータを格納する自己完結型システムを使用します。
    4. オフラインの校正では、校正ソフトウェア パッケージを選択します。
  2. 録音環境。
    1. 子供がデータ収集中に空間を通して移動先範囲を検討してください。単一の位置が望ましい場合、彼らは目的の場所にとどまる子を助けることができるので子供の介護者に明記します。届くべき子がやり取りする必要がありますそれらを除いてスペースからすべての潜在的なディス トラクターを削除します。
    2. ET が難民となるときの瞬間を識別するためだけでなく子どもの行動の後でコーディングを支援する三人称視点のカメラを採用してください。子供は、空間を通して移動されますが、同様に追加のカメラを検討してください。

2. アイ ・ トラッキング データを収集します。

  1. 人事・ アクティビティ。2 つ実験者と対話し、子との 1 つを配置し、ET の位置を占める 1 つ存在があります。
    1. 完全に子供を子移動まで到達しないか、または彼らの頭の上に配置する ET をつかむように、子供の手を占有する活動に従事します。手動による操作と実験者間保持できる子や親が子供に読む小さな本を促進するおもちゃを検討してください。
  2. 子に ET を配置します。ヘッド マウント型 ET を身に着けている幼児の許容範囲によって異なりますので、配置や子らを維持することで成功を促進するこれらの推奨事項に従ってください。
    1. 研究に至るまでの時間、キャップやビーニー、自分の頭で何かを持っていることに慣れてもらうために自宅、ET で使用されるものに類似した彼らの子供の摩耗を持っている介護者を求めます。
    2. ある研究では、ET の着脱可能キャップの種類。異なったサイズおよび様式の後方を着用することができますボール キャップなど動物の耳、ビーニー キャップを購入し、Velcro アイトラッ キング システム、Velcro の反対側が装備の着脱を追加してキャップをカスタマイズします。また介護者、実験者、子どもの興味や意欲もキャップを着用するを助長することが着用する帽子を持っていることを検討してください。
      1. 子にキャップを置く前に髪を軽く何度も触れるおもちゃに幼児の興味関心とを指定して頭にタッチに幼児を鈍感実験者があります。
    3. 子に ET を配置、するの背後にあるまたは子の側にある (図 2A参照)。子供がそれぞれの手でおもちゃを保持しているときなど、自分の手が占められるとき子供に ET を配置します。
      1. 子 ET を配置する実験者の方場合は、こんにちはと言って、子供の何が行われている知っている中で、子供の頭に ET をすばやく配置します。ら、子供の苦痛を引き起こすことができます、その子は自分の頭を移動または ET の到達する大きい機会として貧しい位置につながる可能性がありますを配置しながら遅すぎる移動しないでください。
      2. 参加者に ET を配置する前に、配置後のカメラの調整にかかる時間を減らすために設定したときに子供の頭の予想される位置にあるカメラ (セクション 2.3.1 と 2.3.2 参照)。
  3. 位置 ET のシーンとカメラ目。ET は、子供の頭では、これらのカメラのビデオ フィードを監視しながらシーンと目のカメラの位置を調整をします。
    1. 最高額の低いシーン カメラおおよそ子供の視野の位置 (図 1Bを参照)。何子供を見て研究中のシーンのカメラ ビューを中心します。
      1. 手と対象物が常に子供の近くに非常にあるし、さらにオブジェクトがバック グラウンドと高いシーンのカメラ ビューでは、シーンのカメラ ビューで低を覚えておいてください。最高研究の質問に最も関連するビューの種類を捕捉できるシーンのカメラを位置します。
      2. 小さなおもちゃやレーザー ポインターを使用して、ビューのフィールドの特定の場所に子供の注意を誘致することでシーンのカメラの位置をテストします。観察研究に興味がある地域の距離で予想されるこれらの場所を確保する (図 3参照)。
      3. 水平面がフラットのシーンのカメラ ビューに表示されることを確認することによって傾斜を避けるため。再配置中に誤って逆取得カメラの可能性を軽減するためにシーンのカメラの縦方向が、必要に応じて、ポスト処理中に、追加の手順が正しい向きに画像を戻すことができることに注意してください。
    2. 高品質の視線データを取得する両方の瞳孔、角膜反射 (CR) を検出する目のカメラの位置 (図 2参照)。
      1. それは子供の生徒、頬や目の運動の全範囲でまつげがない咬合を中心としたので目のカメラの位置 (図 2C F善と悪の目の画像の例についてを参照してください)。これで支援するために目の下、頬、上向き、子のビューのセンターからカメラを保つことの近くの目のカメラを位置します。また、下の目のカメラの位置、目の外側に内側を指してくださいします。
      2. カメラが目の動きが目のカメラ画像で瞳孔の比較的大きな変位を生成することに十分に近いことを確認します。
      3. 目の画像で目の角は、水平ラインを形作ることができることを確認することによって傾斜を避ける (図 2C参照)。
      4. 瞳孔は虹彩から正確に識別することができますので、虹彩と瞳孔のコントラストが比較的高いことを確認 (図 2C参照)。このために、(LED が独立して調整できない) 場合 (アイカメラ) 横場合 LED 光源の位置か、目から目のカメラの距離を調整します。児童数の増加の検出角度で、目のないストレートに LED ライトを配置します。LED ライトの調整がまだ明確な CR を生成してください (図 2C参照)。
  4. オフラインのキャリブレーションのための調査の間にポイントを取得します。
    1. シーン/目のイメージとして、高品質として一度できます、彼らの視野の別の場所に子供の注目を描画することによって収集校正データ。
      1. 明らかに視野の中小、明確なポイントに子供の注意を指示することでさまざまな表面上キャリブレーション ポイントを取得 (図 3参照)。例えば、小さな独立アクティブ led を単色の背景またはサーフェスに対してレーザー ポインターを使用します。
      2. 子供のキャリブレーション ターゲットを確認する子のビューで他の興味深いターゲットの存在を制限します。
    2. 交互に目の角度変位を必要とする別の場所に注目します。
      1. 同様にビューのフィールドをカバーし、次の場所に彼らを見たときを推論するためにオフラインの校正中に子供から明確なサッカードを見つけることを援助する点の間余りにすぐに移動しないでください。
      2. 子供はすぐに新しい強調表示された場所を見ない、レーザーを揺らす、/、Led をオフまたは指で場所に触れる場所への彼らの注意を得る。
      3. 可能であれば、後で使用可能になるいくつかの場合よりも必要なキャリブレーション ポイントを取得します。
    3. 校正中に子供の体の位置が研究に使用される位置と一致することを確認します。
      1. たとえば、子供が立って後でいると予測される場合に子供が座っているときにキャリブレーション ポイントを収集しません。
      2. 子間の距離を確認し、キャリブレーション ターゲットが子供と調査の間に興味のある、地域間の距離のようです。
      3. 実験では、子どもはさらに離れているオブジェクトでは探して主に子供の体に非常に近いキャリブレーション ポイントを配置しないでください。1 つは近くと遠くの両方のオブジェクトに興味が場合は、キャリブレーション ポイントの 2 つの異なるセットを取得後、表示距離ごとにユニークな校正を作成する使用ことがでくことを検討してください (詳細についてはセクション 3.1 を参照)。
        注: 両眼の視線は、開発技術13,14約束進歩深さで視線を追跡します。
    4. 調査の間にドリフトや ET の動きに対応するため、最低でも研究の前後両方でキャリブレーション ポイントを収集します。可能であれば、セッション中に一定の間隔で追加のキャリブレーション ポイントを収集します。
  5. 調査の間に ET と 3 人のビデオ フィードを監視します。
    1. ET は、ぶつかったまたは他の動き/アクションによるずれを取得した場合における再調整し、別々 に、研究の部分をバンプ/ずれの前後にコードが必要になる場合がありますので、これが起こったときの注意してください (セクション 3.1.1 参照)。
    2. 可能であれば、シーン、目のカメラを (セクション 2.3 を参照してください)、位置を変更する各バンプ/ずれした後に研究を中断し、校正の新しいポイントを取得 (セクション 2.4 を見る)。

3. 調査の後のキャリブレーション ソフトウェアを使用して ET データを調整します。

注: 校正ソフトウェア ・ パッケージ各種市販されています。

  1. 複数のキャリブレーションを作成検討してください。ないアルゴリズムが正しく一致しないデータを供給することにより視線追跡の精度を最大化する別のビデオのセグメントにキャリブレーション ポイントをカスタマイズします。
    1. ET は、研究中にいつでも位置を変更した場合は、ET の位置の変更の前後に部分の独立した校正を作成します。
    2. 非常に異なる視聴距離でオブジェクトに注意に興味を持って、別のキャリブレーションの各視聴距離でオブジェクトが子が探しているビデオの一部を作成します。距離の表示の違いを心に留めておいてが非常の間子供の視覚的注意のシフトによって作成された可能性がありますを閉じて、遠くのオブジェクトを異なるもオブジェクトを基準にして子供の体の位置の変更、によってなど、立っている座っているからシフトします。
  2. 各校正を実行します。校正ポイント - ポイントを子供の視線はそのフレームの中に明確に指示された情景画像中のシリーズを作成してシーンと目間のマッピングを確立します。注校正ソフトウェアが推定でき、校正ポイント セットからすべてのフレームで視線 (POG) のポイントを均等に補間にまたがるシーンの画像。
    1. 目のカメラの特定の POG が信頼できることを確認する映像の各フレームで CR の瞳孔を検出のキャリブレーション ソフトウェアを支援します。確実に、一貫してソフトウェアが CR を検出できない場合、瞳孔だけ (ただし、データの品質は結果として苦しむこと) を使用します。
      1. ありますソフトウェアのさまざまな検出パラメーター調整のしきい値を調整することによって目のカメラ フレームに良い目画像を得る: 目の画像の明るさ、ソフトウェア瞳孔の大きさは期待してバウンディング ボックスを設定する、瞳孔をソフトウェアが検索する場所の境界。動きの目の完全な範囲を通してボックス内に瞳のまま確保しながら可能な限り小さく境界ボックスを描画します。瞳孔を決して占有スペースを含む大きいバウンディング ボックスが偽瞳孔検出の可能性が高くなるし、より少なく正確に検出する瞳孔の小さな動きを引き起こす可能性があります注意してください。
      2. 注意してください、ソフトウェアのさまざまな検出しきい値を調整した後でもソフトウェア可能性がありますまだ時々 正しくない瞳孔または検索 CR;例えば、まつげをカバー瞳孔場合。
    2. シーンと目のカメラ フレームに基づいて良いキャリブレーション ポイントを見つけます。ソフトウェアに提供される最高の校正ポイントが、瞳孔と CR が正確に検出された目は安定した情景画像の領域で明確に識別できる点に釘付けになったし、ポイントは全範囲にわたって均等に分散しているものであることに注意してください。シーン画像。
      1. 瞳孔検出がキャリブレーション ポイントがプロットされます各フレームの正確なアルゴリズムに与えられる有効な x と y のシーンの座標と有効な瞳孔座標の両方いることを確認します。
      2. 校正で最初のパスの間に子はこの情景画像から明確な点に明確を見て瞬間にキャリブレーション ポイントを識別します。レーザー ポインターのインスタンスでデータ収集中実験者によって意図的に作成されたポイントをすることができますこれらを覚えておいて (図 3A Bを参照)、または、POG で簡単に識別できる (参照研究からポイントをすることができます図 3C) 瞳孔がそれらのフレーム正確に検出されない限り、します。
      3. さらに極端な x と y のシーン画像座標に視線の瞬間を見つけるために子供の目がその最も極端な x と y の位置にあるときに正確な瞳孔検出との瞬間を見つける目カメラ フレームをスキャンできます。
    3. 各校正可能な最も正確な校正に繰り返し磨きをかけるため複数の「パス」を行います。最初の「パス」を修了すると校正で、多くのソフトウェア プログラム (例えば十字) の現在のトラックを失うことがなく以前使用されるポイントの削除を許可するに注意してください。前の校正パスは、徐々 に、徐々 に「クリーンアップ」任意のノイズ校正精度を上げることによって生成された POG トラックの追加援助ですが最初からアルゴリズムを訓練するキャリブレーション ポイントの新しいセットを選択または以前の実行で発生した誤差。
  3. どれだけ、POG、校正中にレーザー ポインターで、ドットなどの知られている視線の場所に対応し、方向と子供のサッケードの大きさを反映して観察することによって校正の品質を評価します。校正プロセス中にポイントとしても使用された校正品質を評価するためにポイントを使用しないでください。
    1. 子どもの頭と目は、揃えられる、子供の視覚的注意は情景画像の中心に向かって監督多いと正確なトラックがこれが反映されますので、それを覚えています。キャリブレーションにより生成される映像のフレーム単位で x と y POG 座標をプロットし、トラックの中心を評価する (図 4を参照)。ポイントが最もシーンの画像の中心部に密なシーンのカメラは子供の視野の最初に配置するときの中心にありませんの場合を除き、対称的に分散であることを確認します。
    2. 校正精度を反映して線形・射影変換のフィット スコアいくつかのキャリブレーション ソフトウェアを生成することに注意してください。これらのスコアがある程度役に立つので、彼らが悪い場合、トラックもする可能性が貧しいことを念頭にしてください。しかし、彼らは、POG の地上真実の場所にこれらの点のフィットについての情報を提供しない、自分で選択した校正ポイントに同意する度合いを反映して校正精度の尺度としてフィット スコアを使用しません。
    3. 視線の先が、簡単に識別したがって、地上真実として使用することができます研究の瞬間があることに注意してください。知られている視線ターゲットと POG の十字間の誤差を測定することによって視角の精度を計算 (ビデオ画像からピクセル単位でエラー約に変換できるシーンのカメラのレンズ特性に基づく度)4

4. コード領域 (ROIs)。

注: POG データ子は、視覚的に、時間の特定の瞬間の間に出席しているどのような領域を決定するための評価である ROI 符号化します。ROI が記述されているフレームで POG データから高解像度と高精度です。このコードの出力は時間をかけて POG の領域を指定するデータ ポイント - ビデオ フレームごとの 1 つのポイント - のストリーム (図 5を参照)。

  1. ROI 符号化を開始、する前に研究の質問に基づいてコーディングする必要がありますすべての Roi のリストをコンパイルします。注意して、不必要に時間がかかるコーディングになります質問を研究に答える必要ない・ ロワをコーディングします。
  2. ROI 符号化の原則。
    1. 成功したコーディングがコーダーの子を探してと代わりに各フレームの目の画像、風景画像、計算 POG を慎重に調べるべきである仮定を放棄を要求することに注意してください。たとえば、オブジェクトは子によって開催されている、特定のフレームの映像が非常に大きい、場合でもを推論しないこと、子供が見てそのオブジェクトその瞬間も目の位置による指示がない限り。・ ロワが地域、子は子完全な視覚情報をキャプチャされませんが、foveating を示すことに注意してください。
    2. 投資収益率を視覚的に出席されている決定するのに目の画像、風景画像、POG トラックを使用します。
      1. ガイドとして、地上ではなく POG トラックを使用します。理想的には POG トラックは明らかに見つめた時に各フレームのための子供によって正確な場所を示す、けれども、子どもが閲覧する現実の世界の 3 D の自然に対する情景画像の 2 次元 (2 D) 性質のためケースを常にはないこれを注意d と参加者間の校正精度の変化。
        1. 計算の POG トラックがキャリブレーション アルゴリズムに基づく推定値であり、この特定のフレームの POG トラックの信頼性がどれだけ瞳孔と CR が検出されたに依存したがってことを覚えています。いずれかまたは両方が検出されないまたはが正しくありません、POG トラックは信頼性の高いできません。
          注: 十字があります一貫してオフのターゲット固定距離で。新しいソフトウェアは、この不一致を修正計算する 1 つをすることが。そうでなければ、訓練を受けた研究者は手動で補正を行うことがあります。
      2. 投資収益率を変更可能性があります第一次手掛りとして目の画像の瞳孔の動きを使用します。
        1. 目の画像を見て一つ一つのフレームをスクロールします。目の見える動きが発生すると、子供は新しい投資収益率、ない定義された投資収益率、POG、シフトかどうかチェックしてください。
        2. すべての眼球運動が投資収益率の変化を示すことに注意してください。心に留めておいて、投資収益率は、空間 (例えば、間近のオブジェクト) の大規模な領域を構成する場合、小さな目の動きは、同じ ROI 内の新しい場所に外観を反映可能性があります。同様に、子供が単一移動 ROI を追跡または動いている子供として自分の頭も同じ ROI に視線を維持するために彼らの目の動き、眼球運動が発生することに注意してください。
        3. 注意: いくつかの ETs と目の画像は子供の目のミラー イメージの場合目がシーンで右へのシフトに対応する左に移動する場合。
    3. POG のトラックをガイドとしてのみ提供しています、ためコーディングの決定を導くために同様に使用可能なコンテキスト情報の使用します。
      1. ROI をコーディングするときは、さまざまなソースまたはフレームからの情報を統合します。にもかかわらず、投資収益率は、フレームごとに別々 にコーディングされている、正しい投資収益率を決定する際に役立つコンテキスト情報を得るために現在のフレームの前後フレームを利用します。例えば、POG トラックが不在または不正確貧しい瞳孔検出のための特定のフレームの目は、瞳孔が正確に検出された先行/後続フレームに基づくを移動しなかった場合、そのフレームの POG トラックを無視し、ROI ba のコード周囲のフレームにセッド。
      2. ユーザーの研究の質問の特定の他の決定を行います。
        1. たとえば、2 ・ ロワが互いに近くに ROI をコーディングする方法のためのプロトコルを作るにはそれは「正しい」投資収益率を決定することは困難することができます。子供が 2 つ・ ロワの交差点にある表示の場合、同時に両方の Roi をコードするかどうかまたは選択して投資収益率カテゴリの 1 つだけを割り当てる方法の意思決定ルールのセットを作成するかどうかを決定します。
        2. 他の例として興味の対象は、手はオブジェクトを遮蔽するように格納されている場合は、手の投資収益率、または保持されたオブジェクトの ROI として、POG をコードするかどうかを決定します。
  3. 信頼性のための投資収益率のコードします。コーディング プロシージャ プロトコルをコーディング初期投資収益率が完了した後信頼性を実装します。利用可能な信頼性コーディング プロシージャのさまざまな種類があります。具体的な研究の質問に基づいて最も関連するプロシージャを選択します。

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

ここで説明する方法は、幼児とその親との間の自由に流れるグッズ プレイ コンテキストに適用されました。研究は、雑然とした環境で自然な視覚的注意を調査するため設計されました。母子は、6 分間 24 おもちゃのセットを自由に指示されました。発症を符号化することによる幼児の視覚的注意を測定し、特定のオフセットに見える各 ROI に興味 (ROIs)--24 おもちゃや親の顔と期間との割合を分析してそれぞれの地域。結果は、図 5に視覚化されます。

図 5Aは 2 つの 18 ヶ月歳の子供のためサンプル ストリームに投資収益率を示しています。ストリームで各色のブロックは、子供が見て特定投資収益率連続フレームを表します。得られた視線データは、自然な視覚的注意の興味深いプロパティの数を示します。

まず、子供たちは、おもちゃのさまざまなサブセットの彼らの選択で個人差を示します。図 5Bは、それぞれの子は、それぞれ 10 の選択したグッズ ・ ロワを見て過ごしたこと 6 分相互作用の割合を示しています。時間子 1 と子 2 の合計割合を過ごした 0.76、0.87、それぞれ個々 のおもちゃに費やされる時間の割合変化大きく両方内と被験者間、やや類似していた (すべて 24 グッズ ・ ロワを含む) のおもちゃを見てします。

お探しのこれらの割合の時間も子どもたちの間で異なってが得られました。図 5Cは、それぞれ 10 の選択したグッズ ・ ロワのルックスのそれぞれの子の平均時間を示します。子 2 ・ ロワのおもちゃすべて 24 に見えるの平均期間 (M = 2.38 秒、 SD = 2.20 s) だった限り、子供 1 のほぼ 2 倍 (M = 1.20 秒、 SD = 0.78 s)。プロポーションと、期間などの複数を探して対策をコンピューティングは、データの完全な理解のために重要な理由を示します図 5B、Cで赤てんとう虫ガラガラ (紫のバー) に見るパターンの比較このおもちゃを同じ比率は、期間が異なるの見える数が異なるを通してこれらの子どもたちの達成されました。

これらのデータによって示される別のプロパティは、両方の子供が彼らの親の顔をほとんど見た: 探している子 1 と子 2、.015、.003、それぞれ顔のプロポーション。さらに、これらの子供たちの親の顔に見えるの期間が短い平均 0.79 s (SD = 0.39 秒) と 0.40 s (SD = 0.04 s) 子 1 と子 2 のそれぞれ。

Figure 1
図 1.ヘッド マウント型視線を 3 つの異なるコンテキストで採用: (A)卓上グッズ プレイ、床、および(C)絵本の読み聞かせ(B)玩具プレイ。この図の拡大版を表示するのにはここをクリックしてください

Figure 2
図 2.ヘッド マウントの目追跡システムを設定します。(A)幼児のアイト ラッカーを位置決め研究員。(B)乳児によく配置されたアイ ・ トラッカー。(C)良い大きな中心的生徒とイメージを目し、角膜反射 (CR) をクリアします。(D、E、F)悪い目の画像の例です。この図の拡大版を表示するのにはここをクリックしてください

Figure 3
図 3.キャリブレーション ポイントの取得の 3 つの異なる方法。それぞれの瞬間の 2 つのビューが表示されます。トップ: 3 人の表示、下部: 子供の最初人の眺め。3 人の表示の矢印は、レーザー光の方向性を示します。校正とピンクの十字線に使用される各瞬間に良い目の画像は完成した校正による視線のポイントを示す子供の表示の右上のボックスを挿入します。(A)キャリブレーション ポイントを指とレーザー ポインターを使用して、床の上のオブジェクトに注意を向ける実験者によって生成されます。(B)キャリブレーション ポイント レーザー ポインターを使用して、表面のドットに注意を直接実験者によって生成されます。(C)キャリブレーション ポイント グッズの中には、子供の注意がされます保持オブジェクトに親と遊ぶ。この図の拡大版を表示するのにはここをクリックしてください

Figure 4
図 4.校正品質を評価するために使用されるプロットした例です。個々 のドットは、キャリブレーション アルゴリズムによって決定される、カメラ映像内の視線 (POG) 座標のフレームあたり x y ポイントを表します。(A)中心は POG のほぼ円形の密度と低 (子供のおもちゃを見てを保持しているとき、POG は若干下方監督通常の子)、によって示される子グッズ再生実験のための良い校正品質とほぼ均等に残りのシーンのカメラの画像で POG を分散。((B))貧しい校正品質、オフ中心は POG と残りのシーンのカメラの画像で悪い分散の POG の細長いと傾斜の密度によって示されます。(C)貧しい校正品質あるいはオフ中心の POG で示されるシーンのカメラの初期位置の不備。この図の拡大版を表示するのにはここをクリックしてください

Figure 5
図 5.2 人の子供の視線データと統計情報。(A)サンプルの投資収益率は、60 の中に子 1 と子 2 のストリームの相互作用の s。ストリームで各色のブロックは、連続フレーム子供が見て特定グッズまたは親の顔の投資収益率を表します。ホワイト スペースは、Roi のいずれかを見ていない子供のフレームを表します。(B)両方の子供の親の顔と 10 グッズ ・ ロワを見て時間の割合。割合は、各投資収益率にすべてのルックスの期間を合計 6 分のセッションの合計時間で合計期間を割ることによって計算しました。(C)は、両方の子供のための親の顔と 10 グッズ ・ ロワに見える期間を意味します。平均持続時間は、6 分間の対話中に個々 に見える各 ROI の期間を平均することによって計算しました。この図の拡大版を表示するのにはここをクリックしてください

Subscription Required. Please recommend JoVE to your librarian.

Discussion

このプロトコルは、基本理念と幼児および幼児の頭に取り付けられた視線を実装するための実用的な推奨事項を提供します。このプロトコルは、実験室のおもちゃで親幼児無料ゲームのコンテキストで自然な幼児行動に関する研究に基づいていた。社内の視線追跡装置とソフトウェアは、キャリブレーション、データ符号化のため使用されました。それにもかかわらず、このプロトコルは、研究者の子どもと幼児の開発のトピックの様々 な研究にさまざまなヘッド マウント アイトラッ キング システムを使用して一般的に適用されるものです。仕立て、これらの採用このプロトコルの最適な使用は、試験に特有が、一般的なプラクティスが同時の頭に装着をしているアイトラッ キングを含むさまざまなコンテキスト (図 1を参照)、このプロトコルの使用の成功につながっています。両親と幼児7,8,9,10,15人工内耳装用児と自閉症スペクトラムと診断された子どもを含む臨床集団のヘッド マウント型の目追跡16,17を障害します。

このプロトコルは、さまざまな自然の能力や行動の開発を調査するため多数の利点を提供します。ETs の頭に取り付けられた頭と体の動きの自由度は参加者の自己生成視覚環境とそれらの環境の彼らの能動的探索の両方をキャプチャする機会与える研究者を許可します。ETs のヘッド マウント型の移植性は、もっと生態学上有効なコンテキストでデータを収集する研究者の能力を強化できます。これらの利点のためこのメソッドは画面の注視時間と視覚的注意、社会的に注目、知覚運動統合などのドメインにわたって開発を勉強の目追跡メソッドに代わる、補完と時折課題推論研究者描くことができます実験の従来の方法を使用しています。例えば、ここで説明したプロトコル増加における個人差を展示する参加者のための機会の参加者は、場所とのシーンでは、視覚的注意を集中するどのくらいだけではない以上コントロールを持っているので、動作を探して画面の目の追跡も彼らの目、頭、体の動きを通してそれらの場面の構成と環境の要素の物理的な操作。ここで提示された 2 つの参加者のデータは、どのくらい幼児なら個人差と彼らが積極的に作成し、彼らのビジュアル環境を探索することができる場合のオブジェクト幼児のサンプルを示しています。さらに、このプロトコルを採用する他の研究だけでなく、ここでは、提示されたデータは自然主義的な玩具プレイ、両親と幼児を見て親の顔よりはるかに少ない以前研究4,5 によって提案されるのことをお勧め ,7,8,9,10

これらの利点にもかかわらず、方法論的課題の乳幼児を持つヘッド マウント型視線があります。最も重大な挑戦が良いキャリブレーションを取得します。シーン イメージが実際に表示された 3 D の世界の 2D 表現だけが、目の位置と注視シーンの場所の完全なマッピングは可能です。このプロトコルで提供されるガイドラインに従うことによってマッピングは「地上真実」、しかし特別な注意する必要がありますいくつかの問題に支払われる近くに確実になることができます。まず、ヘッド マウント視線も若い参加者がアイトラッ キング システムをしばしばぶつかることの手段によって許可されている頭と体の動きの自由度。目やシーンのカメラを基準として目の物理的な位置の変更が瞳孔/CR と情景画像中に出席した対応するピクセル間のマッピングを変更するため、これは問題です。そう失敗は 1 つの部分の中にポイントを使用して校正する場合にのみ、のみ正確に研究の 1 つの部分の子供の視線を追跡するアルゴリズムになりますので、研究のこれらの部分の独立した校正を行うは重要でそのため。子供の生徒と CR の 2 番目、正確な検出が重要です。アルゴリズムか不適切な瞳孔の x と y 座標では、シーンの画像でこのキャリブレーション x と y 座標を関連付けることを学ぶしに瞳孔が正しく検出されないか、まったく検出されない、情景画像のキャリブレーション ポイントをプロットする場合またはアルゴリズムが瞳孔がまったく検出されない場合空白データに給紙されています。したがって、研究のセグメントの良好な検出が得られない場合これらのフレームの校正品質が悪くなるし、POG のコーディングを信頼しないでください。第三に、子どもの頭と目、揃えられるので視覚的注意はよく情景画像の中心に向かって送られます。それにもかかわらず、情景画像中の極端な x と y 位置合わせ点もシーン全体画像全体にわたって正確な視線トラックを確立するために必要です。したがって、キャリブレーション ポイントは、瞬間目がオブジェクトに安定したときに通常選択する必要があります、これできない情景画像の隅々 までキャリブレーション ポイントの。最後に、覚えておいて、良い目の画像を取得してシステムを調整するときに、もこれは限りません目的分析のための十分な品質のデータであります。目生理学など個々 の要因だけでなく、照明などの環境要因の違いアイトラッ キング ハードウェアとソフトウェアの違いすべてデータの品質に影響を与えるし、オフセットまたは不正確なデータで作成する潜在性があります。18,19は、(また見なさい Franchak 201720) このような問題のより多くの情報と可能なソリューションを提供します。

また乳幼児を持つ作業セッション全体でヘッド マウント型 ET の公差の確保の課題が含まれます。このプロトコルは、年齢の約 9-24 ヶ月からの乳児用設計の推奨事項を採用研究室は、参加者20の約 70% から高品質ヘッド マウント目追跡データを取得できます。参加者の他の 30% 可能性がありますいない目トラッカーまたは十分なデータの前に研究から大騒ぎの不寛容のため調査を始めるか (例えば、 > プレイの 3-5 分) 良い眼を持つトラックを得ることができます。幼児および幼児の参加者の成功の 70%、これらのセッション通常最後の 10 分以上いくら長いセッションできない参加者の年齢や、タスクの性質によって、現在の技術で実現可能です参加者が行っています。研究課題と環境を設計するとき研究者留意すべき発達状態、参加者の運動能力、認知能力、社会開発、見知らぬ人に安心感を含むすべての影響をことができます。参加者の集中力と目的のタスクを実行する機能。また目の形態、生理、両眼視差などの検討と同様、ことはできませんまだの上に座る自分の幼児を下支えなど実用的な問題を含む、9 ヶ月よりずっと若い幼児をこのプロトコルを採用これはより古い子供および大人1921のそれと異なります。さらに、このプロトコルは、最も成功した環境データを収集することがありますの範囲を制限することができます経験豊富な訓練を受けた実験者によって運ばれる。もっと練習実験者、可能性が高く、彼らはスムーズに実験を実施し、高品質の目の追跡データを収集ことができるでしょう。

ヘッド マウント型視線も比較的多く時間がかかるデータ符号化の追加に挑戦を提起できます。・ ロワを探し当てる目追跡データの頭に装着はよりによってコード化されたフレームでより視覚的注意の「注視」ためにです。つまり、フレーム単位で x と y の POG 座標の変更の率が低く、目が点に安定している徴候として取られるとき、凝視は特定通常です。しかし、ヘッド マウント型の目追跡システムからシーン表示が参加者の頭と体の動きで移動、ため目の位置のみ正確にマップできます物理的な相対位置に目が動いている方法を考慮した中心窩が頭体の動きします。たとえば、移動する場合、参加者が頭や目、一緒に彼らの目のみではなく、シーン内で x と y の POG 座標できますままも参加者部屋をスキャンまたは移動物体を追跡します。したがって、視覚的注意の「注視」簡単かつ正確にできません POG データのみから。ヘッド マウント型目の追跡データで凝視を識別する関連付けの問題については、他の作業15,22を参照してください。手動で ROI 符号化データをフレームで凝視をコーディングに比べると余分な時間を要求できます。参考のため、毎秒 30 フレームで収集された手動でここでは、表示するデータの各分の投資収益率のコードに 5 ~ 10 分間熟練のプログラマーがかかった。コーディングに必要な時間は非常に多様、目の追跡データの品質に依存サイズ、数、および投資収益率のターゲットの視覚的弁別能力コーダー; の経験アノテーション ツールを使用します。

これらの課題にもかかわらず、このプロトコルは多彩な制御および自然主義的な環境に柔軟に対応することができます。このプロトコルは、モーショントラッ キングや心拍監視、自然な動作、学習、および以前より開発を調べるため高密度マルチ モーダルなデータセットを提供するなど、他のテクノロジと統合できます。アイトラッ キング技術のヘッド マウント型の継続的な進歩間違いなく多くの現在の課題を軽減するため、一層のフロンティアは、このメソッドを使用して対処することができます研究の質問の種類。

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

著者は、競合または競合する利益があるないことを宣言します。

Acknowledgments

この研究は、国立衛生研究所の助成金 R01HD074601 (確報)、T32HD007475-22 (J.I.B.、D.H.A.)、F32HD093280 (L.K.S.); によって賄われていた全米科学財団許可 BCS1523982 (L.B.S.、確報)新興地域研究イニシアチブ - インディアナ大学で学習: 脳、マシン、および子供 (L.B.S.)。著者は、この研究に参加したと数字で使用され、このプロトコルの撮影をすることに合意した子供と親のボランティアをありがとうございます。また、開発と、このプロトコルをホーニングに彼らの支援のため特にスヴェン ・動物、安亭陳スティーブン Elmlinger、セス ・ フォスター、グレース Lisandrelli、シャーリーン テイ計算認知と学習の研究室のメンバーを申し上げます。

Materials

Name Company Catalog Number Comments
Head-mounted eye tracker Pupil Labs World Camera and Eye Camera

DOWNLOAD MATERIALS LIST

References

  1. Tatler, B. W., Hayhoe, M. M., Land, M. F., Ballard, D. H. Eye guidance in natural vision: Reinterpreting salience. Journal of Vision. 11 (5), 1-23 (2011).
  2. Hayhoe, M. Vision using routines: A functional account of vision. Visual Cognition. 7 (1-3), 43-64 (2000).
  3. Land, M., Mennie, N., Rusted, J. The Roles of Vision and Eye Movements in the Control of Activities of Daily Living. Perception. 28 (11), 1311-1328 (1999).
  4. Franchak, J. M., Kretch, K. S., Adolph, K. E. See and be seen: Infant-caregiver social looking during locomotor free play. Developmental Science. 21 (4), 12626 (2018).
  5. Franchak, J. M., Kretch, K. S., Soska, K. C., Adolph, K. E. Head-mounted eye tracking: a new method to describe infant looking. Child Development. 82 (6), 1738-1750 (2011).
  6. Kretch, K. S., Adolph, K. E. The organization of exploratory behaviors in infant locomotor planning. Developmental Science. 20 (4), 12421 (2017).
  7. Yu, C., Smith, L. B. Hand-Eye Coordination Predicts Joint Attention. Child Development. 88 (6), 2060-2078 (2017).
  8. Yu, C., Smith, L. B. Joint Attention without Gaze Following: Human Infants and Their Parents Coordinate Visual Attention to Objects through Eye-Hand Coordination. PLoS One. 8 (11), 79659 (2013).
  9. Yu, C., Smith, L. B. Multiple Sensory-Motor Pathways Lead to Coordinated Visual Attention. Cognitive Science. 41, 5-31 (2016).
  10. Yu, C., Smith, L. B. The Social Origins of Sustained Attention in One-Year-Old Human Infants. Current Biology. 26 (9), 1-6 (2016).
  11. Kretch, K. S., Franchak, J. M., Adolph, K. E. Crawling and walking infants see the world differently. Child Development. 85 (4), 1503-1518 (2014).
  12. Yu, C., Suanda, S. H., Smith, L. B. Infant sustained attention but not joint attention to objects at 9 months predicts vocabulary at 12 and 15 months. Developmental Science. , (2018).
  13. Hennessey, C., Lawrence, P. Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions. IEEE Transactions on Biomedical Engineering. 56 (3), 790-799 (2009).
  14. Elmadjian, C., Shukla, P., Tula, A. D., Morimoto, C. H. 3D gaze estimation in the scene volume with a head-mounted eye tracker. Proceedings of the Workshop on Communication by Gaze Interaction. , Association for Computing Machinery. New York. 3 (2018).
  15. Castellanos, I., Pisoni, D. B., Yu, C., Chen, C., Houston, D. M. Embodied cognition in prelingually deaf children with cochlear implants: Preliminary findings. Educating Deaf Learners: New Perspectives. Knoors, H., Marschark, M. , Oxford University Press. New York. (2018).
  16. Kennedy, D. P., Lisandrelli, G., Shaffer, R., Pedapati, E., Erickson, C. A., Yu, C. Face Looking, Eye Contact, and Joint Attention during Naturalistic Toy Play: A Dual Head-Mounted Eye Tracking Study in Young Children with ASD. Poster at the International Society for Autism Research Annual Meeting. , (2018).
  17. Yurkovic, J. R., Lisandrelli, G., Shaffer, R., Pedapati, E., Erickson, C. A., Yu, C., Kennedy, D. P. Using Dual Head-Mounted Eye Tracking to Index Social Responsiveness in Naturalistic Parent-Child Interaction. Talk at the International Congress for Infant Studies Biennial Congress. , July (2018).
  18. Holmqvist, K., Nyström, M., Andersson, R., Dewhurst, R., Jarodzka, H., Van de Weijer, J. Eye tracking: A comprehensive guide to methods and measures. , Oxford University Press. (2011).
  19. Saez de Urabain, I. R., Johnson, M. H., Smith, T. J. GraFIX: a semiautomatic approach for parsing low- and high-quality eye-tracking data. Behavior Research Methods. 47 (1), 53-72 (2015).
  20. Franchak, J. M. Using head-mounted eye tracking to study development. The Cambridge Encyclopedia of Child Development 2nd ed. Hopkins, B., Geangu, E., Linkenauger, S. , Cambridge University Press. Cambridge, UK. 113-116 (2017).
  21. Yonas, A., Arterberry, M. E., Granrud, C. E. Four-month-old infants' sensitivity to binocular and kinetic information for three-dimensional-object shape. Child Development. 58 (4), 910-917 (1987).
  22. Smith, T. J., Saez de Urabain, I. R. Eye tracking. The Cambridge Encyclopedia of Child Development. Hopkins, B., Geangu, E., Linkenauger, S. , Cambridge University Press. Cambridge, UK. 97-101 (2017).

Tags

動作、問題 141、ヘッド マウント視線、自己中心的なビジョン、開発、乳児、幼児、視覚的注意
アクションの視線: 自然主義的な行動の中に子供の動的視覚的注意のヘッド マウント型の目の追跡
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Slone, L. K., Abney, D. H., Borjon,More

Slone, L. K., Abney, D. H., Borjon, J. I., Chen, C. h., Franchak, J. M., Pearcy, D., Suarez-Rivera, C., Xu, T. L., Zhang, Y., Smith, L. B., Yu, C. Gaze in Action: Head-mounted Eye Tracking of Children's Dynamic Visual Attention During Naturalistic Behavior. J. Vis. Exp. (141), e58496, doi:10.3791/58496 (2018).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter