Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

그들의 자신의 보기: 유아와 유아 머리 장착형 카메라의 자기 보기를 캡처

Published: October 5, 2018 doi: 10.3791/58445
* These authors contributed equally

Summary

유아와 유아는에서 근본적으로 다른 방식으로 세계를 볼. 헤드 마운트 카메라 유아 시각적 환경을 이해 하 그러므로 메커니즘을 제공. 이 프로토콜 가정 이나 유아와 유아의 자기 볼을 잡으려고 실험실에서 실험에 대 한 원칙을 제공 합니다.

Abstract

유아와 유아 그들의 부모 로부터 근본적으로 다른 방식으로 기본적인 감각 수준에서 세계를 볼. 이것은 주로 생물 제약: 유아 그들의 부모 보다 다른 신체 비율을 소유 하 고 그들의 자신의 머리의 움직임을 제어 하는 능력은 덜 개발. 이러한 제약 시각 입력을 사용할 수 제한. 이 프로토콜 머리 장착형 카메라를 사용 하 여 개발 유아에 의해 경험 변화 시각 입력을 이해 하는 연구에 대 한 원칙을 제공 하는 것을 목표로. 이 프로토콜의 성공적인 사용 설계 하 고 개발 어린이 시각적 환경 가정 또는 실험실에서의 연구 실행 연구를 허용할 것 이다. 이 방법에서 연구원은 어린이 보기의 필드의 모든 가능한 항목의 집계 보기를 컴파일할 수 있습니다. 이 메서드는 직접 정확 하 게 어떤 아이 보고 측정 하지 않습니다. 결합 하 여 기계 학습, 컴퓨터 비전 알고리즘, 그리고 손 코딩, 연구원은이 이렇게 개발 유아의 변화 시각 생태를 설명 하는 고밀도 데이터 집합을 생성할 수 있습니다.

Introduction

수십 년 동안, 심리학자 윌리엄 제임스는 "피, 윙윙 거리는 혼란1."로 유명한 기술 개발 유아의 환경을 이해 하고자 했다 유아의 일상 경험은 일반적으로 3 인칭 관점에서 사회적 파트너와 자연 놀이 촬영 하 여 공부 했다. 이러한 뷰는 측면에서 이상 일반적으로 유아2듣는 복잡 환경과 새로운 단어에 대 한 잠재적인 referents의 발굴 수 표시. 외부 관찰자에 게 제임스의 설명 쉽다, 하지만이 고정, 3 인칭 관점 유아 세상을 보는 방법이 아니다. 유아는 지상에 가까운 이며 시각적 탐사에 대 한 개체를 가까이 데리고 그들의 세계를 통해 이동할 수 있습니다. 3 인칭의 부모-유아 상호 작용은 그림 1에 나와 있습니다. 강조 그들의 관점 사이 근본적인 다름이 있다. 아마도, 유아 받을 입력은 거의 부모와 연구자에 의해 예상 혼란. 머리 장착형 카메라와 방법의 목표는 경험을 캡처하는 유아는 1 인칭 시점에서 개발을 통해 그들에 게 사용할 수 있는 시각적 환경 이해입니다.

헤드 마운트 카메라, 모자 나 머리 띠를 착용 개발 유아의 순간 순간 시각적 경험에 창을 제공 합니다. 이 관점에서의 구조와 유아의 환경에서 규칙 성을 연구 분명해 집니다. 헤드 마운트 카메라 손에 의해 크게 지배를 유아의 시각적 경험을 계시 했다 둘 다 그들의 자신의 그들의 사회적 파트너의, 그리고 한 번 공동 관심을 설정 하기 위한 필수 고려 하 그 얼굴 모습, 예상된 보다 훨씬 scarcer 되 3. 머리 장착형 카메라도는 유아와 그들의 보호자 만들 때 개체는 시각적으로 지배 하 고 중앙 유아의 시야 (FOV)에 순간 개체 레이블 매핑4에 내재 된 불확실성을 감소 나타났습니다.

헤드 마운트 카메라 캡처 머리 움직임에 따라 유아의 1 인칭 시점. 이 뷰는 완벽 하 게, 동기 또는 대표, 유아 눈 움직임, 눈-추적기와 함께에서 캡처할 수 있습니다. 예를 들어, 머리 고정, 유지 하면서만 눈의 변화 또는 고정 된 개체에 눈을 유지 하는 동안 머리의 교대 유아의 실제 FOV와 헤드 카메라에 의해 촬영 된 사이 부정합을 만들어집니다. 그럼에도 불구 하 고, 장난감 놀이, 동안 유아 일반적으로 센터 개체, 참석 하는 그들의 머리, 눈, 그리고 그들의 바디의 중간5장난감의 위치 정렬. 부정합 드물다 고 눈 shift 키와 함께 머리 회전3사이 순간 지연에 의해 일반적으로 만들어집니다. 따라서, 머리 카메라 캡처 관심의 변화에의 신속한 역학에 적합 하지 않습니다. 헤드 마운트 카메라의 강도 캡처 유아에 게 사용할 수 있는 영상 콘텐츠를 공개 하는 일상적인 시각적 환경에 놓여 있습니다.

다음과 같은 프로토콜 및 대표 결과 어떻게 머리에 장착 된 카메라를 시연할 예정 이다 유아와 유아의 시각적 환경을 공부 하는 데 사용할 수 있습니다.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

유아와 유아의 시각적 경험 실험실에서 그리고 집에서에서 데이터를 수집 하려면 다음 절차는 인디애나 대학 기관 검토 위원회에 의해 승인 되었다. 동의 유아의 간병인에서 얻은 했다.

1. 머리 카메라 선택

참고: 구매 (그림 2)에 대 한 쉽게 사용할 수 있는 수많은 작은, 경량, 그리고 휴대용 카메라 있다.

  1. 돌출은 기록 되 고 장면에 영향을 주지 것입니다 머리 카메라를 선택 하십시오.
    1. 아늑한 모자 또는 임시 접착제를 사용 하 여 헤드에 카메라를 장착 하거나 안전 하 게 밴드에 연결 된 작은 플라스틱 플레이트에 카메라를 장착 합니다. 어린이이 마 (그림 2B, 왼쪽)에 카메라를 배치 합니다.
      1. 카메라의 모양에 따라 머리 띠 나 모자 (그림 2B, 가운데 및 오른쪽)으로 바느질 작은 피복 루프에 의해 카메라를 탑재.
      2. 모자 또는 머리 띠 (그림 2A) 어린이 머리에 아늑한 하 고 편안 하 게 맞춤을 달성 하기 위해 조정 가능한 지 확인 합니다.
        참고: 그러나 이것은 현재의 기술로 가능한 카메라를 직접 유아의 눈 사이 있는 이론적으로 이상적입니다. 배치 될 수 있는 낮은 마에는 작은 카메라는 점점 제공 되고있다.
  2. 카메라는 부모와 함께 집 보내면 되 고, 부모는 어떤 기술적인 도움도 없이 그들을 사용할 수 있습니다 확인 합니다.
    1. 부모를 떠나기 전에 실험실, 머리 카메라를 작동 하는 방법에 그들을 훈련.
    2. 보내기 집 부모는 카메라와 함께 사용, 머리 밴드 또는 모자, 그리고 카메라와 기록 데이터를 설정 하는 절차를 설명 하는 손을 아웃.
  3. 카메라 충분히 착용 하 고 잊어 유아 빛 인지 확인 합니다.
    참고: 권장된 무게 30 g3보다 작습니다. 모든 선택한 카메라 사용 중 열 하지 해야 하며 내구성 무거운 사용 되어야 합니다.
  4. 실험 설치 하려면 아이 들을 자유롭게 이동, 내부 저장소 카드에 녹화 된 비디오를 저장 합니다. 그렇지 않으면, 데이터 수집 컴퓨터에 닿는 곳에 카메라를 사용 하 여.
  5. 높은-품질 렌즈와 카메라를 사용 하 여 더 나은 관심 영역에 시각적 장면 세그먼트는 기계 학습 알고리즘의 최근 발전을 활용.
    1. 시각적 장면 연구자에 의해 수동으로 코딩 될 것 이다, 수동 검사에 대 한 충분 한 품질로 이미지를 캡처할 수 있는 카메라를 사용 합니다.
  6. 모든 배터리 구동 카메라는 원하는 양의 시간에 대 한 녹음의 능력을 확인 합니다.
  7. 직전에 실험을 시작 하거나 부모와 함께 집에 카메라를 보내는, 그것은 적절 하 게 작동 되도록 헤드 카메라 테스트.

2. 데이터 수집 실험실에서

참고: 헤드 마운트 카메라는 대부분 실험을 쉽게 추가할 수 있습니다.

  1. 2-3 경험 어린이 머리에 카메라를 장소는: 한 실험 장소 헤드 카메라, 하나 모니터링 머리-카메라 보기 하 고, 필요한 경우, 하나는 아이 그러기로 했 어.
    1. 부모 아이 유지 진정 하 고 배치 과정에서 아이 산만 하 게.
  2. 3 단계에서 카메라 배치를 다음과 같이 수행 합니다.
    1. 손으로 그들의 머리 근처 작업에 유아 감도
      1. 가볍게 터치 또는 유아의 머리와 머리 몇 번 뇌졸중을 부모를 요구 하십시오.
      2. 2.2.1.1 동일 할 유아의 머리에는 모자를 두고 실험을 부탁 드립니다.
    2. 아이가 산만 때 머리 장착형 카메라를 배치 하는 실험을 했습니다.
      1. 푸쉬 버튼 장난감을 사용 하 여 어린이 손을 바쁘게.
      2. 산만 한 실험 또는 부모는 아이의 손이 머리에 들어가지 않는다 그래야 매력적인 장난감으로 아이의 손에 부드럽게 눌러이 단계에 도움이 있다.
    3. 어린이 머리에 모자를 강화 하 고 장난감으로 아이 때 헤드 카메라를 조정 합니다.
      1. 유아 자신의 얼굴 앞에서 개체, 경우 개체 중심 헤드 카메라 FOV에에서 카메라를 조정 합니다.
      2. 만약 아이가 앉아 아이 때 어린이 무릎의 대부분 캡처 되도록 카메라를 조정 합니다.
  3. 어린이 머리에 카메라를 배치, 후는 방에서 녹음을 시작을 실험을 부탁 드립니다.
  4. 카메라를 장소 이동 또는 제거는 다시 카메라를 수정 하는 방을 입력 합니다.
    1. 아이가 다시 적용 되 고 카메라를 용납 하지 않는 실험을 종료 합니다.
      참고: 가정에서 자연 환경 기록, 먼저 모자와 카메라 개별 유아에 맞게 하 고 부모는 카메라 위치를 방법을 보여 줍니다. 디자인과 카메라의 적합은 부모 기술 도움 없이 그들의 아이에 모자를 넣어 수 있을 것 이다 하는 것을 확인 해야 합니다.

3. 데이터 수집 부모-유아 연구에 대 한

참고: 머리-카메라에 대 한 다음과 같은 대표적인 방법 유아와 그들의 부모 (그림 3A)의 자기 중심적 플레이에 실시 될 수 있는 분석의 종류를 설명 하는 실험실에서 자연 장난감 놀이 사용 합니다.

  1. 2.1과 2.2에 설명 된 대로 부모와 자식 머리 장착형 카메라와 옷.
  2. 머리의 카메라를 사용 하 여 30 프레임/s의 2.3 및 2.4 단계에 설명 된 대로 진행에서 720 x 1280 픽셀의 해상도와 비디오를 캡처.
    1. 모든 5 프레임 비디오 스트림을 subsample s.
    2. 수동으로 상용 소프트웨어 또는 프로그램을 자체 개발 (샘플 프레임 그림 3C 참조)를 사용 하 여 보기에서 각 장난감 (그림 3B) 주위의 경계 상자를 그립니다.
      1. 장난감의 부분은 다른 장난감 또는 프레임의 가장자리에 자르기에 의해 폐색 표시, 경우에만 장난감 쉽게 식별할 수 장난감의 모든 눈에 보이는 부분을 포함 하는 때 경계 상자 그립니다.
      2. 예를 들어 단지 인형의 다리를 볼 수 있으면, 다리 주위 경계 상자를 그립니다. 개체 표시, 머리와 다리를 떠나 인형의 절반을 occludes 다음 머리와 다리를 포함 하는 상자를 그립니다.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

한 간단 하면서도 유익한 정보, 분석 보기에서 각 지점에서 개체의 수를 계산 하는 시간에서입니다. 이후 약 30 Hz에서 데이터를 생산 하는 헤드 카메라 (30 이미지/s), 다운 샘플링 데이터 1 이미지 해상도 유지 하면서 더 관리 가능한 데이터 집합을 생성 하는 모든 5 s 데 도움이 장면 어린이의 종류를 이해 하기 위한 적절 한를 참조 하십시오. 이전 연구는 시각적 장면 유아3에서 느린 변화는 설명 했다. 사용자 지정 스크립트 보기에 장난감 주위 경계 상자를 그립니다 사용 되었다. 그림 4 는 1 부모-유아 양자 관계에 대 한 대표적인 결과 보여 줍니다. 독립 t-검정 장면 (그림 4A) 부모와 자식 (그림 4B) 사이 개체의 지정 된 수의 수를 비교 공개이 자식 보기에 부모에 비해 적은 개체와 장면 더 많이 했다 (t(78) = 4.58, p < 0.001).

또 다른 유익한 분석 어떻게 시각적으로 계산 하는 각 보기에는 큰 개체는. 보기에서 각 개체에 의해 촬영 화면 비율 계산 하 고 분석할 수 있습니다. 부모와 자녀 모두에 대 한 보기에서 개체의 수 및 해당 보기에서 개체의 시각적 크기 사이 부정적인 상관 관계가 있다 (그림 4C, Spearman 상관 r =-0.19, p < 0.001와 그림 4D, Spearman 상관 관계 연구 =-0.23, p < 0.001). 즉, 더 많은 개체 보기에, 각 개체 경우는 적은 개체 보기 보다 스크린의 더 적은을 걸립니다. 이 양자 관계에 대 한 아이 10 개체와 더 많은 장면 보기에 캡처하고 부모 보기에 많은 수의 개체를 전시 합니다. 유사한 결과 이전 문학3,,45,8,9,10,11,12에서에서 보고 되었다 ,13.

Figure 1
그림 1: 재생 하는 동안 부모와 자녀 들의 다양 한 경관을 보여주는 설명 회로도. 이 그림의 더 큰 버전을 보려면 여기를 클릭 하십시오.

Figure 2
그림 2: 머리 탑재 카메라와 그들의 첨부 파일의 예. (A) 유아와 유아는 실험실에서 머리 장착형 카메라 입고 (B) 머리 카메라 (왼쪽, 가운데) 머리 띠와 모자 (오른쪽)에 연결 하는 방법의 예. 이 그림의 더 큰 버전을 보려면 여기를 클릭 하십시오.

Figure 3
그림 3: 대표적인 방법에 사용 되는 24 장난감. (A, 왼쪽) 자식 보기에 개체 수가 보여주는 시각적으로 더 큰 크기의 머리에서 대표적인 프레임. (A, 오른쪽) 그들의 전형적인 보기를 보여주는 부모의 머리에서 대표적인 프레임: 시각적으로 작은 크기에 많은 개체. (B) 장난감 2-7 인치 긴 차원에 그리고 더 짧은 차원에 2-3 인치 사이에서 배열 하는 크기에 일치 하는. (C) 상자 각 장난감, 또는 표시 되 고 식별, 장난감의 일부는 사내 그래픽 사용자 인터페이스를 사용 하 여 그려집니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭 하십시오.

Figure 4
그림 4: 대표는 단일 양자 관계에에서 참여 장난감 놀이 결과. 장면 보기에 (A) 부모 및 자식 (B)에 대 한 개체의 수에 따라 수 그룹화 된 히스토그램 화면 비율에 의해 촬영 각 개체 보기에서 개체 수가 보기에 부모 (C)와 (D) 자녀에 대 한. 검은 선이 가장 적합의 라인이 이다. 이 그림의 더 큰 버전을 보려면 여기를 클릭 하십시오.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

이 종이 그들의 자기 중심 시각적 장면 캡처 유아를 머리 장착형 카메라를 적용 하기 위한 기초를 설명 합니다. 상업적으로 사용 가능한 머리 카메라는 연구의 대부분에 대 한 충분 한. 소형, 경량, 및 휴대용 카메라 연약한 직물 모자 또는 머리 띠에 통합 하 고 어린이 머리에 적용 한다. 한 번 성공적으로 설계 및 구현, 다양 한 실험, 가정 환경에서 뿐만 아니라 실험실 설정에서 모두 실행할 수 있습니다. 동영상 수집에서 개발 유아의 시각적 생태에 대 한 집계 데이터는 컴파일된 고 분석 될 수 있습니다.

이 방법으로 가장 중요 한 단계는 아이에 머리 카메라의 응용 프로그램입니다. 만약 제대로 하지, 머리 카메라 제대로 배치 됩니다 그리고 데이터 품질 저하 되거나 사용할 수 없게 될 것입니다. 잘못 된 배치 또한 카메라를 거부 하 고 실험을 중단 하는 아이 박차 수 있습니다. 우리 간단히 머리 카메라의 응용 프로그램의 성공을 보장 하는 제안을 설명 합니다. 카메라는 주저 없이 한 이동에 있는 유아에 배치 되어야 합니다. 연구원은 어린이 머리에 카메라를 우려 하는 경우 또는 여러 시도 하는 경우, 거절의 가능성이 훨씬 높은 된다. 경험을 연습 해야 기꺼이 유아 또는 마네킹에 모자 및 카메라 장치를 미리 배치. 때 카메라를 배치, 그것은 두어야 한다 충분히 낮은 얼굴 앞의 명확한 보기를 보장 하기 위해이 마에. 약간 아래쪽으로 카메라 낚시 활성 조작 중 유아의 손에의 보기를 보장할 것 이다. 카메라도 안정적이 고 안전한 유아의 머리에 있어야 합니다. 안정적인 카메라 안정적이 고 명확한 이미지를 의미합니다. 모자 jiggles, 유아는 이것을 주의 하 고 카메라를 떼어낼 수 있습니다. 어린이 위한 18 개월 미만 아무것도 주의 기어를 거절 증가 합니다. 유아 손잡이 장비 또는 아이에 그것을 배치 하기 전에 그것에 대해 얘기 포함 됩니다. 어린이 위한 18 개월 이상 미리 카메라에 대해 얘기 하 고에 그것을 넣어 어린이 권한을 요청 수 있습니다 더 효과적일. 훈련된 연구와 실험에서 유아에 게 소란 없이 유아에 머리 카메라 배치 성공률 75% 주위 도달할 수 있다.

보낼 때 가족과 함께 머리-카메라 홈, 모자/머리 띠 및 카메라 배치를 디자인에 상당한 시간이 걸릴. 부모는 자녀 들의 머리에 카메라를 배치 하는 방식으로 훈련 된 연구원으로 정밀도의 동일한 수준에 항상 수 없습니다. 모자는 부모에 의해 적용과 연구 질문에 정확한 사양 요구 하지 않는다 보장을 쉽게 확인 하십시오. 실험 필요 필요한 경우 머리에 카메라의 정확한 배치, 가정에서 대신의 실험실 환경에서 연구를 실행 하는 것이 좋습니다.

머리-카메라 그들은 캡처 수에 제한이 됩니다. 그들은 그들의 머리를 왼쪽에서 오른쪽 광범위 하 게 캡처됩니다 이동 유아, 유아의 가로 보기의 머리에 카메라의 위치를 주어진. 카메라, 유아 아래로 때의 수직 변위 시각적 장면의 매우 극단 캡처할 수 됩니다. 이 경우 카메라 약간 아래쪽으로 유아의 머리에 유아의 손에 캡처하기 위해 각도 특히 사실 이다.

헤드 마운트 카메라 아이 들 그들의 자신의 보기는 밝혀졌다. 기본적인 수준에, 유아와 유아 볼 세계 그들의 부모와는 다르게. 유아 모양 그들의 손으로 그들의 시각적인 경험: 지주 및 그들의 얼굴4,,58에 가까이 있는 객체를 조작. 유아의 매우 짧은 팔을 감안할 때, 개체 가까이 개최 하 고 큰 보기의 필드에 나타납니다. 명확한 초점 개체와 같은 장면이 자주 오래 지속 기간, 약 4 초 그리고 유아4머리 움직임을 줄이는 맞춰. 그러나 그것은 머리 장착형 카메라 참가자는 찾고 있는 정보를 제공 하지 않습니다,, 주의 해야 합니다. 대신,이 프로토콜 양적 시각적 장면 아이 들에 게 사용할 수의 범위를 설명할 수 있습니다. 전체 재생 세션에 걸쳐 그 아이의 눈은 일반적으로 자식5앞 시각적 장면 가운데 중심으로 높은 확율이 있다. 머리의 카메라 아이 게 사용할 수 있는 장면의 집계 조사 수 있습니다. 예를 들어 보고 그들을 위해 사용할 수 있는 얼굴은 얼마나 자주? 어떻게 영구는 얼굴로이 장면? 얼마나 자주 아이 들 보기 어지러워 바닥에 장난감 (더미)는 정리 (천장 또는 빈 벽) 장면? 이 자기 중심 보기 방법론 매크로 스케일에서 100 백만 이미지 일 동안 수집 된 데이터에 대 한 가장 적합 하다. 연구 질문 이러한 집계 수준 질문 보다 더 세분화 된 해상도 경우, 머리 거치 눈-추적 유아 비전의 정확한 역학을 캡처에 적합 한 더 있을 수 있습니다.

마찬가지로 유아 및 성인 다른 시각적 경험, 유아와 유아의 시각적 경험 발달 정적 아니다. 어린이 성장, 사용할 수 있는 시각적 장면 변경 극적으로, 그리고 시각적으로 다양 한 연령대의 유아에 게 사용할 수 있는 사람과 개체에서 발달 구조 있다. 예를 들어, 유아는 아주 어린, 그들의 시각적 환경 사람들10의 아주 작은 수의 면 밀도 이다. 몇 가지 얼굴의이 비균일 표본 추출에서 유아는 추정 하 고 인식 하 고 그들이 발생 하는 면 사이의 차별 배울 수 있습니다. 나이의 약 8-10 개월, 꾸준히 앉아, 크롤 링, 그리고 개체, 노는 시작 하는 유아만 수동 실력 아직도 매우 제한 된 더 오래 된 유아에 비해. 결과적으로, 이러한 유아 경험 몇 가지 개체와 시각적 장면의 더 높은 주파수 보기에 더 오래 된 유아에 비해. 그럼에도 불구 하 고,이 같은 8-10-달-세 ~ 식사 장면 또한 많은 다른 개체를 포함 하는 각 식사 장면13, 혼란 시대를 계시 한다. 이 혼란에도 불구 하 고는 개체에는 예측 가능한 구조 보기: 개체 집합이 매우 작은 반복 해 서 나타납니다. 이러한 반복 개체 유아13배운 첫 번째 단어를 포괄 하는 범주에 속합니다. 따라서, 어린이 환경에 따라 모양과 그들의 세계는 "피, 혼란을 맴 돌아"는 논쟁을 쉽게 수 있지만 유아의 자기 플레이 보여주는 머리-카메라 데이터 공개 예측 가능한 통계적 규칙 성을 저해할 그들의 시야에 존재 din 그리고 혼란입니다.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

저자는 관심 없음 충돌 선언합니다.

Acknowledgments

저자 감사 닥터 첸 유가이 원고의 창조에 대 한 그의 대표적인 결과 섹션에서 사용 되는 데이터에 대 한. 우리는 그림에 사용 되며이 원고에의 그녀의 주의 읽기에 대 한 리 디 아 Hoffstaetter 뿐만 아니라 프로토콜의 촬영 하기로 참여 가족을 감사 합니다. 이 연구는 건강 보조금 (J.I.B., D.H.A.), T32HD007475-22 R01 HD074601 (S.B.), R01 HD028675의 국가 학회에 의해 지원 되었다 (S.B., L.B.S.), 및 F32HD093280 (L.K.S.). 국립 과학 재단 부여 BCS 1523982 (S.B., L.B.S)와 경력 IIS-1253549 (S.B., D.J.C.)는 국립 과학 재단 대학원 연구 친교 프로그램 #1342962 (S.E.S.), 그리고 신흥 지역 연구를 통해 인디애나 대학 이니셔티브-학습: 두뇌, 기계, 및 아이 들 (J.I.B., S.B., L.B.S.).

Materials

Name Company Catalog Number Comments
Head-camera Looxcie Looxcie 3
Head-camera Watec WAT-230A
Head-camera Supercircuits PC207XP
Head-camera KT&C VSN500N
Head-camera SereneLife HD Clip-On
Head-camera Conbrov Pen TD88
Head-camera Mvowizon Smiley Face Spy Button
Head-camera Narrative Clip 2
Head-camera MeCam DM06

DOWNLOAD MATERIALS LIST

References

  1. James, W. The Principles of Psychology. , Henry Holt and Co. New York. (1890).
  2. Quine, W., Van, O. Word and object: An inquiry into the linguistic mechanisms of objective reference. , The MIT Press. Cambridge, MA. (1960).
  3. Yoshida, H., Smith, L. B. What's in view for toddlers? Using a head camera to study visual experience. Infancy. 13 (3), 229-248 (2008).
  4. Yu, C., Smith, L. B. Embodied attention and word learning by toddlers. Cognition. 125 (2), 244-262 (2012).
  5. Bambach, S., Smith, L. B., Crandall, D. J., Yu, C. Objects in the center: How the infant's body constrains infant scenes. Joint IEEE International Conference on Development and Learning and Epigenetic Robotics 2016. , 132-137 (2016).
  6. Adolph, K. E., Gilmore, R. O., Freeman, C., Sanderson, P., Millman, D. Toward open behavioral science. Psychological Inquiry. 23 (3), 244-247 (2012).
  7. Sanderson, P. M., Scott, J. J. P., Johnston, T., Mainzer, J., Wantanbe, L. M., James, J. M. MacSHAPA and the enterprise of exploratory sequential data analysis (ESDA). International Journal of Human-Computer Studies. 41 (5), 633-681 (1994).
  8. Pereira, A. F., Smith, L. B., Yu, C. A bottom-up view of toddler word learning. Psychonomic Bulletin & Review. 21 (1), 178-185 (2014).
  9. Yu, C., Smith, L. B. Joint Attention without Gaze Following: Human Infants and Their Parents Coordinate Visual Attention to Objects through Eye-Hand Coordination. PLOS ONE. 8 (11), e79659 (2013).
  10. Jayaraman, S., Fausey, C. M., Smith, L. B. The faces in infant-perspective scenes change over the first year of life. PlOS ONE. 10 (5), e0123780 (2015).
  11. Fausey, C. M., Jayaraman, S., Smith, L. B. From faces to hands: Changing visual input in the first two years. Cognition. 152, 101-107 (2016).
  12. Jayaraman, S., Fausey, C. M., Smith, L. B. Why are faces denser in the visual experiences of younger than older infants? Developmental Psychology. 53 (1), 38 (2017).
  13. Clerkin, E. M., Hart, E., Rehg, J. M., Yu, C., Smith, L. B. Real-world visual statistics and infants' first-learned object names. Philosophical Transactions of the Royal Society B, Biological Sciences. 372, 20160055 (2017).

Tags

행동 문제 140 자기 중심 비전 헤드 탑재 카메라 시각적 장면 개발 유아 유아
그들의 자신의 보기: 유아와 유아 머리 장착형 카메라의 자기 보기를 캡처
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Borjon, J. I., Schroer, S. E.,More

Borjon, J. I., Schroer, S. E., Bambach, S., Slone, L. K., Abney, D. H., Crandall, D. J., Smith, L. B. A View of Their Own: Capturing the Egocentric View of Infants and Toddlers with Head-Mounted Cameras. J. Vis. Exp. (140), e58445, doi:10.3791/58445 (2018).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter