Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

다재다능한 수제 비디오 카메라와 DeepLabCut을 사용하여 오페라 컨디셔닝 챔버에서 쥐 추적

Published: June 15, 2020 doi: 10.3791/61409

Summary

이 프로토콜은 작고 다재다능한 비디오 카메라를 구축하는 방법과 작동 컨디셔닝 챔버 내부의 동물의 위치를 추적하는 신경망을 훈련하기 위해 비디오에서 얻은 비디오를 사용하는 방법에 대해 설명합니다. 이는 작동 컨디셔닝 테스트에서 얻은 데이터 로그의 표준 분석을 보완하는 데 유용합니다.

Abstract

오페라 컨디셔닝 챔버는 신경 과학 분야에서 광범위한 행동 테스트를 수행하는 데 사용됩니다. 기록된 데이터는 일반적으로 챔버 내부에 존재하는 레버 및 코 찌르기 센서의 트리거링을 기반으로 합니다. 이것은 동물이 특정 응답을 수행하는 시기와 방법에 대한 자세한 보기를 제공하지만 센서를 트리거하지 않는 동작을 평가하는 데 사용할 수 없습니다. 따라서 동물이 어떻게 자신을 배치하고 챔버 내부로 이동하는지 평가하는 것은 거의 불가능합니다. 이 정보를 얻으려면 일반적으로 연구자들은 비디오를 녹화하고 분석해야 합니다. 작동 식 컨디셔닝 챔버 제조업체는 일반적으로 고객에게 고품질 의 카메라 설정을 공급할 수 있습니다. 그러나, 이들은 매우 비용이 많이 드는 수 있으며 반드시 다른 제조 업체 또는 다른 행동 테스트 설정에서 챔버를 적합 하지 않습니다. 현재 프로토콜은 취미 전자 부품으로 저렴하고 다양한 비디오 카메라를 구축하는 방법을 설명합니다. 또한 이미지 분석 소프트웨어 패키지 DeepLabCut을 사용하여 조작된 컨디셔닝 챔버에서 수집한 비디오에서 강력한 광 신호의 상태와 쥐의 위치를 추적하는 방법을 설명합니다. 전자는 전체 테스트 세션을 포함하는 비디오에 대한 짧은 관심 세그먼트를 선택할 때 큰 도움이되며, 후자는 작동 챔버에서 생성 한 데이터 로그에서 얻을 수없는 매개 변수를 분석 할 수 있습니다.

Introduction

행동 신경 과학 분야에서, 연구원은 일반적으로 설치류에 있는 다른 인지 및 정신 기능의 넓은 범위를 평가하기 위하여 조작된 컨디셔닝 챔버를 이용합니다. 이러한 시스템의 여러 다른 제조업체가 있지만 일반적으로 특정 특성을 공유하고 거의 표준화 된 디자인1,2,,3을가지고 있습니다. 챔버는 일반적으로 사각형 또는 사각형 모양이며, 내부에 동물을 배치하기 위해 열 수있는 하나의 벽, 레버, 코 찌르기 개구부, 보상 트레이, 응답 바퀴 및 다양한 종류의조명1,,2,,3과같은 구성 요소를 포함하는 나머지 벽 중 하나 또는 두 개가 있습니다. 챔버에 존재하는 조명과 센서는 테스트 프로토콜을 제어하고 동물의 동작추적하는 데 사용됩니다1,2,,3,,4,,5. 일반적인 작동 조절 시스템은 동물이 챔버에 존재하는 다른 오페라다 및 개구부와 상호 작용하는 방법에 대한 매우 상세한 분석을 허용합니다. 일반적으로 센서가 트리거되는 경우는 시스템에 의해 기록될 수 있으며, 이 데이터에서 사용자는 테스트4,,5의특정 단계에서 동물이 한 일을 설명하는 자세한 로그 파일을 얻을 수 있습니다. 이것은 동물의 성능을 광범위하게 표현하지만 하나 이상의4센서4,5를직접 트리거하는 동작을 설명하는 데만 사용할 수 있습니다. 이와 같이, 동물의 위치와 시험의 상이한 단계에서,챔버 내부의 이동 방식과 관련된 측면은6,77,8,,9,,10을잘 설명하지 않는다. 이러한 정보는 동물의 행동을 완전히 이해하는 데 유용할 수 있기 때문에 이것은 불행한 일입니다. 예를 들어, 특정 동물이 주어진 시험6에서제대로 수행하는 이유를 명확히하는 데 사용할 수 있으며, 동물이 어려운 작업,6,7,8,,9,10을처리하기 위해 개발할 수 있는 전략을 설명하거나, 아마도 간단한,동작(11,,12)의진정한 복잡성을 인식할 수 있다., 이러한 명확한 정보를 얻기 위해, 연구원은 일반적으로 비디오,,6,7,8,89,910,,11의수동 분석으로 전환합니다.

편집 가능한 컨디셔닝 챔버에서 비디오를 녹화할 때 카메라의 선택이 중요합니다. 챔버는 일반적으로 격리 칸막이에 위치하며, 프로토콜은 가시광선이3,6,,7,,88,9를비추지 않는 단계를 자주 사용합니다., 따라서 완전한 어둠 속에서도 시야를 확보할 수 있으므로 IR에 민감한 카메라와 함께 적외선(IR) 조명을 사용해야 합니다. 또한, 격리 칸막이 안에 카메라를 배치할 수 있는 공간은 매우 제한적이기 때문에 넓은 시야(예: 어안 렌즈)를 가진 렌즈를 사용하는 소형 카메라를 갖는 것이 매우 유익하다는 것을 의미한다9. 작동 식 컨디셔닝 시스템 제조업체는 종종 고객에게 고품질 의 카메라 설정을 공급할 수 있지만 이러한 시스템은 비용이 많이 들 수 있으며 다른 제조업체의 챔버 또는 다른 행동 테스트를 위해 반드시 적합하지는 않습니다. 그러나 독립 실행형 비디오 카메라를 사용하는 데 비해 주목할 만한 이점은 이러한 설정이 종종 작동 컨디셔닝시스템(13,,14)과직접 인터페이스할 수 있다는 것입니다. 이를 통해 전체 테스트 세션이 아닌 특정 이벤트만 기록하도록 설정할 수 있으며, 이는 다음 분석에 크게 도움이 될 수 있습니다.

현재 프로토콜은 취미 전자 부품으로 저렴하고 다양한 비디오 카메라를 구축하는 방법을 설명합니다. 카메라는 어안 렌즈를 사용하고 IR 조명에 민감하며 IR 발광 다이오드 세트(IR LED)가 부착되어 있습니다. 또한, 그것은 평평하고 슬림 프로파일을 가지고 내장되어 있습니다. 이러한 측면은 함께 대부분의 시판 가능한 작동 조절 챔버뿐만 아니라 다른 행동 테스트 설정에서 비디오를 녹화하는 데 이상적입니다. 이 프로토콜은 카메라로 얻은 비디오를 처리하는 방법과 소프트웨어 패키지 DeepLabCut15,,16을 사용하여 관심 있는 비디오 시퀀스를 추출하고 동물의 움직임을 추적하는 데 도움을 줄 수 있는 방법을 추가로 설명합니다. 이는 컨디셔닝 시스템의 작동 제조업체가 제공하는 통합 솔루션에 독립형 카메라를 사용하는 단점을 부분적으로 우회하고 동작의 수동 점수를 보완합니다.

전체 프로세스가 다른 작동 컨디셔닝 테스트의 비디오에 적용 될 수 있음을 강조하기 위해 일반적인 형식으로 프로토콜을 작성하기 위한 노력이 이루어졌습니다. 특정 주요 개념을 설명하기 위해 5선택 직렬 반응 시간 테스트(5CSRTT)17을 수행하는 쥐의 비디오가 예로 사용됩니다.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

동물 취급을 포함하는 모든 절차는 동물 연구를 위한 말뫼-룬드 윤리 위원회에 의해 승인되었습니다.

1. 비디오 카메라 구축

참고: 카메라 를 구축하는 데 필요한 구성 요소 목록이 재료 표에제공됩니다. 도 1, 도 2, 그림 3, 그림 4, 그림 5를참조하십시오.

  1. 카메라스탠드(그림 2A)의개구부 주변에 자기 금속 링(어안 렌즈 패키지와 함께)을 부착합니다. 이렇게 하면 어안 렌즈를 카메라 앞에 배치할 수 있습니다.
  2. 카메라 모듈을 카메라스탠드(그림 2B)에부착합니다. 이를 통해 카메라 모듈에 약간의 안정성을 제공하고 전자 회로를 보호합니다.
  3. 카메라 모듈 및 마이크로컴퓨터(그림1)에서카메라 포트를 열어 플라스틱 클립의 가장자리를 부드럽게 당기면(그림2C)을가열합니다.
  4. 실버 커넥터가 회로기판(그림2C)에직면할 수 있도록 리본 케이블을 카메라 포트에 배치합니다. 카메라 포트의 플라스틱 클립을 밀어 제자리에 케이블을 잠급합니다.
  5. 마이크로컴퓨터를 플라스틱 케이스에 놓고 나열된 마이크로 SD카드(도 2D)를삽입합니다.
    참고: 마이크로 SD 카드는 마이크로컴퓨터의 하드 드라이브로 작동하며 전체 운영 체제가 포함되어 있습니다. 나열된 마이크로 SD 카드에는 설치 관리자가 미리 설치되어 있습니다(새 아웃 오브 박스 소프트웨어(NOOBS). 대안으로, 하나는 일반 마이크로 SD 카드에 마이크로 컴퓨터의 운영 체제 (Raspbian 또는 라즈베리 파이 OS)의 최신 버전의 이미지를 쓸 수 있습니다. 이 에 대한 도움을 받으려면 공식 웹리소스(18)를참조하십시오. 32Gb의 저장 공간을 가진 클래스 10 마이크로 SD 카드를 사용하는 것이 바람직하다. 더 큰 SD 카드는 나열된 마이크로컴퓨터와 완전히 호환되지 않을 수 있습니다.
  6. 모니터, 키보드 및 마우스를 마이크로컴퓨터에 연결한 다음 전원 공급 장치를 연결합니다.
  7. 마이크로 컴퓨터의 운영 체제 (Raspbian 또는 라즈베리 파이 OS)의 전체 설치를 수행하기 위해 설치 가이드에 의해 메시지가 단계를 따르십시오. 마이크로컴퓨터가 부팅되면 이더넷 케이블 또는 Wi-Fi를 통해 인터넷에 연결되어 있는지 확인합니다.
  8. 마이크로컴퓨터의 사전 설치된 소프트웨어 패키지를 업데이트하려면 아래 설명된 단계를 따르십시오.
    1. 터미널 창열기(그림 3A).
    2. "sudo apt-get 업데이트"(견적 표시 제외)를 입력하고 Enter키(그림 3B)를누릅니다. 프로세스가 완료될 때까지 기다립니다.
    3. "sudo apt 전체 업그레이드"(견적 표시 제외)를 입력하고 enter을 누릅니다. 메시지가 표시되면 단추 응답을 하고 프로세스가 완료될 때까지 기다립니다.
  9. 시작 메뉴에서 환경 설정라즈베리 파이 구성(그림 3C)을선택합니다. 열린 창에서 인터페이스 탭으로 이동하여 클릭하여 카메라I2C를 활성화합니다. 이는 마이크로컴퓨터가 카메라 및 IR LED 모듈과 함께 작동하려면 필요합니다.
  10. 보충 파일 1의 이름을 "Pi_video_camera_Clemensson_2019.py"로 변경합니다. USB 메모리 스틱에 복사한 다음 마이크로컴퓨터/홈/파이 폴더(그림3D)에복사합니다. 이 파일은 1.13 단계에 연결된 버튼 스위치로 비디오 녹화를 만들 수 있는 Python 스크립트입니다.
  11. 마이크로컴퓨터의 rc.local 파일을 편집하려면 아래 설명된 단계를 따르십시오. 이렇게 하면 컴퓨터가 1.10 단계에서 복사된 스크립트를 시작하고 부팅할 때 1.13 단계에서 연결된 IR LED를 시작합니다.
    주의: 이 자동 시작 기능은 나열된 모델 이외의 마이크로컴퓨터 보드에서 안정적으로 작동하지 않습니다.
    1. 터미널 창을 열고 "sudo nano /etc/rc.local"(인용 부호 제외)을 입력하고 enter을 누릅니다. 이렇게 하면 텍스트파일(그림 4A)이열립니다.
    2. 키보드의 화살표 키를 사용하여 커서를 "fi"와 "exit 0" 사이의 공간으로 이동합니다(그림4A).
    3. 그림 4B에표시된 대로 다음 텍스트를 추가하여 새 줄에 각 텍스트 문자열을 작성합니다.
      sudo i2cset -y 1 0x70 0x00 0xa5 및;
      sudo i2cset -y 1 0x70 0x09 0x09 0x0f &
      sudo i2cset -y 1 0x70 0x01 0x32 및;
      sudo i2cset -y 1 0x70 0x03 0x32 &
      sudo i2cset -y 1 0x70 0x06 0x32 및;
      sudo i2cset -y 1 0x70 0x08 0x32 및;
      스도 파이썬 /홈/파이/Pi_video_camera_Clemensson_2019.py &
    4. Ctrl + x를 누르고 y 및 Enter를 눌러 변경 내용을 저장합니다.
  12. 그림 5A에표시된 대로 필요한 구성 요소를 함께 납땜하고 아래에 설명된 대로 솔더.
    1. 두 개의 색깔의 LED의 경우 저항기와 여성 점퍼 케이블을 한쪽 다리에 연결하고 다른 쪽 다리에 여성 점퍼케이블(그림 5A)을부착합니다. 케이블을 가능한 한 짧게 유지하십시오. 이 마이크로 컴퓨터의 범용 입력 / 출력 (GPIO) 핀에 지상에 연결해야하므로 LED의 전극 중 어느 음수 (일반적으로 짧은 하나)입니다 주의하십시오.
    2. 두 개의 버튼 스위치의 경우 각 다리에 여성 점퍼 케이블을 부착합니다(그림5A). 스위치 중 하나에 대 한 긴 케이블을 확인 하 고 다른 에 대 한 짧은.
    3. IR LED 모듈을 조립하려면 공식 웹 리소스19에서사용할 수 있는 지침을 따르십시오.
    4. 납땜 된 관절을 수축 튜브로 덮어 구성 요소를 단락할 위험을 제한하십시오.
  13. 마이크로 컴퓨터를 끄고 스위치와 LED를 그림 5B에표시된 대로 GPIO 핀에 연결하고 아래에 설명합니다.
    주의: 구성 요소를 잘못된 GPIO 핀에 배선하면 카메라가 켜져 있을 때 부품 및/또는 마이크로컴퓨터가 손상될 수 있습니다.
    1. 하나의 LED를 연결하여 음의 끝이 핀 #14 연결하고 양단 끝이 핀 #12 연결되도록 합니다. 이 LED는 마이크로 컴퓨터가 부팅되고 카메라를 사용할 준비가 되면 빛납니다.
    2. 버튼 스위치를 긴 케이블로 연결하여 하나의 케이블이 핀 #9 연결하고 다른 케이블은 핀 #11 고정합니다. 이 버튼은 비디오 녹화를 시작하고 중지하는 데 사용됩니다.
      참고: 카메라를 제어하는 스크립트가 작성되어 비디오 녹화를 시작하거나 중지한 직후 몇 초 동안 이 버튼이 응답하지 않습니다.
    3. 하나의 LED를 연결하여 음의 끝이 핀 #20 연결하고 양단 끝이 핀 #13 연결되도록 합니다. 이 LED는 카메라가 비디오를 녹화할 때 빛납니다.
    4. 버튼 스위치를 짧은 케이블과 연결하여 한 케이블이 핀 #37 연결하고 다른 케이블은 #39 고정합니다. 이 스위치는 카메라를 끄는 데 사용됩니다.
    5. 공식 웹리소스(19)에설명된 대로 IR LED 모듈을 연결한다.

2. 관심있는 작동 컨디셔닝 프로토콜 설계

참고: DeepLabCut을 사용하여 작동 챔버에서 기록된 비디오에서 프로토콜 진행을 추적하려면 아래 설명과 같이 동작 프로토콜을 특정 방식으로 구성해야 합니다.

  1. 프로토콜(예: 개별 시험의 시작 또는 시험 세션)의 특정 단계의 지표로서 챔버의 집빛 또는 다른 강한 광 신호를 사용하도록 프로토콜을 설정한다(그림6A). 이 신호를 이 프로토콜의 나머지 부분에서 "프로토콜 단계 표시기"라고 합니다. 이 신호의 존재는 녹화 된 비디오에서 추적 프로토콜 진행을 허용합니다.
  2. 프로토콜을 설정하여 프로토콜 단계 표시기가 활성화될 때와 관련하여 개별 타임스탬프로 관심 있는 모든 응답을 기록합니다.

3. 관심의 행동 테스트를 수행하는 동물의 비디오 녹화

  1. 카메라를 작동 챔버 위에 배치하여 내부 영역의 최고 뷰를 기록할 수 있도록합니다(그림 7).
    참고: 이것은 챔버 내부의 동물의 일반적인 위치와 자세를 포착하는 데 특히 적합합니다. 카메라의 표시등과 IR LED 모듈을 카메라 렌즈 가까이에 두지 마십시오.
  2. 전원 공급 장치를 통해 전기 콘센트에 연결하여 카메라를 시작합니다.
    참고: 처음 사용하기 전에 카메라 모듈과 함께 작은 도구를 사용하여 카메라의 포커스를 설정하는 것이 좋습니다.
  3. 1.13.2 단계에서 연결된 버튼을 사용하여 비디오 녹화를 시작하고 중지합니다.
  4. 다음 단계를 수행하여 카메라를 끕시다.
    1. LED가 1.13.1 단계에서 연결될 때까지 1.13.4 단계에서 연결된 버튼을 누르고 누를 수 있습니다. 이렇게 하면 카메라의 종료 프로세스가 시작됩니다.
    2. 마이크로컴퓨터 상단에 보이는 녹색 LED(그림1)가깜박임이 멈출 때까지 기다립니다.
    3. 카메라의 전원 공급 장치를 제거합니다.
      주의: 마이크로컴퓨터가 계속 실행되는 동안 전원 공급 장치를 분리하면 마이크로 SD 카드의 데이터가 손상될 수 있습니다.
  5. 카메라를 모니터, 키보드, 마우스 및 USB 저장 장치에 연결하고 데스크톱에서 비디오 파일을 검색합니다.
    참고: 파일의 이름은 비디오 녹화가 시작된 날짜 와 시간에 따라 지정됩니다. 그러나 마이크로컴퓨터는 내부 시계가 없으며 인터넷에 연결할 때만 시간 설정을 업데이트합니다.
  6. 녹화된 비디오를 .h264에서 로 변환합니다. MP4, 후자는 DeepLabCut 및 대부분의 미디어 플레이어와 잘 작동으로.
    참고: 이를 달성하는 방법에는 여러 가지가 있습니다. 하나는 보충 파일 2에설명되어 있습니다.

4. 딥랩컷으로 동영상 분석

참고: DeepLabCut은 사용자가 비디오 프레임 집합에 관심 있는 대상을 정의할 수 있는 소프트웨어 패키지이며, 이후에 이를 사용하여 전체 길이 동영상15,,16에서개체의 위치를 추적하는 신경망을 학습할 수 있습니다. 이 섹션에서는 DeepLabCut을 사용하여 프로토콜 단계 표시기의 상태와 쥐머리의 위치를 추적하는 방법에 대한 대략적인 개요를 제공합니다. DeepLabCut의 설치 및 사용은 다른 게시된프로토콜(15,,16)에잘 설명되어 있습니다. 각 단계는 다른 곳에서 설명한 대로 특정 파이썬 명령 또는 DeepLabCut의 그래픽 사용자 인터페이스를 통해 수행할 수 있습니다15,,16.

  1. 16에설명된 단계를 수행하여 새 DeepLabCut 프로젝트를 만들고 구성합니다.
  2. DeepLabCut의 프레임 잡기 기능을 사용하여 섹션 3에 기록된 동영상 중 하나 이상에서 700\u2012900 비디오 프레임을 추출합니다.
    참고: 동물이 모피 색소 침착 이나 다른 시각적 특성에서 상당히 다른 경우, 그것은 700\u2012900 추출 된 비디오 프레임 다른 동물의 동영상에 걸쳐 분할 하는 것이 좋습니다. 이를 통해 숙련된 네트워크 하나를 사용하여 다른 개인을 추적할 수 있습니다.
    1. 프로토콜 단계 표시기의 활성(도8A)및 비활성(도8B)상태를 모두 표시하는 비디오 프레임을 포함해야 합니다.
    2. 시험 중에 쥐가 보여줄 수 있는 다양한 위치, 자세 및 머리 움직임의 범위를 포괄하는 비디오 프레임을 포함해야 합니다. 여기에는 쥐가 챔버의 다른 영역에 가만히 서 있는 비디오 프레임과 머리가 다른 방향을 가리키는 비디오 프레임뿐만 아니라 쥐가 적극적으로 움직이는 비디오 프레임, 코 찌르기 개구부 입력 및 펠릿 트로프입력이 포함되어야 합니다.
  3. DeepLabCut의 라벨링 툴박스를 사용하여 4.2단계에서 추출된 각 비디오 프레임에서 쥐 머리의 위치를 수동으로 표시합니다. 마우스 커서를 사용하여 쥐의 귀 사이의 중앙 위치에 "헤드" 라벨을 놓습니다(그림8A, B). 또한, 각 비디오 프레임에서 챔버의 집광(또는 기타 프로토콜 단계 표시기)의 위치를 표시하여 적극적으로 빛나는곳(도 8A). 비활성 프레임에 레이블이 지정되지 않은 하우스 라이트를 둡니다(그림8B).
  4. DeepLabCut의 "교육 데이터 세트 만들기" 및 "기차 네트워크" 기능을 사용하여 4.3 단계에 레이블이 표시된 비디오 프레임에서 교육 데이터 집합을 만들고 신경망 교육을 시작합니다. 선택한 네트워크 유형에 대해 "resnet_101"를 선택해야 합니다.
  5. 훈련 손실이 0.01 이하로 고원했을 때 네트워크 교육을 중지하십시오. 최대 500,000개의 교육 반복이 필요할 수 있습니다.
    참고: 약 8GB의 메모리와 약 900개의 비디오 프레임(해상도: 1640 x 1232 픽셀)의 학습 세트를 갖춘 GPU 기계를 사용하는 경우 교육 프로세스는 약 72시간이 걸리는 것으로 나타났습니다.
  6. DeepLabCut의 비디오 분석 기능을 사용하여 4.4 단계에서 학습된 신경망을 사용하여 3단계에서 수집된 비디오를 분석합니다. 이렇게 하면 쥐 머리의 추적된 위치와 분석된 비디오의 각 비디오 프레임에 프로토콜 단계 표시기를 나열하는 .csv 파일이 표시됩니다. 또한 추적된 위치가 시각적으로 표시되는 표시형 비디오 파일을만듭니다(동영상1-8).
  7. 아래 설명된 단계를 따라 추적의 정확성을 평가합니다.
    1. DeepLabCut의 기본 제공 평가 기능을 사용하여 네트워크의 추적 정확도에 대한 자동화된 평가를 얻을 수 있습니다. 이는 4.3 단계에서 레이블이 지정된 비디오 프레임을 기반으로 하며 네트워크에서 추적한 위치가 수동으로 배치된 레이블에서 얼마나 멀리 떨어져 있는지 를 설명합니다.
    2. 4.6단계에서 얻은 표시된 동영상에서 하나 이상의 간단한 비디오 시퀀스(각 100\u2012200 비디오 프레임)를 선택합니다. 비디오 시퀀스를 살펴보고 프레임별로 프레임으로 이동하고 레이블이 쥐의 머리, 꼬리 등의 위치를 올바르게 나타내는 프레임 수와 라벨이 잘못된 위치에 배치되는지 또는 표시되지 않는 프레임 수를 기록합니다.
      1. 바디 파트 또는 개체의 레이블이 잘못 된 위치에 자주 분실되거나 잘못된 위치에 배치된 경우 추적이 실패한 상황을 식별합니다. 4.2 단계를 반복하여 이러한 경우의 레이블이 지정된 프레임을 추출하고 추가합니다. 및 4.3. 그런 다음 네트워크를 다시 학습하고 4.4-4.7 단계를 반복하여 비디오를 다시 분석합니다. 궁극적으로, >90% 정확도의 추적 정확도를 달성해야 합니다.

5. 작동 챔버에 관심있는 지점에 대한 좌표 획득

  1. 4.3 단계에서 설명된 대로 DeepLabCut을 사용하여 단일 비디오프레임(그림 8C)에서조작 챔버(예: 코 찌르기 개구부, 레버 등)에 대한 관심 지점을 수동으로 표시합니다. 프로토콜 단계 표시기의 위치는 항상 포함되어야 하지만 연구별 관심사에 따라 수동으로 선택됩니다.
  2. DeepLabCut이 프로젝트 폴더의 "레이블이 지정된 데이터"아래에 자동으로 저장하는 .csv 파일에서 표시된 관심 점의 좌표를 검색합니다.

6. 프로토콜 단계 표시등이 활성화된 비디오 세그먼트 식별

  1. DeepLabCut 비디오 분석에서 얻은 .csv 파일을 4.6 단계에서 선택한 데이터 관리 소프트웨어에 로드합니다.
    참고: DeepLabCut 및 작동 컨디셔닝 시스템에서 얻은 데이터의 양과 복잡성으로 인해 자동 분석 스크립트를 통해 데이터 관리가 가장 좋습니다. 이 것으로,시작하려면20,21,,22에서사용할 수있는 엔트리 레벨 가이드를 참조하십시오.
  2. 비디오 세그먼트프로토콜 단계 표시기가 섹션 5에서 얻은 위치의 60픽셀 내에서 추적되는 점에 유의하십시오. 프로토콜 단계 표시등이 활성화된기간(그림 6B)이됩니다.
    참고: 프로토콜 단계 표시등이 빛나지 않는 비디오 세그먼트 에서 표시된 동영상은 DeepLabCut이 어떤 위치로도 추적되지 않음을 나타낼 수 있습니다. 그러나 이 경우는 거의 발생하지 않으며 일반적으로 여러 개의 흩어진 위치로 추적됩니다.
  3. 프로토콜 단계 표시기가 활성화된 각 기간에 대해 정확한 시작점을 추출합니다(그림6C: 1).

7. 관심 있는 동영상 세그먼트 식별

  1. 프로토콜 단계 표시기가 활성화되는점(그림 6C: 1)과 작동 챔버에 의해 기록된 응답의 타임스탬프(섹션 2, 그림 6C: 2)를 고려하십시오.
  2. 이 정보를 사용하여 시험 간 간격, 응답, 보상 검색 등과 같은 특정 흥미로운 이벤트를 다루는 비디오 세그먼트를 결정합니다(그림6C: 3, 그림 6D).
    참고: 이를 위해 여기에 설명된 카메라가 30fps로 비디오를 기록한다는 점에 유의하십시오.
  3. 이러한 관심 이벤트를 다루는 특정 비디오 프레임을 기록합니다.
  4. (선택 사항) 관심 있는 특정 세그먼트만 포함하도록 전체 테스트 세션의 비디오 파일을 편집합니다.
    참고: 이를 달성하는 방법에는 여러 가지가 있습니다. 하나는 보충 파일 2 및 3에설명되어 있습니다. 이렇게 하면 많은 수의 동영상을 저장할 때 도움이 되며 결과를 보다 편리하게 검토하고 프레젠테이션할 수도 있습니다.

8. 특정 비디오 세그먼트 동안 동물의 위치와 움직임을 분석

  1. DeepLabCut에서 얻은 헤드 위치의 전체 추적 데이터를 섹션 7에 명시된 비디오 세그먼트만 포함하도록 4.6 단계에서 하위 설정합니다.
  2. 5항(도8C)에서선택한 기준점 중 하나 이상과 관련하여 동물의 머리 위치를 계산합니다. 이를 통해 다양한 비디오에서 추적 및 위치를 비교할 수 있습니다.
  3. 동물의 위치와 움직임에 대한 관련 심층 분석을 수행합니다.
    참고: 수행된 특정 분석은 연구별입니다. 분석할 수 있는 매개 변수의 몇 가지 예는 다음과 같습니다.
    1. 선택한 기간 동안 검색된 모든 좌표를 하나의 그래프 내에서 플로팅하여 경로 추적을 시각화합니다.
    2. 다음 수식을 사용하여 지정된 관심 지점에 대한 근접성을 분석합니다.
      Equation 1
    3. 연속 프레임에서 추적된 좌표 사이의 거리를 계산하고 카메라의 1/fps로 분할하여 이동 중 속도 변화를 분석합니다.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

비디오 카메라 성능

대표적인 결과는 28.5cm x 25.5 cm, 높이 28.5 cm의 랫트에 대한 편집 컨디셔닝 챔버에 수집되었다. 어안 렌즈가 부착되어 있어 카메라는 챔버 위에 배치될 때 주변 벽의 전체 바닥 면적과 큰 부분을 포착합니다(그림7A). 따라서 카메라가 챔버 상단에 중앙에 배치되더라도 좋은 시야를 얻을 수 있습니다. 이것은 비교 가능한 작동 챔버에 대해 사실로 유지되어야합니다. IR LED는 챔버 내부의 다른 모든 조명이 꺼져 있어도 전체챔버(그림 7B, C)를점등할 수 있어 좋은 시야를 구현할 수 있습니다(도7C). 그러나 이러한 상황에서 조명은 완전히 균일하지 않으며 정확한 추적을 얻는 데 몇 가지 어려움을 초래할 수 있습니다. 이러한 분석이 관심이 있는 경우 IR 조명의 추가 소스가 필요할 수 있습니다. 또한 일부 챔버는 소변과 대변을 수집하기 위해 금속 낙하 팬을 사용하는 것을 주목할 필요가있다. 카메라가 이러한 표면 바로 위에 배치되면 IR LED의 빛의 강한 반사가 녹화 된 비디오(그림 7B)에서표시됩니다. 그러나 이것은 낙하 팬에 종이 타월을 배치하여 피할 수 있으므로 훨씬 향상된 이미지(그림 7C)를제공합니다. 카메라의 IR 또는 컬러 LED를 카메라 렌즈에 너무 가깝게 배치하면 이미지 주변에서 볼 수있습니다(그림 7B). 카메라가 IR에 민감하기 때문에 챔버 내부에 있는 모든 IR 광원은 비디오에서 볼 수 있습니다. 많은 설정의 경우 IR 빔 브레이크센서(도 7C)의연속 빛나는 것이 포함됩니다. 카메라의 IR LED에서 연속 조명은 잘 조명 챔버(도 7D)의이미지 품질을 방해하지 않습니다. 카메라로 녹화된 동영상의 크기는 약 77Mb/분입니다. 카메라에 32Gb 마이크로 SD 카드를 사용하는 경우 운영 체제 설치 후 약 20Gb를 사용할 수 있어야 합니다. 이렇게 하면 약 260분 동안 녹화된 영상을 볼 수 있습니다.

어안 렌즈로 인해 카메라가 약간 고르지 않은 초점이 발생하여 이미지 중앙에 선명하지만 가장자리쪽으로 선명도가 줄어듭니다. 추적의 정확성에는 영향을 미치지 않습니다. 또한, 어안 렌즈는 기록된 이미지가 왜곡되는 결과를 낳습니다. 예를 들어, 직선을 따라 동등하게 간격이 있는 점 사이의 거리는 이미지 의 주변을 향한 인위적으로 간격이 감소되는 것을 보여준다(그림 9A,B). 카메라가 대부분의 시야 또는 거리 및 속도의 절대 측정이 관심있는 응용 프로그램에 사용되는 경우이 왜곡(23)에 대한 데이터를 수정하는 것을 고려할 가치가 있습니다(보충 파일 4). 왜곡은, 그러나, 이미지의 중앙에 상대적으로 온화하다(도9B). 오페라 챔버에 모인 동영상의 경우 관심 영역은 카메라 시야의 중앙 25%로 제한됩니다. 이 영역 내에서, 어안 왜곡의 효과는 최소화(그림 9C\u2012F).

DeepLabCut으로 추적의 정확성

학습된 네트워크의 추적 정확도를 결정하는 주요 요인은 (i) 교육 데이터 집합에 레이블이 붙은 프레임 수, (ii) 레이블이 부착된 프레임이 관심 있는 동작을 얼마나 잘 포착하는지, (iii) 사용되는 교육 반복 수입니다. DeepLabCut에는 평가 함수가 포함되어 있으며, 이 함수는 추적이 개체의 실제 위치에서 얼마나 멀리 떨어져 있는지(픽셀 수)에 대한 추정치를 보고합니다. 그러나 개체가 손실되거나 잘못 표시된 프레임수(그림 10A)에대한 좋은 설명을 반드시 제공하는 것은 아니며 추적 정확도에 대한 추가 수동 평가가 필요합니다.

작동 챔버 내부의 동작을 분석하기 위해 잘 훈련된 네트워크는 프로토콜 단계 표시등이 활성화되어 있는 모든 이벤트를 정확하게 식별할 수 있어야 합니다. 그렇지 않은 경우 네트워크를 다시 학습하거나 다른 지표를 선택해야 할 수 있습니다. 잘 훈련된 네트워크를 가지고 있음에도 불구하고, 프로토콜 단계 표시기의 추적은 때때로 카메라의 시야를 차단하는 동물에 의해 중단 될 수 있습니다(그림 10B). 이로 인해 표시등이 비활성 인 에피소드를 연상시키는 추적에 중단이 발생합니다. 이 사건의 빈도는 동물 변형, 행동 프로토콜 유형 및 프로토콜 단계 표시기선택에 따라 달라집니다. 여기서 사용되는 5CSRTT의 예제 데이터에서 400개의 시험 중 4개에서 발생했습니다(표시되지 않은 데이터). 모든 경우는 프로토콜설계(그림 6A)에포함된 브레이크 단계의 지속 시간이 일치하지 않았기 때문에 쉽게 식별할 수 있었습니다. 궁극적으로, 챔버에 높은 배치 되는 지표를 선택 하 고 멀리 동물 상호 작용 하는 구성 요소에서 도움이 될 가능성이.

잘 훈련된 네트워크는 관심 있는 비디오세그먼트(Video 1)에서동물의 머리를 추적할 때 90%의 정확도를 허용해야 합니다. 이를 통해 비디오 프레임의 작은 하위 집합만 후속 분석에서 제외되어야 하며 테스트 세션 내의 거의 모든 시험에서 사용 가능한 추적 데이터를 얻을 수 있습니다. 정확한 추적은 그 움직임(비디오 2)및 플롯 경로가 매끄러운 나타나는 전체 동물을 따르는 마커에 의해 명확하게 식별 할 수 있습니다(그림 10C). 대조적으로 부정확한 추적은대상(비디오 3)에안정적으로 머무르지 않는 마커와 들쭉날쭉한경로(그림 10D)가나타나는 플롯 경로에 의해 특징지어진다. 후자는 정확한 추적 시퀀스 내에서 단일 비디오 프레임에서 먼 잘못된 위치로 추적되는 개체에 의해 발생합니다. 그 결과 부정확한 추적은 일반적으로 계산된 이동속도(그림 10E)의급격한 변화를 일으킵니다. 추적이 부정확한 비디오 프레임을 식별하여 후속 분석에서 제외하는 데 사용할 수 있습니다. 추적 정확도에 상당한 문제가 있는 경우 추적 실패를 식별하고 이러한 이벤트의 레이블이 붙은 비디오 프레임이 포함된 확장된 교육 집합을 사용하여 네트워크를 다시 학습해야합니다(그림 10A, E).

작동 동작 분석을 보완하기 위해 비디오 추적 사용

실험 중에 동물이 어떻게 움직이고 위치를 정하는지 분석하면 행동의 복잡하고 다각적인 특성에 대한 여러 가지 통찰력을 얻을 수 있습니다. 테스트 세션 전반에 걸쳐 동물이 어디에 있는지 추적하면 뚜렷한 움직임 패턴이 성능과 어떻게 관련이 있는지 평가할 수있습니다(그림 11A,B). 특정 프로토콜 단계 동안 머리 움직임을 추가로 조사함으로써, 하나는 다른 전략의 사용을 감지하고 특성화 할 수 있습니다(그림 11C\u2012E).

예시하려면, 5CSRTT 시험을 수행하는 쥐에 대해 제시된 대표적인 데이터를 고려한다(도6A, 도 11). 이 시험에서 동물은 각각 5 s 대기 단계 (시험 간 간격 - ITI)(그림6A: 1)로 시작하는 여러 시험을 제시합니다. 이 것의 끝에서, 빛이 코 찌르기 구멍 중 하나 안에 빛빛을 비출 것입니다 (각 시험에서 무작위로 선택 된 위치, 그림 6A: 2). 큐드 개구부로 코를 찌르는 것은 올바른 반응으로 간주되며 보상됩니다(그림 6A: 3). 다른 개구부에 응답하는 것은 잘못된 것으로 간주됩니다. 빛의 프리젠 테이션 후 5 s 이내에 응답하지 못하는 것은 누락된 것으로 간주됩니다. 이 시험의 ITI 동안 머리 의 움직임을 추적하는 것은 쥐가 반응을 수행하는 시험에서, 그들은 코 찌르기 개구부 주변 영역을 향해 빠르게 이동하는 것으로 나타났습니다(그림 11A, B, 비디오 4). 대조적으로, 누락 시험의 대부분에, 쥐는 개구부 주변 지역에 접근하는 데 실패(그림 11B, 비디오 5). 이러한 동작은 시험3,16을수행하기 위한 낮은 동기부여와 밀접한 관련이 있는 누락의 일반적인해석과일치한다. 그러나, 누락 시험의 하위 집합 (현재 데이터 세트의 약 20 %)에, 쥐는 개구부(도 11B, 비디오 6)를향해 명확한 초점을 보였지만 cued 개구부의 정확한 위치를 기록하지 못했습니다. 따라서 데이터는 적어도 두 가지 유형의 누락이 있음을 나타내며, 하나는 진행 중인 시험에서 발생할 수 있는 무관심과 관련이 있으며, 다른 하나는 부족한 visuospatial 주의3에더 의존합니다. 헤드 트래킹을 사용하여 명백한 전략을 구분할 수도 있습니다. 예를 들어, 5CSRTT(그림11C\u2012E)에서코 찌르기 개구개에 근접할 때 쥐가 어떻게 움직이는지 분석할 때 두 가지 뚜렷한 주의 전략이 드러났다. 첫 번째 전략에서, 쥐는 ITI의 대부분에 걸쳐 중앙 위치를 유지, 매우 초점을 맞춘 접근 방식을 보여 주었다(그림 11C, 비디오 7). 대조적으로, 다른 전략을 채택하는 쥐는 지속적으로 검색과 같은 방식으로 다른 개구부 사이 머리를 이동(그림 11D, 비디오 8). 이러한 유형의 행동 차이는 다른 개구부(도11E)에근접하여 소요되는 시간을 계산하여 편리하게 정량화될 수 있다. 마지막으로, 큐 라이트 프리젠테이션(도11F)의시점에서 쥐를 여는 것이 가장 가까운지를 분석함으로써, 중앙위치(도 11G)및/또는 큐드 개구부(도11H)의위치와 근접한 것으로 입증될 수 있다.

Figure 1
그림 1: 나열된 마이크로컴퓨터의 스케치입니다. 회로도는 마이크로 컴퓨터 마더 보드에 관심의 여러 구성 요소의 위치를 보여줍니다. 다음과 같이 동그라미 번호가 표시됩니다: 1: 카메라 리본 케이블커넥터; 2: 컴퓨터가 실행 중일 때를 나타내는 LED 표시등; 3: 전원 케이블용 마이크로 USB; 4: 마우스/키보드용 마이크로 USB; 5: 범용 입력/출력 핀(GPIO 핀)은 마이크로컴퓨터를 LED, 스위치 및 IR LED 모듈에 연결하는 데 사용됩니다. 6: 미니 HDMI 출력; 7: 마이크로 SD 카드 슬롯. 그림의 아래쪽 부분에서 GPIO 핀의 잘라내고 확대된 부분이 특정 핀의 위치를 정확하게 식별하기 위해 함께 계산하는 방법을 나타내고 있습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 2
그림 2: 카메라의 본체 를 빌드합니다. 이 수치는 카메라 의 본문을 구축하기위한 주요 단계를 보여 주었다. (A)카메라 스탠드에 마그네틱 메탈 링을 부착합니다. (B)카메라 모듈을 카메라 스탠드에 부착합니다. (C)플랫 리본 케이블을 통해 카메라 모듈을 마이크로컴퓨터에 연결합니다. 마이크로컴퓨터와 카메라 모듈모두에 있는 카메라 포트를 열고 닫는 방법을 나타내는 흰색 화살표를 확인합니다. (D)마이크로컴퓨터를 플라스틱 케이스에 넣고 마이크로 SD 카드를 삽입합니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 3
그림 3: 마이크로컴퓨터의 운영 체제를 업데이트하고 주변 장치를 활성화합니다. 이 그림은 마이크로컴퓨터의 사용자 인터페이스를 묘사한 네 가지 스크린샷을 보여줍니다. (A)화면 왼쪽 상단 모서리에 있는 "터미널" 아이콘을 클릭하여 터미널 창을 열 수 있습니다. (B)단말 내에서 프로토콜 텍스트에 자세히 설명된 대로 다른 종류의 명령을 입력할 수 있습니다. 스크린샷에는 시스템의 소프트웨어 패키지를 업데이트하는 명령이 표시됩니다. (C)스크린샷은 카메라 모듈과 I2C GPIO 핀을 사용할 수 있는 구성 메뉴로 이동하는 방법을 표시합니다. (D)스크린샷에는 카메라 스크립트를 프로토콜의 1.10 단계에서 복사해야 하는 /home/pi 폴더가 표시됩니다. 화면 왼쪽 상단 모서리에 표시된 아이콘을 클릭하여 창이 열립니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 4
그림 4: 마이크로컴퓨터의 rc.로컬 파일 구성. 이 그림은 1.11.1 단계에서 설명된 대로 단말터미널을 통해 액세스할 때 마이크로컴퓨터rc.local 파일의 두 개의 스크린샷을 표시합니다. (A)원래 형식의 rc.local 파일의 스크린샷입니다. 화살표는 카메라의 자동 시작 기능을 활성화하기 위해 텍스트를 입력해야 하는 공간을 나타냅니다. (B)IR LED를 비추고 마이크로컴퓨터의 시동 시 카메라를 제어하는 파이썬 스크립트를 시작하기 위해 편집된 rc.local 파일의 스크린샷. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 5
그림 5: 스위치와 LED를 마이크로컴퓨터의 GPIO 핀에 연결합니다. (A)여성 점퍼 케이블(상단)과 레서와 여성 점퍼 케이블(하단)이 있는 LED가 있는 버튼 스위치를 보여주는 회로도. (1) 버튼 스위치, (2) 여성 점퍼 케이블, (3) LED, (4) 저항. (B)두 개의 버튼 스위치, 컬러 LED 및 IR LED 보드가 마이크로컴퓨터의 GPIO 핀에 어떻게 연결되는지 보여주는 회로도 이미지. 파란색 케이블과 GPIO 핀은 접지를 나타냅니다. 두 개의 GPIO 핀의 위치는 그림(GPIO 핀 #2 및 #40)에 표시됩니다: (1) 비디오 녹화시작/중지 버튼. (2) 비디오가 녹화될 때를 나타내는 LED. (3) 카메라를 끄기 위한 버튼. (4) 카메라가 부팅되어 사용할 준비가 된 경우를 나타내는 LED입니다. (5) IR LED 모듈. LED가 있는 회로에는 330Ω 저항기도 포함되어 있습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 6
그림 6: 프로토콜 단계 표시기의 DeepLabCut 추적을 사용하여 전체 길이 동영상에 대한 관심 시퀀스를 식별합니다. (A)5선택 연쇄 반응 시간 테스트(5CSRTT)에서 단일 시험단계의 회로도: (1) 먼저, 짧은 대기 기간(ITI)이 있다. 화살표는 적극적으로 빛나는 집 빛을 나타냅니다. (2) ITI의 끝에서, 빛이 다섯 코 찌르기 구멍 (화살표) 중 하나에 빛빛을 비춥니다. (3) 쥐가 큐드 개구부에 코 찌를 수행하여 정확하게 반응하면 보상(arrow)이 전달됩니다. (4) 쥐는 보상을 회수할 수 있습니다. (5) 집빛을 프로토콜 단계 표시기로 사용할 수 있도록 하기 위해 다음 시험이 시작되기 전에 집빛(화살표)이 꺼지는 짧은 일시정지 단계가 구현된다. 재판의 후속 단계에서 집 빛이 빛나고 있습니다. (B)5CSRTT 테스트의 비디오 세그먼트 동안 DeepLabCut에 의해 추적된 액티브 하우스 라이트의 x-좌표를 묘사한 예제 그래프. 집빛이 빛나는 세그먼트(표시기 활성 - 1) 위치는 도 8C(x, y: 163, 503)에서 집빛의 위치와 비교하여 일관되고 안정적인 점(예시 비디오 프레임에서 빨간색 마커(화살표로 표시됨)으로 추적됩니다. 집 빛이 빛나지 않는 세그먼트(표시기 비활성 - 2, 예제 비디오 프레임에서 흰색 화살표에 기록), 추적된 위치는 안정적이지 않고 집 빛의 실제 좌표에서 멀리 떨어져 있습니다. (C)표 1은 프로토콜 단계 표시기의 DeepLabCut 추적으로부터 얻은 처리된 출력의 예를 나타낸다. 이 출력에서 표시등이 활성화된 각 경우에 대한 시작점이 나열되었습니다. 표 2는 조작 컨디셔닝 시스템에서 얻은 데이터의 예를 묘사하여 개별 시험에 대한 관련 세부 정보를 제공합니다. 이 예제에서는 ITI의 지속 시간, 응답을 수행하고 보상을 검색하기 위해 큐드 개구부 및 대기 시간의 위치가 기록되었습니다. 표 3에서는 DeepLabCut의 추적 결과와 작동 컨디셔닝 시스템에서 기록된 데이터를 병합하여 얻은 데이터의 예를 설명합니다. 이를 통해, ITI(A에서 1단계) 시작점, 큐 라이트 프레젠테이션의 시작점(A에서 2단계), 응답(A에서 3단계) 및 검색(A에서 4단계)의 예시 예심을 위한 비디오 프레임을 획득하였다. (D)DeepLabCut에 의해 추적된 바와 같이, 촬영된 5CSRTT 시험 중에 하우스 라이트의 x-좌표를 묘사한 예제 그래프. 프로토콜의 다른 단계는 표시됩니다: (1) ITI; (2) 큐 라이트의 프리젠 테이션 (흰색 화살표로 표시된 위치); (3) 응답; (4) 보상 검색. 이러한 다양한 프로토콜 단계의 시작 및 중지를 묘사한 비디오 프레임의 식별은 D. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 7
그림 7: 카메라의 이미지 특성입니다. (A)조리컨디셔닝 챔버 위에 놓인 카메라로부터 얻은 크롭되지 않은 이미지. 이 이미지는 챔버가 밝은 조명의 방에 놓인 동안 캡처되었습니다. (1) 집 빛과 (2) 챔버의 왼쪽 벽을 따라 펠릿 트로프와 (3) 챔버의 오른쪽 벽을 따라 다섯 코 찌르기 구멍의 행을 주의한다. 각 코 찌르기 개구부에는 작은 큐 라이트가 들어 있습니다. (B)금속 낙하 팬에 의한 강한 반사를 표시하는 절제된 이미지뿐만 아니라 카메라 (2) 표시기 LED 및 (3) IR LED 모듈의 최적 위치 지정으로 인한 반사. (C)완전한 어둠 속에서 챔버의 자른 이미지. 챔버의 오른쪽 벽을 따라 5개의 코 찌르기 개구부에서 IR 빔 브레이크 검출기의 조명이 선명하게 보입니다(화살표). (D)밝게 점등할 때 챔버의 자른 이미지. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 8
그림 8: 프로토콜 단계 표시기 및 관심있는 신체 부위의 위치 추적. (A)그림은 DeepLabCut에 의해 추적된 대로 프로토콜 단계 표시기(red)와 쥐의 헤드(노랑) 및 꼬리(녹색)의 위치를 나타낸다. 조명된 하우스 라이트추적에 따라 비디오 프레임은 활성 평가판의 스냅샷에서 가져옵니다. (B)사진은 시험이 활성화되지 않은 순간 동안 DeepLabCut에 의해 추적된 헤드(노란색)와 꼬리(녹색)의 위치를 나타낸다. 하우스 라이트 트래킹의 부족을 유의하십시오. (C) 도 6도 11에도시된 데이터 분석에 사용되는 관심점의 위치; (1) 하우스 라이트, 프로토콜 단계 표시기로 사용되는이 경우(2\u20126) 코 찌르기 개구부 #1\u20125. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 9
그림 9: 어안 렌즈의 이미지 왜곡. (A)본 프로토콜에 설명된 카메라로 촬영한 크기와 간격이 있는 흑백 사각형을 가진 체커 보드 패턴의 이미지. 이미지는 작동 컨디셔닝 챔버에서 비디오를 녹화 할 때 사용되는 것과 비슷한 높이에서 촬영되었습니다. 중앙 수평 및 수직 선을 따라 검은 색 사각형은 DeepLabCut로 표시되었습니다. (B)이미지 중심에 근접하여 (A)에서 표시된 사각형의 간격이 어떻게 변하는지 를 묘사하는 그래프. (C)조향실에서 수집한 동영상에 어안 왜곡 효과의 영향을 평가하기 위해 취한 측정을 묘사한 이미지. 바닥 면적의 가장자리를 따라 모서리와 중간점, 각 개별 바닥 렁의 중앙 위치 및 5 개의 코 찌르기 구멍의 위치는 DeepLabCut (컬러 점)로 표시되었습니다. (1) 바닥 횡선의 간격, (2) 챔버의 중간을 따라 챔버 바닥의 폭, (3) 코 찌르기 개구부간격. (D)바닥 횡선 간격 (3 연속 렁의 각 세트에 대한 평균), 왼쪽에서 오른쪽으로 번호 (C). 어안 왜곡의 작은 효과가 있어 중앙 횡선이 약 3픽셀(8%)으로 간격을 두고 있습니다. 챔버 바닥의 가장자리에 위치하는 횡선보다 더 떨어져 있습니다. (E)챔버 바닥의 폭(C)은 중간점뿐만 아니라 왼쪽 및 오른쪽 가장자리에서 측정하였다. 어안 왜곡의 작은 효과가 있어 중간점에서 측정된 폭이 약 29픽셀(5%)입니다. 다른 측정값보다 길다. (F)이미지의 상단에서 번호가 매겨진 (C)에서 코 찌르기 개구부 간격. 어안 왜곡의 작은 효과가 있어 중앙 3개 개구부(H2, H3, H5) 사이의 간격이 약 5픽셀(4%) H1-H2와 H4-H5 사이의 간격보다 더 넓습니다. D-F의 경우 4개의 동영상에서 데이터가 수집되었으며 그래프는 그룹 평균 + 표준 오류를 묘사했습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 10
그림 10: DeepLabCut 추적의 정확도 검토. (A)작동 챔버 내에서 쥐를 추적하도록 훈련 된 두 신경망에 대한 교육 정보를 나열하는 테이블. 네트워크 #1 더 작은 교육 데이터 집합을 사용했지만 네트워크 #2 비해 많은 수의 교육 반복이 사용되었습니다. 두 네트워크 모두 DeepLabCut의 평가 기능(DLC 테스트 오류)에서 낮은 오류 점수를 달성했으며 교육이 끝날 때까지 낮은 교육 손실을 보였습니다. 그럼에도 불구하고, 네트워크 #1 표시된 비디오 프레임의 수동 평가시 추적 정확도가 매우 좋지 않은 것으로 나타났습니다(비디오 2비디오 3에비해 비디오 세그먼트를 포함하는 150개의 비디오 프레임에서 추정되는 정확도 측정). 네트워크 #2 (E)에 설명된 대로 쥐를 교육 데이터 세트로 적극적으로 이동하는 추가 비디오 프레임을 포함한 후 네트워크 #1 개선된 버전을 나타냅니다. (B)쥐가 머리를 들고 챔버의 집빛을 키우고Figure 7A덮고 있는 모습이 그려서 추적을 방해한다. (C)5CSRTT 시험 중 응답을 캡처하는 비디오 프레임(그림 6A: 3). 응답 중 및 ITI 이전 의 머리 이동 경로가 노란색 이미지에 겹쳐졌습니다. 추적은 정확한 것으로 간주됩니다. 움직임(흰색 화살표)이 있는 동안의 부드러운 추적을 기록합니다. 해당 비디오는 비디오 2로사용할 수 있습니다. 네트워크 #2(A 참조)이 추적에 사용되었습니다. (D)5CSRTT 시험 중 응답을 캡처하는 비디오 프레임(그림 6A: 3). 응답 중 및 ITI 이전 의 머리 이동 경로가 노란색 이미지에 겹쳐졌습니다. 데이터는 (C)에 표시된 것과 동일한 평가판에 관한 것이지만 네트워크 #1 분석합니다(A 참조). 추적이 부정확한 것으로 간주됩니다. 먼 잘못된 위치(검은 화살표)로 머리를 가끔 추적하여 여러 직선(흰색 화살표)으로 경로의 들쭉날쭉한 모양을 기록합니다. 해당 비디오는 비디오 3로사용할 수 있습니다. (E)(C) 및 (D)에서 헤드 트래킹의 움직임 속도의 동적 변화를 묘사하는 그래프. 그래프에서 식별 할 수있는 세 가지 주요 움직임은 비디오 23에서볼 수 있으며, 쥐가 먼저 코 찌르기 개구부 (초기 턴)에 직면하도록 회전하고, 더 접근 (조정)에 작은 조정을하고, 마지막으로 응답을 수행한다. 네트워크 #2(A)에서 얻은 좋은 추적의 속도 프로파일은 정확한 추적을 나타내는 움직임 속도(파란색 화살표)의 부드러운 곡선을 표시합니다. 네트워크 #1(A)에서 얻은 불량 추적의 속도 프로파일은 단일 비디오 프레임에서 가끔 추적 오류를 나타내는 이동 속도(빨간색 화살표)의 여러 갑작스런 스파이크를 보여줍니다. 이러한 추적 문제는 특히 이동 중에 발생한다는 점에 주목할 필요가 있습니다. 이를 바로잡기 위해 네트워크 #1 훈련하는 데 사용되는 초기 트레이닝 세트는 적극적으로 움직이는 쥐를 묘사하는 다량의 비디오 프레임으로 확장되었습니다. 이 문제는 이후에 네트워크 #2 교육하는 데 사용되었으며 이 추적 문제를 효율적으로 제거했습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 11
그림 11: DeepLabCut을 통한 위치 추적을 사용하여 작동 컨디셔닝 테스트의 행동 분석을 보완합니다. (A) 작동 컨디셔닝 챔버의 내부의 상단 보기. 챔버의 세 영역이 표시됩니다. 보상 펠릿 트로프 (펠렛), 중앙 챔버 영역 (중앙) 및 코 찌르기 개구부 주변 영역 (개구부)에 가까운 영역. (B) 5CSRTT의 ITI 단계 동안 (A)에 설명된 조작 챔버의 세 가지 다른 영역에서 쥐가 보내는 상대적인 시간을 묘사한 그래프. 응답과 시험에서, 쥐는 처음에 펠릿 트로프 (검은 색) 및 챔버 센터 (회색)에 가까운 위치하는 경향이 있지만, ITI가 진행됨에 따라, 그들은 코 찌르기 개구부 (흰색) 주위에 자신을 위치로 이동합니다. 대조적으로, 일반적인 생략 예심에, 쥐는 펠릿 쓰루와 챔버 센터 의 주위에 위치 남아 있습니다. 누락 시험의 하위 집합에 (약 20%) 쥐는 명확하게 코 찌르기 구멍을 향해 초점을 이동하지만, 여전히 메시지가 표시 될 때 응답을 수행하지 못합니다. 주제 간 계수와 시간 사이의 주제 요인으로 평가판 유형을 사용하여 코 찌르기 개구부 주변을 보내는 시간의 양방향 ANOVA 분석은 상당한 시간을 드러낸다(p < 0.001, F(4,8) = 35.13), trial type (p < 0.01, F(2,4) = 57.33) and time x trial type interaction (p < 0.001, F(8,16) = 15.3) effects. Data gathered from four animals performing 100 trials each. Graph displays mean + standard error. (C) 5CSRTT 시험 세션의 50 IT 동안 하나의 특정 쥐에 의해, 코 찌르기 개구개 의 근접에서 추적 모든 헤드 위치를 표시하는 열지도. 쥐는 중앙 코 찌르기 개구부 가까이에 한 자리에 머리를 유지하는 강한 경향이 있음을 유의하십시오. (D) 5-CSRTT 시험 세션의 50 IT 동안 하나의 특정 쥐에 의해, 코 찌르기 개구개 의 근접에서 추적 된 모든 헤드 위치를 표시하는 열지도. 쥐는 특정 개구부에 대한 명확한 선호도를 나타내지 않습니다. (전자) 그래프는 (C)에 표시된 두 쥐가 5CSRTT의 50 IT 동안 다른 코 찌르기 개구부에 가장 가까운 시간을 묘사한다. 집중 전략(C)을 표시하는 쥐(C)(블랙)는 중앙 개구부에 가장 근접한 반면 검색형 전략(D)(흰색)을 가진 쥐는 특정 개구부에 대한 선호도를 나타내지 않는다. 그래프는 평균 + 표준 오류를 묘사합니다. (F) 5CSRTT 시험에서 큐 프리젠 테이션 시 쥐의 이미지 (그림 6A). 쥐는 중앙 개구부(흰색 화살표)에 가장 가까운 머리를 배치했으며, 큐드 개구부(검정 화살표)에서 두 개의 개구부입니다. (G) 쥐의 머리가 중앙 개구부 또는 큐 프리젠 테이션 시 다른 개구부 중 하나에 가장 가까운지 여부와 관련하여 5CSRTT (즉, 올바른 응답을 수행하는 빈도)의 성능 정확도를 묘사하는 그래프 (큐 프리젠 테이션 시 다른 개구부 중 하나).그림 6A2). 4마리의 동물로부터 수집된 데이터는 각각 약 70개의 응답을 수행합니다. 그래프 표시 그룹 평균 + 표준 오류(일치하는 t-테스트: p < 0.05). (H) 신호 프리젠 테이션 지점에서 큐드 개구부의 위치와 쥐의 머리의 위치 사이의 거리와 관련하여 5CSRTT의 성능 정확도를 나타내는 그래프. 거리는 쥐의 머리 위치와 신호 개구부 의 위치 사이의 개구부 수와 관련이 있습니다. 4마리의 동물로부터 수집된 데이터는 각각 약 70개의 응답을 수행합니다. 그래프 표시 평균 + 표준 오류(일치하는 단방향 ANOVA: p < 0.01). For the presented analysis, Network #2 described in 그림 10A 사용 되었습니다. 전체 분석 된 데이터 세트에는 약 160,000 개의 비디오 프레임과 400 개의 시험이 포함되었습니다. 이 중 비디오 프레임의 2.5%는 동물의 유의한 이동 속도가 3,000픽셀/s 이상이기 때문에 제외되어 잘못된 추적(잘못된 추적)을 나타냅니다.그림 10E). 완전한 시험은 제외되지 않았습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

비디오 1: 잘 훈련된 신경망의 대표적인 추적 성능. 이 비디오는 5CSRTT 테스트 세션 동안 올바른 응답으로 45 개의 시험을 수행하는 쥐의 몽타주를 보여줍니다 (프로토콜 세부 사항은 그림 6A 참조). 집빛(빨간 마커), 꼬리 베이스(녹색 마커) 및 헤드(blue marker)의 추적은 비디오에 표시된다. 네트워크 교육(도 10A의네트워크 #2)은 코 찌르기 개구부(오른쪽 벽, 도 7A)에근접하여 챔버 바닥을 따라 이루어진 움직임에 대한 정확도를 강조했다. 이러한 세그먼트의 추적은 평균 >90% 정확도를 보여줍니다. 교육 세트에는 이러한 동작의 프레임이 포함되어 있지 않았기 때문에 양육 및 그루밍 에피소드의 추적은 부정확합니다. 비디오의 크기를 줄이기 위해 압축되었으며 카메라로 얻은 비디오 품질을 나타낼 수 없습니다. 이 비디오를 다운로드하려면 여기를 클릭하십시오.

비디오 2: 정확하게 추적된 동물의 예입니다. 비디오는 5CSRTT 동안 올바른 응답을 수행하는 쥐의 잘 추적 된 단일 시험을 보여줍니다. 집빛(빨간 마커), 꼬리 베이스(녹색 마커) 및 헤드(blue marker)의 추적은 비디오에 표시된다. 도 10A에 설명된 신경망 #2 추적에 사용되었다. 마커가 동물의 움직임을 정확하게 따르는 방법에 유의하십시오. 또한 이 비디오 클립에서 헤드 트래킹을 위한 플롯된 경로 및 이동 속도에 대해 도 10C,E를 참조하십시오. 이 비디오를 다운로드하려면 여기를 클릭하십시오.

비디오 3: 제대로 추적되지 않은 동물의 예. 비디오는 5CSRTT 동안 올바른 응답을 수행하는 쥐의 잘못 추적 된 단일 시험을 보여줍니다. 집빛(빨간 마커), 꼬리 베이스(녹색 마커) 및 헤드(blue marker)의 추적은 비디오에 표시된다. 도 10A에 설명된 신경망 #1 추적에 사용되었다. 비디오 클립은 비디오 2에사용된 클립과 동일합니다. 헤드의 마커는 쥐의 머리 위에 안정적으로 배치되지 않습니다. 또한 이 비디오 클립에서 헤드 트래킹을 위한 플롯된 경로 및 이동 속도에 대해 도 10D,E를 참조하십시오. 이 비디오를 다운로드하려면 여기를 클릭하십시오.

비디오 4: 응답이 있는 5CSRTT 시험 중에 이루어진 움직임의 예입니다. 비디오는 5-CSRTT 동안 올바른 응답을 수행하는 쥐의 잘 추적 된 단일 시험을 보여줍니다. 집빛(빨간 마커), 꼬리 베이스(녹색 마커) 및 헤드(blue marker)의 추적은 비디오에 표시된다. 처음에 쥐가 펠릿 리셉터클(왼쪽 벽, 그림 7A)에근접한 위치에 있는 다음 넘어져 코 찌르기 개구부행에 주의를 집중시키는 방법을 유의하십시오. 이 비디오를 다운로드하려면 여기를 클릭하십시오.

비디오 5: 5CSRTT 동안의 일반적인 누락 시험의 예입니다. 비디오는 5CSRTT 동안 일반적인 누락을 수행하는 쥐의 잘 추적 된 단일 시험을 보여줍니다. 집빛(빨간 마커), 꼬리 베이스(녹색 마커) 및 헤드(blue marker)의 추적은 비디오에 표시된다. 쥐가 골칸트 리셉터클(왼쪽 벽, 도 7A)및 챔버 센터 주변의 위치를 유지하면서 코 찌르기 개구부를 마주하기 위해 돌리지 않고(오른쪽 벽, 도 7A)에대해 유의하십시오. 누락의 표시 된 동작과 원인은 테스트 수행에 대한 낮은 관심을 반영하기 위해 주장 할 수있다. 이 비디오를 다운로드하려면 여기를 클릭하십시오.

비디오 6: 5CSRTT 동안 비정형 누락 시험의 예입니다. 비디오는 5CSRTT 동안 비정형 누락을 수행하는 쥐의 잘 추적 된 단일 시험을 보여줍니다. 집빛(빨간 마커), 꼬리 베이스(녹색 마커) 및 헤드(blue marker)의 추적은 비디오에 표시된다. 쥐가 챔버의 오른쪽 벽을 따라 코 찌르기 개구부를 향해 자신을 배치하는 방법을 유의하십시오(그림 7A). 이것은 동물이 시험을 수행하는 데 관심이 있음을 나타내는 주장 할 수있다. 그러나, 쥐는 큐가 제시될 때 큐개구부(중앙 위치)에서 멀리 향한다(클립에 5s). 비디오 4에표시되는 누락과는 달리 여기에서 볼 수 있는 누락은 최적 저분 공간 주의 프로세스와 관련이 있습니다. 이 비디오를 다운로드하려면 여기를 클릭하십시오.

비디오 7: 5CSRTT의 ITI 동안 집중된 중앙 위치를 유지하는 동물의 예입니다. 비디오는 5CSRTT의 시험에서 올바른 응답을 수행하는 쥐의 잘 추적 된 단일 시험을 보여줍니다. 쥐가 ITI 동안 중앙 위치를 유지하는 방법에 유의하여 챔버 우측벽(그림 7A)을따라 중앙 코 찌르기개에 근접하여 머리를 안정적으로 유지합니다. 집빛(빨간 마커), 꼬리 베이스(녹색 마커) 및 헤드(blue marker)의 추적은 비디오에 표시된다. 이 비디오를 다운로드하려면 여기를 클릭하십시오.

비디오 8: 5CSRTT의 ITI 동안 검색과 같은 주의 전략을 표시하는 동물의 예입니다. 비디오는 5CSRTT의 시험에서 올바른 응답을 수행하는 쥐의 잘 추적 된 단일 시험을 보여줍니다. 쥐가 챔버의 오른쪽 벽을 따라 다른 코 찌르기 구멍을 직면하기 위해 머리를 자주 재배치하는 방법에 유의하십시오(그림 7A). 집빛(빨간 마커), 꼬리 베이스(녹색 마커) 및 헤드(blue marker)의 추적은 비디오에 표시된다. 이 비디오를 다운로드하려면 여기를 클릭하십시오.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

이 프로토콜은 조작 컨디셔닝 챔버 및 기타 행동 테스트 설정에서 비디오를 녹화하는 데 사용할 수 있는 저렴하고 유연한 비디오 카메라를 구축하는 방법을 설명합니다. 또한 DeepLabCut을 사용하여 이러한 비디오 내에서 강력한 라이트 신호를 추적하는 방법과 전체 테스트 세션을 포함하는 비디오 파일에 대한 관심있는 간단한 비디오 세그먼트를 식별하는 데 사용할 수있는 방법을 보여줍니다. 마지막으로, 쥐의 머리 추적을 사용하여 작동 컨디셔닝 테스트 중 동작 분석을 보완하는 방법을 설명합니다.

이 프로토콜은 작동 컨디셔닝 챔버를 위해 시판되는 비디오 레코딩 솔루션에 대한 대안을 제시합니다. 언급했듯이, 이러한 주요 장점은 특정 이벤트의 비디오 녹화를 가능하게, 작동 챔버와 통합한다는 것입니다. 이 프로토콜에 설명된 관심 있는 비디오 세그먼트를 식별하는 접근 방식은 완전히 통합된 시스템을 사용하여 특정 이벤트를 기록하는 것에 비해 더 힘들고 시간이 많이 걸립니다. 그러나 6개의 작동 챔버에 대한 비디오 모니터링 장비에 대한 최근 비용 추정치는 약 13,000달러로 설정되었습니다. 이에 비해, 여기에 나열된 카메라 6대는 약 720달러의 비용이 든다. 또한, 카메라는 여러 가지 다른 행동 테스트 설정에 사용할 수 있습니다. 카메라로 작업할 때 는 노출된 전자 장치 영역(카메라 구성 요소의 뒷면과 IR LED 구성 요소)을 염두에 두어 유체와 접촉하지 않는 것이 중요합니다. 또한 카메라 모듈을 마이크로컴퓨터와 케이블에 부착하는 리본 케이블은 카메라가 자주 이동하는 경우 GPIO 핀에 LED및 스위치를 연결하는 케이블이 느슨해질 수 있다. 따라서, 카메라 케이스의 디자인을 조정하는 것은 일부 응용 프로그램에 도움이 될 수 있습니다.

DeepLabCut을 사용하여 관심 있는 비디오 세그먼트를 식별하고 동물의 움직임을 추적하는 것은 수동 비디오 분석에 대한 보완 및/또는 대안을 제공합니다. 전자는 후자를 무효화하지 않지만, 우리는 그것이 작동 챔버 내부의 움직임과 행동을 분석하는 편리한 방법을 제공한다는 것을 발견했다. 특히, 수동 채점을 통해 일반적으로 추출되는 것보다 더 자세한 정보를 포함하는 동물의 위치 데이터를 제공합니다(즉, "앞", "옆"등과 같은 질적 위치 정보에 비해 실제 좌표).

프로토콜 단계 표시기를 선택할 때 동작 프로토콜의 지정된 단계를 일관되게 나타내는 지표를 선택하는 것이 중요하며 동물에 의해 차단될 가능성은 거의 없습니다. 후자가 문제가있는 경우, 하나는 작동 챔버 외부에 램프를 배치하고 챔버 벽을 통해 필름을 고려할 수 있습니다. 많은 작동 식 컨디셔닝 챔버는 모듈식이며 사용자가 자유롭게 조명, 센서 및 기타 구성 요소를 이동할 수 있습니다. 사용자가,비디오24,25,,26에서사용자 정의 개체를 인식하고 추적할 때 신경망을 학습할 수 있는 다른 소프트웨어 패키지가 있다는 점에 유의해야 합니다. 이러한 프로토콜은 현재 프로토콜에서 DeepLabCut의 대안으로 사용될 수 있습니다.

프로토콜은 작동 챔버 내부의 움직임을 측정하기 위해 쥐의 머리의 중앙 부분을 추적하는 방법을 설명합니다. DeepLabCut은 신체 부위 또는 관심 있는 대상을 선택할 때 완전한 자유를 제공하므로, 이는 연구 별 관심사에 맞게 편리하게 수정할 수 있습니다. 여기에 설명된 추적의 자연적인 확장은 또한 쥐의 귀와 코의 위치를 추적하여 머리 위치뿐만 아니라 방향을 더 잘 판단하는 것입니다. 여기에 표시된 대표적인 데이터는 롱 에반스 쥐로 다시 코딩되었습니다. 이 쥐는 그들의 색소 침착 패턴에 있는 상당한 개별 간 변이를 표시합니다, 특히 그들의 꼬리 기지를 향해. 이로 인해 다른 개인의 추적을 위해 훈련된 단일 신경망을 적용하는 데 어려움이 있을 수 있습니다. 이러한 문제를 제한하려면 네트워크의 교육 세트에 관심있는 모든 동물의 비디오 프레임을 포함하는 것이 가장 좋습니다. 롱 에반스 쥐의 검은 머리는 여기에 사용되는 챔버의 금속 표면에 대한 합리적으로 강한 대비를 제공합니다. 따라서, 그들의 머리의 정확한 추적을 얻는 것은 가능성이 알비노 균주보다 적은 노력이 필요합니다. DeepLabCut 또는 유사한 소프트웨어 패키지로 정확한 추적을 얻는 가장 중요한 단계는 신경망 교육을 위해 다양한 비디오 프레임을 선택하는 것입니다. 따라서 관심 있는 대상의 추적이 최적이 아닌 것으로 간주되는 경우, 트레이닝 프레임 세트를 늘리는 것은 항상 결과를 개선하기 위한 첫 번째 단계가 되어야 합니다.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

라즈베리 파이 재단의 재료와 자원이 이 원고에 사용되고 인용되었지만, 재단은 이 원고에서 장비와 데이터의 준비 또는 사용에 적극적으로 관여하지 않았습니다. Pi-Supply도 마찬가지입니다. 저자는 공개 할 것이 없습니다.

Acknowledgments

이 작품은 스웨덴 뇌 재단, 스웨덴 파킨슨 재단, 임상 연구를위한 스웨덴 정부 기금 (M.A.C.) 뿐만 아니라 베너 - 그렌 재단 (M.A.C., E.K.H.C), 올렌 재단 (M.A.C) 및 기초 블랑케플로르 본콤파니 루도비시, 빌스 스 (Néet S.)의 보조금에 의해 지원되었다.

Materials

Name Company Catalog Number Comments
32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

DOWNLOAD MATERIALS LIST

References

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user's manual. Coulbourn instruments. , Holliston, Massachusetts. 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer's manual. Med Associates Inc. , St. Albans, Vermont. 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat's behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user's manual. Med Associates Inc. , St. Albans, Vermont. 26-30 (2004).
  14. Coulbourn Instruments. Coulbourn Instruments. , Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020).
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. Raspberry Pi foundation. Raspberry Pi foundation. , Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020).
  19. Pi-supply. Pi-supply. , Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018).
  20. Python. Python. , Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020).
  21. MathWorks. MathWorks. , Available from: https://mathworks.com/academia/highschool/ (2020).
  22. Cran.R-Project.org. Cran.R-Project.org. , Available from: https://cran.r-project.org/manuals.html (2020).
  23. Liu, Y., Tian, C., Huang, Y. Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Tags

행동 문제 160 오페라 컨디셔닝 인식 비디오 녹화 설치류 행동 라즈베리 파이 DeepLabCut
다재다능한 수제 비디오 카메라와 DeepLabCut을 사용하여 오페라 컨디셔닝 챔버에서 쥐 추적
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Clemensson, E. K. H., Abbaszadeh,More

Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter