Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove

Behavior

발과 숫자 궤적의 3 차원 재구성에 도달 자동화 된 쥐 단일 펠릿

doi: 10.3791/59979 Published: July 10, 2019

Summary

설치류 숙련된 도달은 일반적으로 손재주 기술을 연구하는 데 사용되지만 작업을 구현하고 행동을 분석하는 데 상당한 시간과 노력이 필요합니다. 우리는 모션 추적 및 도달 궤적의 3 차원 재구성과 도달 숙련 된 숙련 된 버전의 자동화 된 버전을 설명합니다.

Abstract

설치류 숙련된 도달은 일반적으로 손재주 기술을 연구하는 데 사용되지만 작업을 구현하고 행동을 분석하는 데 상당한 시간과 노력이 필요합니다. 숙련 된 도달의 여러 자동화 된 버전이 최근에 개발되었습니다. 여기서는 높은 프레임 속도(300fps)로 여러 각도에서 고화질 비디오를 녹화하는 동안 쥐에게 펠릿을 자동으로 제공하는 버전을 설명합니다. 발과 개별 숫자는 마커없는 포즈 추정을위한 기계 학습 알고리즘 인 DeepLabCut으로 추적됩니다. 이 시스템은 또한 생리학적 기록과 동기화되거나 생리학적 개입(예를 들어, 전기적 또는 광학적 자극)을 유발하는 데 사용될 수 있다.

Introduction

or Start trial to access full content. Learn more about your institution’s access to JoVE content here

인간은 정밀하게 조정된 다중 조인트 및 숫자 움직임을 필요로 하는 움직임으로 정의된 손재주 기술에 크게 의존합니다. 이러한 기술은 구조적 병변 (예를 들어, 뇌졸중, 종양, 탈수초 병변), 신경 퇴행성 질환 (예를 들어, 파킨슨 병) 및 운동 기능 이상을 포함한 일반적인 중추 신경계 병리의 범위에 의해 영향을받습니다. 회로(예: 근긴장 이상). 따라서 중앙 모터 회로에서 손재주 기술을 배우고 구현하는 방법을 이해하면 많은 인구의 삶의 질을 향상시킬 수 있습니다. 또한, 이러한 이해는 훈련 및 재활 전략을 최적화하여 건강한 사람들의 운동 성능을 향상시킬 가능성이 높습니다.

인간에 있는 손재주 기술의 근본적인 신경 회로를 해부하는 것은 동물 모형의 사용을 필요로 하는 기술적이고 윤리적인 고려에 의해 제한됩니다. 비인간 영장류는 일반적으로 인간에 그들의 모터 시스템 및 행동 레퍼토리의 유사성을 감안할 때손재주 사지 운동을 연구하기 위하여 이용됩니다 1. 그러나, 비 인간 영장류는 연구 과목및 유전 적 개입의 수를 제한, 긴 생성 시간과 비싸다. 더욱이, 비인간 영장류에 적용 가능한 신경 과학 적인 도구 상자는 인간에 대 한 보다 큰, 많은 최근 기술 발전은 사용할 수 없거나 영장류에서 크게 제한.

설치류 숙련 된 도달은 손재주 모터 제어를 연구하는 보완적 인 접근 방식입니다. 쥐와 마우스는 인간에 도달하는 패턴에 상동운동의 고정 된 순서로 설탕 펠릿에 도달,파악 및 검색하도록 훈련 될 수있다 2. 상대적으로 짧은 생성 시간과 낮은 주거 비용뿐만 아니라 며칠에서 몇 주에 이르는 숙련 된 기술을 습득 할 수있는 능력으로 인해 학습 및 기술 통합 단계 모두에서 많은 수의 과목을 공부 할 수 있습니다. 설치류, 특히 마우스의 사용은 또한 손재주 기술을 연구하기 위해 강력한 현대 신경 과학 도구 (예 : 광유전학, 칼슘 이미징, 질병의 유전 모델)의 사용을 용이하게합니다.

설치류 숙련 된 도달은 정상적인 모터 제어를 연구하고 뇌졸중과 파킨슨 병과 같은 특정 병리의영향을받는 방법을 연구하기 위해 수십 년 동안 사용되어 왔다 3. 그러나, 이 작업의 대부분의 버전은 노동과 시간 집약적, 설치류를 공부의 혜택을 완화. 일반적인 구현은 설치류가 도달해야하는 좁은 슬롯 앞에 선반이있는 도달 챔버에 설치류를 배치하는 것을 포함합니다. 연구원은 수동으로 선반에 설탕 펠릿을 배치하고 동물이 도달 할 때까지 기다린 다음 다른 펠액을 놓습니다. 도달 은 실시간 또는 비디오 검토 4에 의해성공 또는 실패로 점수가 매겨지며 점수가 매겨지며. 그러나 성공 또는 실패로 점수 매기기는 단순히 도달하는 방법에 대한 통찰력을 제공할 수 있는 풍부한 운동학 데이터를 무시합니다. 이 문제는 비디오 도달에 대한 자세한 검토를 구현하여 반정적으로 점수도달 하위 이동 5를 식별하고 반정적으로 평가하여 해결되었습니다. 이로 인하여 도달 운동학에 관한 일부 데이터가 추가되었지만 실험자의 시간과 노력도 크게 증가했습니다. 또한, 실험자의 참여수준이 높면 동일한 실험실 내에서도 방법론및 데이터 분석의 불일치가 발생할 수 있습니다.

최근에는 숙련된 도달의 여러 자동화된 버전이 개발되었습니다. 일부는 홈 케이지6,7에부착하여 동물을 옮길 필요가 없습니다. 이것은 모두 동물에 대한 스트레스를 감소시키고 전문 도달 챔버에 적응 할 필요가 없습니다. 다른 버전은 특정 개입에 따라 운동 변화를 연구 할수 있도록 발 추적을 허용 8,9,10,또는 자동으로 펠릿이 선반(11)을노크 했는지 여부를 결정하는 메커니즘을 가지고 . 자동화 된 숙련 된 도달 작업은 부상 후 재활에 필요할 수 있습니다 로 고강도 훈련에 특히 유용합니다12. 자동화 된 시스템은 동물이 집중적 인 연구자의 개입없이 오랜 기간 동안 도달의 큰 숫자를 수행 할 수 있습니다. 또한 발 추적 및 자동 결과 점수를 허용하는 시스템은 연구원이 데이터 분석을 수행하는 데 소요되는 시간을 줄입니다.

우리는 몇 가지 특수 기능을 갖춘 자동화 된 쥐 숙련 된 도달 시스템을 개발했습니다. 첫째, 아래에서 "도달 위치"로 펠릿을 가지고 이동 식 받침대를 사용하여, 우리는 앞다리의 거의 방해받지 보기를 얻을. 둘째, 미러 시스템은 단일 카메라로 도달 범위를 여러 번 동시에 볼 수 있게 해주며, 고해상도 고속(300fps) 카메라를 사용하여 도달 궤적을 3차원(3차원)으로 재구성할 수 있습니다. 마커없는 모션 추적 13을위한 강력한 기계학습 알고리즘의 최근 개발로, 우리는 지금 뿐만 아니라 발하지만 개별 너클을 추적 상세한 범위를 추출하고 운동학을 파악. 셋째, 간단한 비디오 처리를 수행하는 프레임 그래버를 사용하면 고유한 도달 단계를 실시간으로 식별할 수 있습니다. 이 정보는 비디오 수집을 트리거하는 데 사용되며(연속 비디오 수집은 파일 크기로 인해 실용적이지 않음) 정확한 순간에 개입(예: 광유전학)을 트리거하는 데 사용할 수도 있습니다. 마지막으로, 개별 비디오 프레임은 트랜지스터 트랜지스터 논리(TTL) 펄스에 의해 트리거되어 비디오가 신경 녹음(예: 전기 생리학 또는 광측정기)과 정확하게 동기화될 수 있습니다. 여기서는 이 시스템을 구축하고, 쥐를 훈련하여 작업을 수행하고, 장치를 외부 시스템과 동기화하고, 3D 도달 궤적을 재구성하는 방법을 설명합니다.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

or Start trial to access full content. Learn more about your institution’s access to JoVE content here

여기에 설명된 동물 사용과 관련된 모든 방법은 미시간 대학의 기관 동물 관리 및 사용 위원회(IACUC)에 의해 승인되었습니다.

1. 도달 챔버 설정

참고: 장치의 세부 사항 및 다이어그램은 Ellens 외14를 참조하십시오. 부품 번호는 그림1을 참조합니다.

  1. 아크릴 시멘트와 결합 명확한 폴리 카보네이트 패널은 도달 챔버 (40cm 높이 에 의해 40cm 길이 로 폭 15cm)를 구축 (부분 #1). 한쪽 패널(부품 #2)에는 잠금 장치가 있는 힌지 도어(폭 18cm, 높이 15cm)가 있습니다. 쥐가 케이블에 묶이면 슬릿 (폭 5cm x 36cm 길이)을 챔버 천장에 잘라 (부분 #12). 바닥 패널은 18 구멍 (직경 1.75cm)(부분 #13)로 절단하고 챔버의 나머지 부분에 접착되지 않습니다.
  2. 적외선 센서(부품 #3)를 챔버 뒷면에서 4.5cm, 바닥에서 3.8cm 떨어진 측면 패널에 장착하고 정렬합니다. 동작 소프트웨어에는 적외선 빔이 끊어지지 않을 때 녹색인 표시기('IR Back')가 있고 빔이 파손될 때 빨간색입니다. 소프트웨어가 설정되면 센서 정렬을 확인하는 데 사용할 수 있습니다.
  3. 도달 슬롯 (부품 #14) 10cm 위에 거울 (15cm x 5cm, 부품 #4)을 장착합니다. 펠릿 전달 막대가 카메라에 보이도록 거울을 각도로 합니다.
  4. 챔버를 살균 지원 상자 (폭 59cm, 세로 67.3 cm, 높이 30.5 cm, 부품 #5)에 놓습니다. 챔버는 지지 상자의 구멍 (폭 12cm x 25cm 길이)에 놓여있어 쓰레기가 바닥 구멍 (부품 #13)을 통해 떨어지고 도달 챔버밖으로 떨어질 수 있습니다. 두 번째 구멍 (7cm 너비 6cm 길이, 부품 #15)을 도달 슬롯 앞의 지지 상자에 잘라 펠릿 전달 막대가 도달 슬롯에 펠릿을 가져올 수 있습니다.
  5. 두 개의 거울 (8.5 cm 너비 x 18.5 cm 높이, 부분 #6)을 챔버 양쪽에 자석이있는 바닥에 장착하여 거울의 긴 가장자리가 도달 상자 앞에서 3cm 떨어진 측면 패널에 닿도록합니다. 카메라가 상자에 넣을 수 있도록 거울을 각도로 하고 펠릿이 전달될 도달 슬롯 앞영역을 볼 수 있도록 합니다.
  6. 도달 슬롯에서 17cm 떨어진 고화질 카메라(부품 #7)를 박스를 향하여 장착합니다.
  7. 사이드 미러의 배경이 어두워지므로 카메라 양쪽에 검은 종이 (부분 #18)를 장착합니다. 이를 통해 대비를 개선하여 실시간 및 오프라인 발 감지를 개선할 수 있습니다.
  8. 나사로 소독 가능한 프레임(가로 25cm, 세로 55cm, 높이 24cm, 부품 #8)에 선형 액추에이터(부품 #16)를 장착합니다. 액추에이터는 거꾸로 장착되어 펠릿 먼지가 위치 감지 전위차계 내부에 축적되는 것을 방지합니다.
  9. 폼 O-링을 펠릿 저장소(깔때기)(부분 #9)의 목에 삽입하여 조립에 먼지가 쌓이는 것을 방지합니다. 깔때기의 가장자리를 프레임 상단의 밑면으로 뚫고 세 개의 나사 위에 미끄러져 프레임 상단에 있는 구멍(~6cm 직경, 부분 #17) 아래에 깔때기를 장착합니다. 가이드 튜브(부품 #10)를 깔때기의 목에 삽입합니다.
  10. 플라스틱 T 커넥터를 액추에이터의 강철 막대 끝에 부착합니다. 펠릿 전달 로드의 테이퍼 된 끝을 커넥터의 상단에 넣고 가이드 튜브를 통해 컵 끝을 펠릿 저장소에 삽입합니다.
  11. 펠릿 전달 로드가 도달 슬롯 앞의 구멍(부품 #15)을 통해 연장될 수 있도록 숙련된 도달 챔버 아래에 선형 액추에이터 어셈블리를 배치합니다.
  12. 컴퓨터 팬이 통풍이 잘 되는 휠 캐비닛(121cm x 119cm x 50cm)에 전체 도달 장치를 놓고(조명이 잘 켜지면 내부가 따뜻해짐) 음향 폼이 늘어서 있습니다.
  13. 20.3cm x 25.4cm 지지 패널에 LED 라이트 스트립을 고수하여 5개의 라이트 패널(부품 #11)을 제작합니다. 라이트 스트립 위에 디퓨저 필름을 장착합니다. 펠릿 전달 로드 영역 위에 천장에 하나의 라이트 패널을 장착합니다. 도달 챔버를 따라 캐비닛의 측면에 다른 네 마운트.
    참고: 실시간 발 식별을 위해 도달 슬롯 및 펠릿 전달 로드 주변 영역을 밝히는 것이 중요합니다.

2. 컴퓨터 및 하드웨어 설정

  1. 제조업체의 지침에 따라 FPGA 프레임 그래버 및 디지털 확장 카드를 설치합니다(재료 참조).
    참고: 고속 비디오를 스트리밍하려면 상당한 버퍼링 용량이 필요하므로 최소 16GB의 RAM과 데이터 저장을 위한 내부 솔리드 스테이트 하드 드라이브를 사용하는 것이 좋습니다.
  2. 고화질 카메라용 드라이버를 설치하고 FPGA 프레임그래버에 연결합니다. 동작 소프트웨어가 카메라와 연결된 소프트웨어를 사용하려면 카메라와 인터페이싱을 실행하여 인터페이싱해야 합니다.
    참고: 포함된 코드(추가 파일 참조)는 카메라의 프로그래밍 가능한 레지스터에 액세스하며 다른 브랜드와 호환되지 않을 수 있습니다. 초당 300프레임(fps) 이상 레코딩하는 것이 좋습니다. 150fps에서 우리는 발 자세의 주요 변화가 종종 놓친 것을 발견했습니다.
  3. "SR Automation_dig_ext_card_64bit"에 포함된 코드(프로젝트)를 컴퓨터에 복사합니다.

3. 행동 훈련

  1. 훈련 전에 쥐를 준비한다.
    1. 집 긴 에반스 쥐 (남성 또는 여성, 나이 10-20 주) 그룹 2-3 역빛/어두운 주기에 케이지 당. 3 일 훈련 전에, 체중을 유지 하기 위해 음식 제한에 쥐를 배치 10-20% 기준선 아래.
    2. 적어도 5 일 동안 하루에 몇 분 동안 쥐를 처리합니다. 취급 후, 각 홈 케이지에 쥐 당 4-5 설탕 펠릿을 놓고 새로운 음식을 소개합니다.
  2. 도달 챔버에 쥐를 습관화 (1-3 일)
    1. LED 조명을 켜고 챔버의 앞면과 뒷면에 3 개의 설탕 펠릿을 놓습니다.
    2. 쥐를 챔버에 놓고 쥐가 15 분 동안 탐구 할 수 있도록하십시오. 쥐가 바닥에서 모든 펠릿을 먹을 때까지이 단계를 반복합니다.
    3. 쥐 사이에 에탄올로 챔버를 청소합니다.
      참고: 암흑 단계에서 교육 및 테스트를 수행합니다. 매일 동시에 쥐를 훈련.
  3. 쥐를 훈련하여 발 선호도(1-3일)에 도달하고 관찰합니다.
    1. 조명을 켜고 숙련 된 도달 챔버에 쥐를 배치합니다.
    2. 집게를 사용하여 상자 앞쪽의 도달 슬롯을 통해 펠릿을 잡습니다(그림1,그림 2). 쥐가 집게에서 3 개의 펠릿을 먹도록 하십시오.
    3. 다음에 쥐가 집게에서 펠릿을 먹으려고 할 때, 펠릿을 다시 당깁니다. 결국, 쥐는 발로 펠릿에 도달하려고합니다.
    4. 이 것을 11번 반복합니다. 쥐가 11번의 시도 중 가장 많이 사용하는 발은 쥐의 "발 선호도"입니다.
      참고: 시도는 도달 슬롯을 지나 뻗어 나가는 발로 정의됩니다. 쥐는 성공적으로 얻고 펠릿을 먹을 필요가 없습니다.
  4. 쥐를 훈련하여 펠릿 배달 막대에 도달하도록 훈련 (1-3 일)
    1. 펠릿 전달 막대를 쥐의 바람직한 발에 도달 슬롯 반대측의 측면에 정렬합니다 (도달 챔버의 전면에서 1.5 cm 일관된 배치를 보장하기 위해 가이드를 사용하십시오). 전달 봉의 상단은 도달 슬롯의 맨 아래에정렬되어야 합니다(그림 2B). 배달 봉에 펠릿을 놓습니다.
      참고: 쥐가 선호하는 발 맞은편에 전달 막대를 배치하면 쥐가 바람직하지 않은 발로 펠릿을 얻기가 어려워집니다. 우리는 그들의 선호 하지 않는 발을 사용 하 여 쥐에 문제가 되지 않았습니다. 그러나, 특정 모델(예를 들어, 스트로크)에서는 이것이 여전히 발생할 수 있으며 바람직하지 않은 도달 사지에 대한 구속을 추가할 수 있다.
    2. 집게를 사용하여 개최 펠릿으로 쥐를 미끼, 하지만 그 발이 막대에 펠릿 안타 있도록 배달 막대쪽으로 쥐를 지시. 쥐가 막대에서 펠릿을 떨어 뜨리면 교체하십시오. 몇몇 쥐는 처음에 충분히 멀리 도달하지 않을 수 있습니다. 이 경우 펠릿 전달 막대를 도달 슬롯에 더 가깝게 이동한 다음 쥐가 개선됨에 따라 천천히 더 멀리 이동합니다.
    3. 약 5-15 미끼가 도달한 후 쥐는 자발적으로 전달 봉상에 펠릿에 도달하기 시작합니다. 일단 쥐가 미끼없이 배달 막대에 도달 10을 시도한 후에, 그것은 다음 단계로 진행할 수 있습니다.
  5. 쥐를 훈련하여 펠릿을 요청하십시오 (2-8 일).
    참고 : 우리는 펠릿에 도달하기 위해 100 % 성공 훈련 쥐를 가지고 있지만, 쥐의 약 10 %는 챔버의 뒤쪽으로 이동하여 펠릿을 요청하는 법을 배워야 실패.
    1. 쥐의 발 선호도에 따라 펠릿 전달 막대를 배치하고 위치 2 (그림2A)로설정합니다. 액추에이터 리모컨을 사용하여 펠릿 전달 로드의 높이 위치를 설정합니다. 버튼 1과 2를 동시에 누르면 배달 로드가 위로 이동하고 버튼 3과 2를 누르면 배달 로드가 아래로 이동합니다. 배달 로드가 올바른 높이에 있으면 표시등이 빨간색으로 깜박일 때까지 원하는 숫자를 누릅니다.
    2. 챔버에 쥐를 배치하고 펠릿과 뒷면에 쥐를 미끼. 쥐가 자동 버전이 실행중일 때 적외선 빔을 깨뜨릴 수 있도록 챔버 뒤쪽으로 충분히 멀리 이동하면 펠릿 전달 막대를 위치 3(그림2B)으로이동합니다.
    3. 쥐가 펠릿에 도달할 때까지 기다린 다음 펠릿 전달 막대를 다시 위치 2(그림2A)로이동합니다. 새 펠릿을 배달 봉에 놓습니다.
    4. 이 단계를 반복, 점차적으로 쥐를 미끼, 쥐가 시작 될 때까지: (i) 미끼 없이 펠 릿을 요청 하는 뒤로 이동, 그리고 (ii) 즉시 뒤쪽에 펠 릿을 요청 한 후 전면으로 이동. 쥐가 이 것을 10번 완료하면 자동화된 작업에 대한 교육을 할 준비가 됩니다.

4. 자동화 된 시스템을 사용하여 쥐를 훈련

  1. 자동화 된 시스템을 설정합니다.
    1. 챔버의 조명을 켜고 필요한 경우 펠릿 저장소를 다시 채웁니다.
    2. 쥐의 발 선호도에 따라 펠릿 전달 막대를 배치합니다. 그림 2A와같이 액추에이터 위치가 올바르게 설정되어 있는지 확인합니다.
    3. 컴퓨터를 켜고 숙련된 도달 프로그램(SR_dig_extension_card_64bit_(HOST)_3.vi)를 엽니다. 제목 아래에 쥐 ID 번호를 입력하고 드롭다운 메뉴에서 발 기본 설정을 선택합니다. 비디오에 대한 경로 저장을 지정합니다.
    4. 세션 시간최대 동영상(세션을 종료할 동영상 수)을 설정합니다. 프로그램이 먼저 도달한 제한에 도달하면 실행이 중지됩니다.
    5. 펠릿 리프트 지속 시간 설정(쥐가 펠릿을 요청한 후 전달 막대가 "3" 위치에 남아 있는 기간). 조기 도달 페널티를 활성화 또는 비활성화합니다(전달 막대가 "1"을 배치하도록 재설정한 다음 쥐가 펠릿을 요청하기 전에 도달하면 "2"로 다시 설정).
  2. 보정 이미지를 가져 가라. 3D 궤적 재구성은 컴퓨터 비전 도구 상자를 사용하여 각 뷰에서 일치하는 점을 식별해야 하는 적절한 변환 행렬을 결정합니다. 이렇게 하려면 각 면에 바둑판 패턴이 있는작은 큐브를 사용합니다(그림 3).
    1. 도움의 손길을 도달 챔버 안에 놓고 도달 슬롯을 통해 악어 클립을 찌른다. 악어 클립으로 도달 슬롯 앞에 큐브를 잡습니다.
    2. 빨간색 면이 위쪽 미러에 나타나고 왼쪽 미러의 녹색 면이 나타나고 오른쪽 미러의 파란색 면이 나타나지 않도록 큐브를 배치합니다. 세 면의 전체 면은 거울에 표시되어야 합니다(그림 3).
    3. 동작 프로그램에서 ROI 임계값이 매우 큰 값(예: 60000)으로 설정되어 있는지 확인합니다. 실행 버튼(흰색 화살표)을 클릭합니다. 카메라 초기화 버튼이 녹색으로 바뀌면 START를 누릅니다. 비디오가 구입되고 있습니다.
    4. Cal 모드를클릭합니다. 그런 다음 Cal 이미지 를 클릭하여이미지를 가져 가십시오. 이제 이미지 디렉토리 경로는 ".png 경로" 아래에 "GridCalibration_YYYYMMDD_img#.png"로 서식이 지정된 .png 파일 이름 아래에 표시됩니다.
    5. 큐브를 약간 이동하고 다른 이미지를 찍습니다. 총 3개의 이미지에 대해 다시 반복합니다.
    6. STOP을 클릭한 다음 중지 기호 버튼을 클릭하여 프로그램을 중지합니다. 도움의 손길과 큐브를 상자에서 꺼내줍니다.
    7. 교정 이미지가 그날 촬영 된 후 행동 챔버에 아무것도 충돌하지 않도록주의하십시오. 움직이는 경우 새 보정 이미지를 촬영해야 합니다.
  3. 자동화된 시스템을 실행합니다.
    참고: 실제 데이터 수집을 위해 래츠를 실행하기 전에 각 미러에 대해 "ROI 임계값" 설정(아래에 설명)을 결정합니다. 이러한 설정이 결정되면 프로그램을 시작하기 전에 미리 설정하고 필요한 경우 수집 중에 조정합니다.
    1. 숙련 된 도달 챔버에 쥐를 놓습니다. 프로그램을 실행하려면 흰색 화살표를 클릭합니다.
    2. 시작을클릭하기 전에 x-오프셋(ROI 사각형의 왼쪽 상단 모서리의 x 좌표), y-오프셋(ROI왼쪽 상단 모서리의 y 좌표), ROI 너비ROI 높이.
    3. 도달 슬롯 바로 앞에 발의 도르섬을 표시하는 사이드 미러에 ROI를 배치합니다(그림2C). 펠릿 전달 막대가 ROI에 들어가지 않고 ROI가 상자로 확장되지 않도록 하여 쥐가 도달하지 않을 때 펠릿이나 쥐의 털이 비디오를 트리거하는 것을 방지하십시오.
    4. 시작을 클릭하여 프로그램을 시작합니다.
    5. "라이브 ROI 트리거 값"이 "0"과 "1" 사이에서 진동할 때까지 (쥐가 도달하지 않을 때) "낮은 ROI 임계값" 값을 조정합니다. 이 값은 임계값 범위의 강도 값을 가진 ROI 내의 픽셀 수입니다.
    6. ROI임계값을 설정합니다. 쥐가 ROI에 코를 찌를 때와 쥐가 펠릿에 도달할 때 라이브 ROI 트리거 값을 관찰합니다. ROI 임계값을 코 찌르기 동안 "라이브 ROI 트리거 값"보다 훨씬 크고 쥐가 도달할 때 "라이브 ROI 트리거 값"보다 낮게 설정합니다. 쥐가 도달했을 때 비디오가 일관되게 트리거될 때까지 조정하지만 슬롯을 통해 코를 찌를 때는 조정하지 않습니다.
      참고 : 이것은 발이 코보다 밝은 색이라고 가정합니다. 발이 코보다 어두우면 조정이 반전됩니다.
    7. 처음 몇 번의 시험을 모니터링하여 모든 것이 올바르게 작동하는지 확인합니다. 쥐가 펠릿을 요청하기 전에 도달하면 (위치 "2"의 배달 막대), "초기 도달"수가 증가합니다. 쥐가 펠릿(위치 "3"의 배달 막대)을 요청한 후 도달하면 "비디오" 번호가 증가하고 비디오가 "RXXXX_YYYYMMDD_HH_MM_SS_trial#"이라는 이름의 .bin 파일로 저장됩니다.
      참고: 기본값은 비디오에 트리거 이벤트 이전 300프레임(예: 1초)과 트리거 이벤트 후 1000프레임(소프트웨어에서 구성 가능)을 포함하는 것이 기본값이며, 발 후퇴를 포함한 전체 도달 도달 이동을 포함할 수 있을 만큼 충분히 깁니다.
    8. 세션 시간 또는 최대 동영상에 도달하면 프로그램이 중지됩니다. 정지 기호 버튼을 누릅니다.
    9. 에탄올로 챔버를 청소하고 다른 쥐와 반복, 또는 하루 동안 수행하면 비디오를 변환진행.
  4. .bin 파일을 .avi 파일로 변환합니다.
    참고: 수집 중에 비디오를 압축하면 프레임이 삭제되므로 이진 파일은 수집 중에 디스크로 스트리밍됩니다(데이터 전송 속도가 높기 때문에 솔리드 스테이트 드라이브 사용). 이러한 이진 파일은 오프라인으로 압축되어야 하거나 저장소 요구 사항이 엄청나게 큽해야 합니다.
    1. "bin2avi-color_1473R_noEncode.vi" 프로그램을 엽니다.
    2. "파일 경로 제어"에서 폴더 버튼을 클릭하여 변환할 세션(예: R0235_20180119a)을 선택합니다. 각 세션(최대 6개)에 대해 반복합니다.
    3. 흰색 화살표(실행)를 클릭한 다음 "START"를 클릭하여 시작합니다. "전체 진행률(%)"에서 비디오 압축을 모니터링할 수 있습니다. 바. 프로그램이 하룻밤 동안 실행되도록 합니다.
    4. 다음 날 동물 훈련을 시작하기 전에 동영상이 변환되었는지 확인하고 .bin 파일을 삭제하여 새 동영상을 획득할 수 있는 충분한 공간이 있는지 확인합니다.

5. 딥랩컷으로 동영상 분석

참고: 각 발 기본 설정(오른쪽 발 및 왼쪽 발)과 각 뷰(오른쪽 발이 있는 쥐에 대한 직접 보기 및 왼쪽 미러 뷰, 왼쪽 발이 있는 쥐에 대한 오른쪽 미러 뷰)에 대해 서로 다른 네트워크가 학습됩니다. 상단 미러 뷰는 3D 재구성에 사용되지 않으며, 코가 슬롯에 들어갈 때 감지하기 때문에 개입을 유발하는 데 유용할 수 있습니다(예: 광유전학). 그런 다음 각 네트워크를 사용하여 해당 발및 보기에 대해 자른 비디오 집합을 분석합니다.

  1. DeepLabCut 네트워크 교육(자세한 지침은 https://github.com/AlexEMG/DeepLabCut DeepLabCut 설명서에 제공됩니다).
    1. 마커없는 포즈 추정을위한 기계 학습 알고리즘 인 DeepLabCut에서 새 프로젝트를 만들고 구성합니다13.
    2. 프로그램을 사용하여 숙련된 도달 비디오로부터 프레임을 추출하고 이미지 에서 프로그램 인터페이스에 (직접 또는 미러 보기)를 포함하도록 뷰로 자르기 합니다. 쥐와 앞발이 모두 보이게 될 만큼 프레임을 충분히 크게 자작합니다.
      참고: 네트워크에는 일반적으로 100~150개의 학습 프레임이 필요합니다. 발이 조명 으로 인해 챔버 외부에 비해 내부에있을 때 더 많은 훈련 프레임이 필요합니다. 자르기는 처리 시간을 줄이지만, 잘라진 영역이 각 쥐에 대한 발의 전체 궤적을 감지할 수 있을 만큼 충분히 커야 합니다. 쥐의 몸 전체가 프레임(직접 보기)에 들어갈 수 있을 만큼 넓어야 하며, 가능한 한 챔버로 그리고 전달 봉(미러 뷰)의 앞쪽으로 다시 볼 수 있어야 합니다.
    3. 프로그램 GUI를 사용하여 본문 부분에 레이블을 지정합니다. 각 프레임에 16개 지점 라벨: 4개의 메타카르포팔란게알(MCP) 조인트, 4개의 근위 간간 관절, 4자리 팁, 도달발의 등도, 코, 비도달 발의 도르섬,및 펠릿(도 4).
    4. DeepLabCut(DLC 로 축약) 지침을 따라 교육 데이터 집합을 만들고 네트워크를 학습하고 학습된 네트워크를 평가합니다.
  2. 비디오를 분석하고 네트워크를 구체화합니다.
    1. 새로 학습된 네트워크로 모든 비디오를 분석하기 전에 10개의 비디오를 분석하여 네트워크 성능을 평가합니다. 특정 포즈에 일관된 오류가 있는 경우 해당 포즈가 포함된 추가 학습 프레임을 추출하고 네트워크를 다시 학습합니다.
    2. 비디오를 분석할 때는 3D 궤적 재구성을 위해 코드에 공급되는 .csv 파일을 출력해야 합니다.

6. 박스 교정

참고: 이 명령은 직접 뷰및 미러 뷰에서 식별된 점을 3D 좌표로 변환하는 변환 행렬을 결정하는 데 사용됩니다. 최신 버전및 boxCalibration 패키지를 사용하는 방법에 대한 자세한 내용은 Leventhal Lab GitHub: https://github.com/LeventhalLab/boxCalibration 참조하세요.

  1. 동일한 폴더에 있는 모든 보정 이미지를 수집합니다.
  2. ImageJ/Fiji를 사용하여 각 보정 이미지의 바둑판 점을 수동으로 표시합니다. 이 이미지를 "GridCalibration_YYYYMMDDD_#tif"로 저장하면 'YYYMMDD'는 보정 이미지가 해당 날짜이고 '#'은 해당 날짜의 이미지 번호입니다.
    1. ImageJ에서 측정 함수를 사용하십시오(도구 모음에서 분석 | 선택) 측정)을 참조하십시오. 이렇게 하면 표시된 모든 점에 대한 좌표가 포함된 테이블이 표시됩니다. 날짜와 이미지 번호가 해당 .tif 파일과 동일한 "GridCalibration_YYYYMMDD_#.csv"라는 이름으로 이 파일을 저장합니다.
  3. boxCalibration 패키지에서 'setParams.m' 파일을 엽니다. 이 파일에는 필요한 모든 변수와 설명이 포함되어 있습니다. 프로젝트 사양에 맞게 필요에 따라 변수를 편집합니다.
  4. 교정 상자를 실행합니다. 명령 창에 여러 프롬프트가 나타납니다. 첫 번째 프롬프트는 폴더의 모든 이미지를 분석할지 여부를 묻습니다. Y를 입력하면 프롬프트가 종료되고 모든 날짜의 모든 이미지가 분석됩니다. N을 입력하면 사용자가 분석할 날짜를 입력하라는 메시지가 표시됩니다.
    참고: 캘리브레이션 이미지 폴더에 두 개의 새 디렉토리가 만들어집니다: 'markedImages'에는 보정 이미지에 사용자 정의 바둑판 마크가 있는 .png 파일이 포함되어 있습니다. 'boxCalibration' 폴더에는 상자 보정 매개 변수가 있는 .mat 파일이 포함되어 있습니다.
  5. 확인을 실행상자보정 기능. 그러면 'boxCalibration' 폴더에 새 폴더인 '확인 보정'이 생성됩니다. 각 날짜에는 이미지와 여러 .fig 파일이 포함된 하위 폴더가 있으며, 이 파일은 상자 보정이 정확하게 완료되었는지 확인하는 데 사용됩니다.

7. 3D 궤적 재구성

  1. 학습 프로그램 출력이 포함된 .csv 파일을 재구성3Dtrajectories 스크립트에 설명된 디렉터리 구조로 어셈블합니다.
  2. 실행 재구성3Dtrajectories. 이 스크립트는 디렉터리 구조를 검색하고 기울어진 프로그램의 이름을 기반으로 직접/미러 점을 일치시게 됩니다(두 뷰에서 동일한 바디 부품 이름을 사용하는 것이 중요합니다).
  3. 실행 계산운동학. 이 스크립트는 특정 요구에 맞게 조정할 수 있는 3D 궤적 재구성에서 간단한 운동학적 기능을 추출합니다.
    참고: 소프트웨어는 상호 보완뷰에서 이웃과 해당 위치를 기준으로 가려진 바디 파트의 위치를 추정합니다(예: 직접 카메라 뷰의 바디 파트 의 위치는 미러 뷰에서 가능한 위치를 제한합니다). 발이 슬롯을 통과할 때 미러 뷰에서 발이 가려지는 경우 발 좌표는 인접한 프레임에 따라 보간됩니다.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

or Start trial to access full content. Learn more about your institution’s access to JoVE content here

쥐는 1-2주 동안 도달 횟수와 정확도 모두에서 성능 고원을 이면 장치에 빠르게 적응하는 숙련된 도달 작업을 획득합니다(그림 5). 그림 6은 DeepLabCut으로 식별된 구조를 나타내는 샘플 비디오 프레임을 보여주고 그림 7은 단일 세션에서 중첩된 개별 도달 궤적을 보여줍니다. 마지막으로 그림8에서는 발 감지 트리거(단계 4.3.4-4.3.6)가 정확하게 설정되지 않은 경우 어떤 일이 발생하는지 설명합니다. 발이 도달 슬롯을 위반하는 프레임에는 상당한 가변성이 있습니다. 이것은 도달 운동학분석의 관점에서 중요한 문제가 아닙니다. 그러나, 그것은 내정간섭 (예를 들면, optogenetics)가 운동에 도달하는 도중 시작될 때에 있는 가변성으로 이끌어 낼 수 있었습니다.

Figure 1
그림 1: 숙련된 도달 챔버.
왼쪽 상단에서 시계 방향으로 측면 뷰, 앞쪽과 위에서 보기, 액추에이터가 장착된 프레임(1.8단계 참조) 및 측면 및 위쪽의 뷰입니다. 숙련된 도달 챔버(1)는 한쪽으로 절단된 도어(2)를 가지며 쥐를 챔버 내로 넣고 꺼내도록 한다. 슬릿은 천장 패널(12)으로 절단되어 동물이 테더될 수 있도록 하고 구멍을 바닥 패널(13)으로 절단하여 쓰레기가 통과할 수 있도록 한다. 두 개의 적외선 센서(3)가 챔버 뒷면의 양쪽에 정렬됩니다. 미러(4)는 도달 챔버의 전면에 도달 슬롯(14) 위에 장착되고 2개의 다른 거울(6)이 도달 챔버의 양쪽에 장착된다. 숙련 된 도달 챔버는 지지 상자 (5) 꼭대기에 앉아있다. 고화질 카메라(7)는 도달 슬롯 앞의 지지 상자에 장착됩니다. 블랙 페이퍼(18) 2장(18)이 카메라(7)의 양쪽에 장착되어 사이드 미러(6)에서 발의 대비를 향상시킨다. 지지상자 아래에는 선형 액추에이터(16) 및 펠렛 저장소(9)를 지지하는 프레임(8)이 있다. 펠렛 전달 봉(10)을 감싸는 가이드 튜브는 펠렛 저장소에 적합하고 선형 액추에이터에 의해 제어된다. 구멍은 펠릿 저장소 위의 액추에이터 프레임(17) 및 지지상자(15)로 절단되어 펠렛 전달 봉이 자유롭게 위아래로 움직일 수 있도록 한다. 상자는 캐비닛 벽과 천장에 장착 된 조명 패널 (11)으로 조명된다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 2
그림 2: 단일 평가판구조.
(A) 시험은 펠릿 전달 로드 (선형 액추에이터에 의해 제어됨)가 "준비된" 위치(위치 2 – 도달 슬롯의 바닥과 바닥 사이의 중간)에 위치하는 것으로 시작됩니다. (B) 쥐는 적외선 (IR) 빔을 끊기 위해 챔버의 뒤쪽으로 이동하여 펠릿 전달 막대가 위치 3 (도달 슬롯의 바닥에 정렬)으로 상승시킵니다. (C) 쥐가 도달 슬롯을 통해 도달하여 펠릿을 잡습니다. 도달은 슬롯 바로 앞의 사이드 미러 뷰에서 관심 영역(ROI) 내에서 픽셀 강도 변화를 감지하는 FPGA 프레임그래버를 사용하여 실시간으로 감지됩니다. 충분한 픽셀이 사용자가 정의한 "발 강도"와 일치하면 비디오 수집이 트리거됩니다. (D) 2초 후 펠릿을 1위치로 낮추고 펠릿 저장소에서 새 펠릿을 집어 들고 2위치로 재설정합니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 3
그림 3: 샘플 교정 이미지.
도움의 손길은 숙련 된 도달 챔버 내부에 배치됩니다. 악어 클립은 도달 슬롯을 뚫고 도달 챔버 외부의 교정 큐브를 제자리에 고정합니다. 세 개의 바둑판 패턴은 직접 보기와 해당 미러 뷰(녹색: 왼쪽, 빨간색: 위쪽, 파란색: 오른쪽)에서 완전히 볼 수 있습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 4
그림 4: 알고리즘 마커 위치 학습.
왼쪽 열: 직접 보기; 오른쪽 열: 미러 보기입니다. 마커 1-4: MCP 관절; 5-8: PIP 관절; 9-12: 숫자 팁; 13: 발에 도달하는 등졸; 14: 코; 15: 도달하지 않는 발의 도르섬. 마커(16)는 보이지 않는다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 5
그림 5: 쥐는 자동화된 숙련된 도달 작업을 빠르게 획득합니다.
자동화된 숙련된 도달 작업에서 처음 20회의 교육 세션에 대한 평균 첫 번째 도달 성공률(녹색, 왼쪽 축) 및 평균 총 시험(파란색, 오른쪽 축)입니다. 각 교육 세션은 30분 간 지속되었습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 6
그림 6: 학습 프로그램에 표시된 비디오 프레임을 샘플링합니다.
왼쪽 열: 미러 뷰; 오른쪽 열: 직접 보기. 시안, 빨간색, 노란색 및 녹색 점은 각각 1-4숫자를 표시합니다. 흰색 점은 코를 표시하고, 검은 점은 펠릿을 표시합니다. 채워진 원은 DeepLabCut에 의해 식별되었습니다. 열린 원은 해당 객체가 반대 보기에 나타난 위치에 의해 추정된 객체 위치를 표시합니다. X는 3D 위치의 추정치에서 비디오 프레임에 다시 투영된 포인트입니다. 이 비디오는 발이 슬롯을 통과할 때 프레임 300에서 트리거되었습니다. 상단 이미지는 도달 발이 감지되었을 때 첫 번째 프레임에서 나온 것입니다. 아래쪽 이미지는 두 번째 숫자가 최대로 확장된 프레임에서 나온 것입니다. 이러한 프레임은 이미지 처리 소프트웨어에 의해 식별되었습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 7
그림 7: 단일 테스트 세션에서 3D 궤적을 샘플링합니다.
두 축 모두 동일한 데이터를 표시하지만 프레젠테이션의 용이성을 위해 회전됩니다. 검은색 선은 평균 궤적을 나타냅니다. 시안, 빨간색, 노란색 및 녹색은 각각 숫자 1-4의 끝의 개별 궤적입니다. 파란색 선은 발 도르섬의 궤적을 나타냅니다. 큰 검은 점은 (0,0,0)에 있는 설탕 펠릿을 나타냅니다. 이것은 프레젠테이션의 용이성을 위해 초기 발 발전만을 나타냅니다 (리트랙션 및 다중 도달을 포함하여 그림은 거의 해석 할 수 없게 만듭니다). 그러나 모든 운동학 데이터는 분석에 사용할 수 있습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 8
그림 8: 2개의 다른 세션에 대해 특정 도달 단계가 확인된 프레임 번호의 히스토그램.
한 세션(어두운 실선)에서 ROI 트리거 값이 신중하게 설정되었으며 각 평가판에서 동일한 몇 프레임 내에 있는 슬롯을 위반하는 발이 확인되었습니다. 다른 세션 (빛 파선)에서 코는 종종 도달 발로 잘못 식별되어 비디오 수집을 조기에 유발했습니다. 전체 도달이 캡처되지 않는 한 오프라인 운동 분석에는 거의 영향을 미치지 않습니다. 그러나, 도달 발에 의해 트리거 잠재적인 개입 제대로 시간. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

or Start trial to access full content. Learn more about your institution’s access to JoVE content here

설치류 숙련 된 도달은 운동 시스템 생리학 및 병리 생리학을 연구하는 표준 도구가되었다. 최소한의 감독으로 훈련 및 테스트, 3-D 발 및 숫자 궤적 재구성 (도달 중, 잡기 및 발 후퇴 중), 실시간 식별 : 우리는 허용 자동화 된 쥐 숙련 된 도달 작업을 구현하는 방법을 설명했습니다. 도달하는 동안 발을, 외부 전자 장치와 동기화. 그것은 생리학과 앞다리 운동학을 상관하거나 운동에 도달하는 동안 정확하게 시간 적 개입을 수행하는 데 적합합니다.

우리는 처음에이 디자인을보고이후 14,우리의 훈련 효율성은 쥐의 거의 100 %가 작업을 취득 할 수 있도록 개선되었습니다. 우리는 지속적으로 성공적인 교육으로 이어지는 몇 가지 중요한 요인을 확인했습니다. 기아에 의해 동기를 부여 하는 많은 작업으로, 쥐 는 신중 하 게 그들의 예상된 체중의 80-90%를 유지 하기 위해 칼로리 제한 기간 동안 모니터링 해야 합니다. 매일 쥐를 취급, 훈련 하기 전에, 인간에 게 적응 하는 데 중요 한. 쥐는 펠릿을 요청하기 위해 챔버의 뒤쪽으로 돌아가는 법을 배우기 전에 도달하도록 훈련되어야합니다-이것은 훈련 시간을 크게 줄이고 쥐가 작업을 획득 할 가능성을 향상시킵니다. 마지막으로, 겉으로는 동일한 챔버 사이 전송 될 때, 쥐는 종종 적은 도달을 수행. 챔버가 처음으로 사용되었을 때 특히 그러했습니다. 우리는 이것이 챔버 사이의 향기의 차이 때문이라고 추측합니다. 이유가 무엇이든 간에 가능한 한 안정적인 교육 환경을 유지하거나 테스트가 발생할 수 있는 모든 상자에 쥐를 적응시키는 것이 중요합니다.

여기에 설명된 장치는 특정 요구에 쉽게 적응할 수 있습니다. 우리는 작업의 쥐 버전을 설명하지만, 또한 마우스 버전을 구현했다 (비록 마우스에서 DeepLabCut와 개별 숫자를 식별하는 것은 어렵다). 개별 비디오 프레임은 TTL 펄스로 표시되므로 디지털 또는 아날로그 입력(예: 전기 생리학 증폭기 또는 광도계)을 허용하는 모든 레코딩 시스템과 비디오를 동기화할 수 있습니다. 마지막으로, 머리 고정 마우스는 쉽게9에도달 숙련 된 수행, 이 작업의 헤드 고정 버전은 2 광자 이미징 또는 병치 기록을 위해 구현 될 수있다. 중요한 것은, 우리는 그 코와 발 모피 (각각 검은 색과 흰색) 코 찌르기 도달에 대한 오해하지 않는 색상이 충분히 다른 롱 에반스 쥐와이 시스템을 사용했다 (적절한 ROI 설정, 그림8). 이것은 그들의 발및 코 (예를 들면, albino 쥐)에 유사한 착색을 가진 쥐를 위한 문제일지도 모르지만, 잉크, 매니큐어, 또는 문신으로 발을 착색하여 해결될 수 있었습니다.

제시된 버전의 숙련된 도달은 특정 용도에 따라 유리할 수 있는 몇 가지 뚜렷한 특징을 가지고 있다. 상대적으로 복잡한 하드웨어와 실시간 비디오 처리에 대한 필요성은 홈케이지 교육 6,7에적합하지 않습니다. 다른 한편으로는, 홈 케이지 훈련은 여러 각도에서 고속 고해상도 비디오를 취득하는 것을 어렵게, 또는 생리 적 기록 / 개입을 위해 동물을 밧줄. 챔버당 하나의 컴퓨터에 대한 데이터 수집 카드 및 요구 사항으로 인해 각 챔버는 상대적으로 비싸며 비디오는 상당한 디지털 저장 공간(4s 비디오당 200MB)이 필요합니다. 실시간 피드백이나 외부 장치와 동기화할 수 있는 기능이 부족하지만 챔버당 약 $300의 비용이 드는 더 간단한 마이크로 컨트롤러 기반 버전을 구현했습니다. 이 상자는 본질적으로 여기에 설명된 것과 동일하지만 상업용 캠코더를 사용하며 마이크로 컨트롤러를 프로그래밍하는 것 외에는 컴퓨터가 필요하지 않습니다(이 설정 및 관련 소프트웨어의 세부 정보는 요청 시 제공됩니다). FPGA 프레임 그래버의 실시간 비디오 처리는 특히 유용합니다. 우리는 적외선 빔 이나 근접 센서 (도달 발에 대 한 쥐의 주전자를 착각할 수 있습니다)보다 실시간으로 도달을 더 강력 하 게 식별 하는 것을 발견 합니다. 더욱이, 다중 트리거는 상이한 도달 단계(예를 들어, 슬롯에 접근, 발 리프트, 슬롯을 통한 확장)에서 발을 식별하는 데 사용될 수 있다. 이를 통해 재현 가능하고 정확한 시간(시간)의 뉴런 섭동을 허용할 뿐만 아니라 짧은 고속 비디오의 저장을 트리거하는 데 사용할 수 있습니다.

숙련된 도달의 자동화된 버전은 특정 응용 프로그램에 대해 몇 가지 장점이 있지만 몇 가지 제한 사항이 있습니다. 위에서 언급했듯이 고속 고해상도 카메라는 적당히 비싸지 만 단일 이미지에 미러 및 직접 보기를 포함하고 매우 빠른 도달 움직임을 캡처해야합니다. 하나의 카메라를 사용하면 여러 비디오 스트림을 동시에 동기화 및 녹화하거나 여러 대의 카메라와 프레임 그래버를 구입할 필요가 없습니다. 반사된 뷰의 발은 직접 뷰에서와 마찬가지로 카메라에서 약 2배 정도(광선 추적)됩니다. 즉, DLC는 여전히 두 보기모두에서 개별 숫자를 강력하게 식별하지만 뷰 중 하나가항상 초점이 맞습니다(그림 4, 그림6). 마지막으로, 우리는 DLC의 가용성 전에, 우리는 문신으로 숫자를 코딩 색상을 시도하기 때문에 컬러 카메라를 사용했다. 이 학습 기반 프로그램은 흑백(또는 저해상도) 비디오에 동등하게 효과적일 수 있지만 여기에 설명된 하드웨어의 효과만 확인할 수 있습니다. 마지막으로, 분석 코드(DLC 제외)는 주로 상용 소프트웨어 패키지로 작성되지만(재료 참조) 필요에 따라 오픈 소스 프로그래밍 언어(예: Python)에 맞게 조정하는 것이 간단해야 합니다.

이 시스템을 개선하기 위해 노력하고 있는 방법에는 여러 가지가 있습니다. 현재 미러 뷰는 전면 패널에 의해 부분적으로 가려져 있습니다. 따라서 장애물을 최소화하면서 발의 여러 동시 보기를 얻을 수있는 방법을 모색하고 있습니다. 또 다른 중요한 개발은 자동으로 도달 점수를 매기는 것입니다 (시스템은 운동학을 추적 할 수 있지만 인간은 여전히 실패한 도달에 비해 성공점수를 매겨야합니다). 방법은 펠릿이 선반 / 받침대에서 노크 되었는지 여부를 결정하기 위해 개발되었지만 펠릿이 완전히11을잡았는지 또는 놓쳤는지 여부를 결정할 수 없습니다. DLC를 사용하여 펠릿을 추적하여, 우리는 시험 당 도달 의 수를 결정하는 알고리즘을 탐구하고, 뿐만 아니라 펠릿이 파악되었는지 여부, 받침대를 노크, 또는 완전히 놓친. 이러한 라인을 따라 데이터 수집부터 비디오 변환, DLC 처리 및 자동 채점까지 워크플로우를 완벽하게 자동화하기 위해 노력하고 있습니다. 궁극적으로, 우리는 하루에 여러 실험을 실행할 수있는 시스템을 구상하고, 다음 날 아침에 전체 전다리 운동학및 각 실험에 대한 점수에 도달이 결정되었습니다.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

저자는 공개 할 것이 없다.

Acknowledgments

저자는 숙련 된 도달 작업에 대한 조언 카루네시 갠굴리와 그의 실험실에 감사하고 싶습니다, 그리고 알렉산더와 매켄지 매티스는 DeepLabCut 적응에 자신의 도움. 이 작품은 신경 질환과 뇌졸중의 국립 연구소에 의해 지원되었다 (부여 번호 K08-NS072183) 미시간 대학.

Materials

Name Company Catalog Number Comments
clear polycarbonate panels TAP Plastics cut to order (see box design)
infrared source/detector Med Associates ENV-253SD 30" range
camera Basler acA2000-340kc 2046 x 1086 CMV2000 340 fps Color Camera Link
camera lens Megapixel (computar) M0814-MP2 2/3" 8mm f1.4 w/ locking Iris & Focus
camera cables Basler #2000031083 Cable PoCL Camera Link SDR/MDR Full, 5 m - Data Cables
mirrors Amazon
linear actuator Concentrics LACT6P Linear Actuator 6" Stroke (nominal), 110 Lb Force, 12 VDC, with Potentiometer
pellet reservoir/funnel Amico (Amazon) a12073000ux0890 6" funnel
guide tube ePlastics ACREXT.500X.250 1/2" OD x 1/4" ID Clear. Extruded Plexiglass Acrylic Tube x 6ft long
pellet delivery rod ePlastics ACRCAR.250 0.250" DIA. Cast Acrylic Rod (2' length)
plastic T connector United States Plastic Corp #62065 3/8" x 3/8" x 3/8" Hose ID Black HDPE Tee
LED lights Lighting EVER 4100066-DW-F 12V Flexible Waterproof LED Light Strip, LED Tape, Daylight White, Super Bright 300 Units 5050 LEDS, 16.4Ft 5 M Spool
Light backing ePlastics ACTLNAT0.125X12X36 0.125" x 12" x 36" Natural Acetal Sheet
Light diffuser films inventables 23114-01 .007x8.5x11", matte two sides
cabinet and custom frame materials various (Home Depot, etc.) 3/4" fiber board (see protocol for dimensions of each structure)
acoustic foam Acoustic First FireFlex Wedge Acoustical Foam (2" Thick)
ventilation fans Cooler Master (Amazon) B002R9RBO0 Rifle Bearing 80mm Silent Cooling Fan for Computer Cases and CPU Coolers
cabinet door hinges Everbilt (Home Depot #14609 continuous steel hinge (1.4" x 48")
cabinet wheels Everbilt (Home Depot #49509 Soft rubber swivel plate caster with 90 lb. load rating and side brake
cabinet door handle Everbilt (Home Depot #15094 White light duty door pull (4.5")
computer Hewlett Packard Z620 HP Z620 Desktop Workstation
Camera Link Frame Grabber National Instruments #781585-01 PCIe-1473 Virtex-5 LX50 Camera Link - Full
Multifunction RIO Board National Instruments #781100-01 PCIe-17841R
Analog RIO Board Cable National Instruments SCH68M-68F-RMIO Multifunction Cable
Digital RIO Board Cable National Instruments #191667-01 SHC68-68-RDIO Digital Cable for R Series
Analog Terminal Block National Instruments #782536-01 SCB-68A Noise Rejecting, Shielded I/O Connector Block
Digital Terminal Block National Instruments #782536-01 SCB-68A Noise Rejecting, Shielded I/O Connector Block
24 position relay rack Measurement Computing Corp. SSR-RACK24 Solid state relay backplane (Gordos/OPTO-22 type relays), 24-channel
DC switch Measurement Computing Corp. SSR-ODC-05 Solid state relay module, single, DC switch, 3 to 60 VDC @ 3.5 A
DC Sense Measurement Computing Corp. SSR-IDC-05 solid state relay module, single, DC sense, 3 to 32 VDC
DC Power Supply BK Precision 1671A Triple-Output 30V, 5A Digital Display DC Power Supply
sugar pellets Bio Serv F0023 Dustless Precision Pellets, 45 mg, Sucrose (Unflavored)
LabVIEW National Instruments LabVIEW 2014 SP1, 64 and 32-bit versions 64-bit LabVIEW is required to access enough memory to stream videos, but FPGA coding must be performed in 32-bit LabVIEW
MATLAB Mathworks Matlab R2019a box calibration and trajectory reconstruction software is written in Matlab and requires the Computer Vision toolbox

DOWNLOAD MATERIALS LIST

References

  1. Chen, J., et al. An automated behavioral apparatus to combine parameterized reaching and grasping movements in 3D space. Journal of Neuroscience Methods. (2018).
  2. Sacrey, L. A. R. A., Alaverdashvili, M., Whishaw, I. Q. Similar hand shaping in reaching-for-food (skilled reaching) in rats and humans provides evidence of homology in release, collection, and manipulation movements. Behavioural Brain Research. 204, 153-161 (2009).
  3. Whishaw, I. Q., Kolb, B. Decortication abolishes place but not cue learning in rats. Behavioural Brain Research. 11, 123-134 (1984).
  4. Klein, A., Dunnett, S. B. Analysis of Skilled Forelimb Movement in Rats: The Single Pellet Reaching Test and Staircase Test. Current Protocols in Neuroscience. 58, 8.28.1-8.28.15 (2012).
  5. Whishaw, I. Q., Pellis, S. M. The structure of skilled forelimb reaching in the rat: a proximally driven movement with a single distal rotatory component. Behavioural Brain Research. 41, 49-59 (1990).
  6. Zeiler, S. R., et al. Medial premotor cortex shows a reduction in inhibitory markers and mediates recovery in a mouse model of focal stroke. Stroke. 44, 483-489 (2013).
  7. Fenrich, K. K., et al. Improved single pellet grasping using automated ad libitum full-time training robot. Behavioural Brain Research. 281, 137-148 (2015).
  8. Azim, E., Jiang, J., Alstermark, B., Jessell, T. M. Skilled reaching relies on a V2a propriospinal internal copy circuit. Nature. (2014).
  9. Guo, J. Z. Z., et al. Cortex commands the performance of skilled movement. Elife. 4, e10774 (2015).
  10. Nica, I., Deprez, M., Nuttin, B., Aerts, J. M. Automated Assessment of Endpoint and Kinematic Features of Skilled Reaching in Rats. Frontiers in Behavioral Neuroscience. 11, 255 (2017).
  11. Wong, C. C., Ramanathan, D. S., Gulati, T., Won, S. J., Ganguly, K. An automated behavioral box to assess forelimb function in rats. Journal of Neuroscience Methods. 246, 30-37 (2015).
  12. Torres-Espín, A., Forero, J., Schmidt, E. K. A., Fouad, K., Fenrich, K. K. A motorized pellet dispenser to deliver high intensity training of the single pellet reaching and grasping task in rats. Behavioural Brain Research. 336, 67-76 (2018).
  13. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21, 1281-1289 (2018).
  14. Ellens, D. J., et al. An automated rat single pellet reaching system with high-speed video capture. Journal of Neuroscience Methods. 271, 119-127 (2016).
발과 숫자 궤적의 3 차원 재구성에 도달 자동화 된 쥐 단일 펠릿
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Bova, A., Kernodle, K., Mulligan, K., Leventhal, D. Automated Rat Single-Pellet Reaching with 3-Dimensional Reconstruction of Paw and Digit Trajectories. J. Vis. Exp. (149), e59979, doi:10.3791/59979 (2019).More

Bova, A., Kernodle, K., Mulligan, K., Leventhal, D. Automated Rat Single-Pellet Reaching with 3-Dimensional Reconstruction of Paw and Digit Trajectories. J. Vis. Exp. (149), e59979, doi:10.3791/59979 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
simple hit counter