Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

머리가 구속된 마우스의 공간 학습 측정을 위한 오픈 소스 가상 현실 시스템An open-source virtual reality system for the measurement of spatial learning in head-trained mice

Published: March 3, 2023 doi: 10.3791/64863

Summary

여기에서는 가상 현실(VR)을 사용하여 마우스 공간 학습을 조사하기 위한 간소화된 오픈 소스 하드웨어 및 소프트웨어 설정을 제시합니다. 이 시스템은 마이크로 컨트롤러 네트워크와 사용하기 쉬운 Python 그래픽 소프트웨어 패키지를 실행하는 단일 기판 컴퓨터를 활용하여 휠에서 실행되는 머리 구속 마우스에 대한 가상 선형 트랙을 표시합니다.

Abstract

생쥐의 머리 구속 행동 실험을 통해 신경 과학자들은 고해상도 전기 생리학 및 광학 이미징 도구를 사용하여 신경 회로 활동을 관찰하는 동시에 행동하는 동물에게 정확한 감각 자극을 전달할 수 있습니다. 최근 가상 현실(VR) 환경을 사용한 인간 및 설치류 연구에 따르면 VR은 공간 및 상황 신호와 같은 매개변수를 매우 정밀하게 제어하기 때문에 해마와 피질의 공간 학습의 기반이 되는 신경 메커니즘을 밝히는 데 중요한 도구임이 밝혀졌습니다. 그러나 설치류 공간 행동을 위한 가상 환경을 설정하는 것은 비용이 많이 들고 엔지니어링 및 컴퓨터 프로그래밍에 대한 광범위한 배경 지식이 필요할 수 있습니다. 여기에서는 연구원들이 VR 환경을 사용하여 머리가 구속된 마우스의 공간 학습을 연구할 수 있도록 하는 저렴한 모듈식 오픈 소스 하드웨어 및 소프트웨어를 기반으로 하는 간단하면서도 강력한 시스템을 제시합니다. 이 시스템은 결합된 마이크로 컨트롤러를 사용하여 이동을 측정하고 행동 자극을 전달하는 반면, 머리에 구속된 마우스는 단일 보드 컴퓨터에서 실행되는 그래픽 소프트웨어 패키지로 렌더링되는 가상 선형 트랙 환경과 함께 바퀴 위에서 실행됩니다. 분산 처리에 중점을 두어 연구자들은 포유류 뇌의 신경 회로 활동과 공간 학습 간의 연결을 결정하기 위해 마우스의 복잡한 공간 행동을 유도하고 측정할 수 있는 유연한 모듈식 시스템을 설계할 수 있습니다.

Introduction

공간 내비게이션은 동물이 새로운 위치의 특징을 인지 지도로 인코딩하는 에토론적으로 중요한 행동으로, 가능한 보상 영역을 찾고 잠재적 위험 영역을 피하는 데 사용됩니다. 기억과 불가분의 관계에 있는 공간 탐색의 기초가 되는 인지 과정은 해마1와 피질의 신경 기질을 공유하며, 이 영역의 신경 회로는 들어오는 정보를 통합하고 나중에 회상할 수 있도록 환경 및 사건에 대한 인지 지도를 형성합니다2. 해마(hippocampus)3,4의 장소 세포(place cell)와 내후각 피질(entorhinal cortex)5의 격자 세포(grid cell)의 발견은 해마 내의 인지 지도가 어떻게 형성되는지에 대한 명확한 정보를 제공했지만, 해마의 특정 신경 아형, 미세 회로 및 개별 하위 영역(치상회, 각질 암모니스 영역, CA3-1)이 어떻게 상호 작용하고 공간 기억 형성 및 회상에 참여하는지에 대한 많은 질문이 남아 있습니다.

생체 내 이광자 이미징은 감각 신경 생리학 6,7에서 세포 및 인구 역학을 밝히는 데 유용한 도구였습니다. 그러나 머리 지지대의 일반적인 필요성은 포유류의 공간 행동을 조사하기 위한 이 방법의 유용성을 제한합니다. 가상 현실(VR)8의 출현은 머리에 구속된 마우스가 해마 8,9,10 및 피질 11에서 공간 및 컨텍스트 인코딩을 연구하기 위해 공이나 러닝머신에서 달리는 동안 몰입감 있고 사실적인 시공간 환경을 제시함으로써 이러한 단점을 해결했습니다. 또한, 행동하는 마우스와 함께 VR 환경을 사용함으로써 신경과학 연구자들은 모리스 수중 미로, 반스 미로, 또는 홀 보드 작업과 같은 공간 학습의 실제 실험에서는 불가능한 방식으로 VR 환경(12)의 요소(예를 들어, 시각적 흐름, 문맥 변조)를 정밀하게 제어함으로써 공간 행동의 구성요소를 해부할 수 있다.

비주얼 VR 환경은 일반적으로 컴퓨터의 GPU(그래픽 처리 장치)에서 렌더링되며, 이 GPU는 움직이는 3D 환경을 화면에서 실시간으로 모델링하는 데 필요한 수천 개의 폴리곤을 빠르게 컴퓨팅하는 부하를 처리합니다. 큰 처리 요건은 일반적으로 움직임이 동물 아래의 트레드밀, 바퀴 또는 폼 볼로부터 기록될 때 시각적 환경을 모니터, 다중 스크린(13) 또는 프로젝터(14 )에 렌더링하는 GPU를 갖는 별도의 PC의 사용을 필요로 한다. 그러므로, VR 환경을 제어, 렌더링 및 투사하기 위한 결과적인 장치는 상대적으로 비싸고, 부피가 크며, 성가신다. 또한, 문헌의 많은 이러한 환경은 비용이 많이 들고 전용 PC에서만 실행할 수 있는 독점 소프트웨어를 사용하여 구현되었습니다.

이러한 이유로 우리는 Raspberry Pi 단일 보드 컴퓨터를 사용하여 머리가 구속된 마우스의 공간 학습 행동을 연구하기 위해 오픈 소스 VR 시스템을 설계했습니다. 이 Linux 컴퓨터는 작고 저렴하지만 3D 렌더링을 위한 GPU 칩이 포함되어 있어 다양한 개별 설정에서 VR 환경을 디스플레이 또는 행동 장치와 통합할 수 있습니다. 또한 Python으로 작성된 그래픽 소프트웨어 패키지인 "HallPassVR"을 개발했으며, 이 패키지는 단일 보드 컴퓨터를 활용하여 그래픽 사용자 인터페이스(GUI)를 사용하여 선택한 사용자 지정 시각적 기능을 재결합하여 간단한 시공간 환경, 가상 선형 트랙 또는 복도를 렌더링합니다. 이는 마이크로 컨트롤러 하위 시스템(예: ESP32 또는 Arduino)과 결합되어 운동을 측정하고 강화 학습을 용이하게 하기 위한 다른 감각 자극 또는 보상 전달과 같은 동작을 조정합니다. 이 시스템은 공간 학습 행동의 기초가 되는 신경 회로를 연구하기 위해 이광자 이미징(또는 머리 고정이 필요한 기타 기술) 중에 머리가 구속된 마우스에 시공간 VR 환경을 제공하기 위한 저렴하고 유연하며 사용하기 쉬운 대체 방법을 제공합니다.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

이 프로토콜의 모든 절차는 뉴욕주 정신의학 연구소의 기관 동물 관리 및 사용 위원회의 승인을 받았습니다.

참고: 단일 보드 컴퓨터는 바퀴 위에서 머리가 고정된 마우스의 실행과 조정된 VR 시각적 환경을 표시하는 데 사용됩니다. 움직임 정보는 휠 액슬에 연결된 로터리 엔코더를 읽는 ESP32 마이크로 컨트롤러의 직렬 입력으로 수신됩니다. VR 환경은 Raspberry Pi용 pi3d Python 3D 패키지를 활용하는 Raspberry Pi GPU에서 OpenGL 하드웨어 가속을 사용하여 렌더링됩니다. 그 후, 렌더링된 환경은 프로젝터를 통해 머리-구속된 마우스의 시야(15, 16)에 중심을 둔 콤팩트한 랩어라운드 포물선 스크린 상으로 출력되고, 한편 행동(예를 들어, 공간적 보상에 응답하여 핥는 것)은 제2 행동 ESP32 마이크로컨트롤러에 의해 측정된다. 그래픽 소프트웨어 패키지는 그래픽 사용자 인터페이스(GUI)를 사용하여 가상 복도 또는 복도를 따라 반복되는 시각적 자극 패턴으로 구성된 가상 선형 트랙 환경을 생성할 수 있습니다. 이 디자인은 쉽게 매개 변수화되므로 공간 학습 중에 뇌가 장소와 시각적 신호를 인코딩하는 방법을 이해하기위한 복잡한 실험을 만들 수 있습니다 (섹션 4 참조). 이 시스템에 필요한 사용자 지정 하드웨어 구성 요소(즉, 런닝 휠, 프로젝션 스크린 및 헤드레스트 장치)에 대한 설계는 공개 GitHub 리포지토리(https://github.com/GergelyTuri/HallPassVR)에 보관됩니다. 이 프로토콜과 함께 해당 저장소의 문서를 읽는 것이 좋으며, 사이트는 향후 시스템 개선 사항으로 업데이트될 예정입니다.

1. 기계설비 설치: 운영하는 바퀴, 투상 스크린 및 맨 위 기정 기구의 건축

알림: 이러한 설정을 위한 맞춤형 구성 요소는 사용자가 3D 프린팅 및 레이저 절단 장비에 액세스할 수 있거나 전문 제조 또는 3D 프로토타이핑 서비스(예: eMachinehop)에 아웃소싱할 수 있는 경우 쉽게 제조할 수 있습니다. 모든 디자인 파일은 . STL 3D 파일 또는 . DXF AutoCAD 파일.

  1. 러닝 휠 및 동작 설정(그림 1)
    알림: 휠은 볼 베어링을 통해 레이저 절단 아크릴 마운트에 매달린 액슬을 중심으로 투명한 아크릴 실린더(직경 6, 너비 3, 두께 1/8)로 구성됩니다. 그런 다음 휠 어셈블리를 경량 알루미늄 프레임(t-슬롯)에 장착하고 광학 브레드 기판에 단단히 고정합니다(그림 1C-E).
    1. 휠과 액슬 마운트의 측면을 1/4인치 아크릴 시트에서 레이저로 절단하고 휠 측면을 아크릴 시멘트로 아크릴 실린더에 부착합니다. 액슬 플랜지를 휠 측면 부품의 중앙에 나사로 고정합니다.
    2. 액슬을 휠 센터 플랜지에 삽입하고 볼 베어링을 액슬 마운트에 끼운 다음 수직 알루미늄 지지대에 부착합니다.
    3. 휠 액슬을 장착된 볼 베어링에 삽입하고 로터리 엔코더를 부착하기 위해 베어링을 지나 액슬의 0.5-1인치를 남겨 둡니다.
    4. 로터리 엔코더 마운트를 휠 반대쪽 액슬 끝에 부착하고 로터리 엔코더를 삽입합니다. 그런 다음 샤프트 커플러를 사용하여 휠 액슬을 로터리 엔코더 샤프트에 연결합니다.
    5. 핥기 포트를 플렉스 암에 부착한 다음 t-슬롯 너트로 알루미늄 휠 프레임에 부착합니다. 1/16인치 튜브를 사용하여 핥기 포트를 솔레노이드 밸브에 연결하고 밸브를 물통에 연결합니다.
      알림: 핥기 포트는 동작 ESP32의 정전식 터치 감지 핀에 부착하기 위해 납땜된 와이어가 있는 금속으로 만들어져야 합니다.
  2. 프로젝션 스크린
    참고 : VR 화면은 Christopher Harvey의 실험실 54에서 개발 된 디자인을 기반으로 한 작은 포물선 후면 프로젝션 스크린 (캔버스 크기 :21.5cm x 15,16cm)입니다. 사용된 LED 프로젝터의 투사 각도(키스톤)는 이전에 사용된 레이저 프로젝터의 투사 각도와 다릅니다. 따라서 화면 아래에 장치를 장착하고 미러 시스템을 단순화하여 원래 디자인을 약간 수정합니다(그림 1A, B). Harvey 연구소의 문서와 함께 VR 환경을 사용자의 요구에 맞게 조정하는 것이 좋습니다15.
    1. 프로젝션 스크린 측면을 1/4에서 검은색 무광 아크릴 시트로 레이저로 자릅니다. 미러 아크릴로 후면 투영 거울을 1/4에서 레이저로 자릅니다.
    2. 알루미늄 막대로 프로젝션 스크린 프레임을 조립하고 아크릴 패널을 레이저로 자릅니다.
    3. 반투명 프로젝션 스크린 재료를 프레임의 포물선 슬롯에 삽입합니다. 후면 프로젝션 미러를 프로젝션 스크린 프레임 후면의 슬롯에 삽입합니다.
    4. 프로젝션 스크린 프레임 내부의 하단 장착 플레이트에 LED 프로젝터를 놓습니다. 프로젝터를 장착 볼트로 정렬하여 포물선 후면 프로젝션 스크린에서 투사된 이미지의 위치를 최적화합니다.
    5. 필요한 경우 광학 센서의 빛 오염을 방지하기 위해 프로젝터 박스 장치를 밀봉하십시오.
  3. 헤드레스트 장치
    알림: 이 헤드레스트 장치 설계는 금속 헤드 포스트를 고정하기 위한 두 개의 연동 3D 프린팅 매니폴드로 구성됩니다(그림 1E, F).
    1. 고해상도 SLM 3D 프린터를 사용하여 팔을 잡고 있는 헤드 포스트를 3D 프린팅합니다.
      알림: 수지로 인쇄된 플라스틱은 행동 실험을 위해 안정적인 헤드 고정을 제공할 수 있습니다. 그러나 단일 셀 기록 또는 이광자 이미징과 같은 민감한 응용 분야에서 최대한의 안정성을 얻으려면 가공된 금속 부품(예: eMachineShop)을 사용하는 것이 좋습니다.
    2. 3D 프린팅 헤드 포스트 홀더를 광학 장착 포스트가 있는 이중 축 고니오미터에 설치하여 동물의 머리를 기울여 준비 수준을 맞출 수 있도록 합니다.
      참고: 이 기능은 후속 이미징 세션에서 동일한 세포 집단을 찾아야 하는 장기 생체 내 이미징 실험에 없어서는 안 될 필수 요소입니다. 그렇지 않으면 설정 비용을 줄이기 위해 이 기능을 생략할 수 있습니다.
    3. 헤드 포스트를 제작하십시오.
      알림: 복잡성(및 가격)이 다른 두 가지 유형의 헤드 포스트는 이 지침과 함께 재료 표에 제공된 링크에 보관됩니다.
      1. 실험 유형에 따라 구현할 헤드 포스트를 결정합니다. 헤드 바는 스테인리스 스틸로 만들어지며 일반적으로 제조를 위해 현지 기계 공장이나 온라인 서비스(예: eMachineShop)에 아웃소싱됩니다.

2. 전자 하드웨어/소프트웨어 설정(단일 기판 컴퓨터, ESP32 마이크로 컨트롤러, 그림 2)

  1. 단일 보드 컴퓨터를 구성합니다.
    참고: 재료표 에 포함된 단일 보드 컴퓨터(Raspberry Pi 4B)는 VR 환경 렌더링을 용이하게 하는 온보드 GPU와 실험 제어/모니터링 및 VR 프로젝션을 위한 2개의 HDMI 포트가 있기 때문에 이 설정에 최적입니다. 이러한 특성을 가진 다른 단일 보드 컴퓨터는 잠재적으로 대체될 수 있지만 다음 지침 중 일부는 Raspberry Pi에만 해당될 수 있습니다.
    1. 싱글 보드 컴퓨터 이미저 애플리케이션을 PC에 다운로드하고 microSD 카드(2021+ GB)에 OS(현재 Raspberry Pi OS r.05-07-16)를 설치합니다. 카드를 삽입하고 싱글 보드 컴퓨터를 부팅합니다.
    2. pi3d Python 3D 라이브러리에 대한 단일 보드 컴퓨터 구성: (메뉴 모음) 기본 설정 > Raspberry Pi 구성.
      1. Display > Screen Blanking(화면 블랭킹 > 비활성화)을 클릭합니다.
      2. Interfaces( 인터페이스) > Serial Port(직렬 포트)를 클릭하고 Enable(활성화>.
      3. GPU 메모리 > 256 (MB)> 성능을 클릭합니다.
    3. pi3d에 대한 Python 이미지 라이브러리 패키지를 업그레이드합니다((터미널)> sudo pip3 install pillow --upgrade).
    4. 단일 보드 컴퓨터용 pi3d Python 3D 패키지를 설치합니다((터미널)> sudo pip3 install pi3d).
    5. 프로젝터의 HDMI 출력 레벨을 높입니다: (터미널)> sudo nano /boot/config.txt, config_hdmi_boost=4 주석 처리를 제거하고 저장하고 재부팅합니다.
    6. 로터리 인코더 및 동작 ESP32 마이크로 컨트롤러에 코드를 로드하는 데 필요한 arduino.cc/en/software(예: arduino-1.8.19-linuxarm.tar.gz)에서 통합 개발 환경(IDE)을 다운로드하여 설치합니다.
    7. IDE에 ESP32 마이크로 컨트롤러 지원을 설치합니다.
      1. 파일 > 기본 설정 > 추가 보드 관리자 URL = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json 클릭
      2. Tools > Boards > Boards Manager > ESP32(Espressif 제공)를 클릭합니다. v.2.0.0을 설치합니다(현재 v2.0.4에서 업로드가 실패함).
    8. VR 중 마우스 동작을 기록하고 온라인으로 플로팅하는 데 필요한 Processing IDE를 https://github.com/processing/processing4/releases(예: processing-4.0.1-linux-arm32.tgz)에서 다운로드하여 설치합니다.
      알림: Arduino 및 Processing 환경은 원하는 경우 VR 단일 보드 컴퓨터와 별도의 PC에서 실행할 수 있습니다.
  2. 로터리 엔코더 ESP32 연결을 설정합니다.
    알림: 휠 액슬에 연결된 로터리 엔코더는 ESP32 마이크로컨트롤러로 계산되는 마우스 이동으로 휠 회전을 측정합니다. 그런 다음 위치 변경은 단일 기판 컴퓨터 GPIO 직렬 포트로 전송되어 그래픽 소프트웨어 패키지를 사용하여 가상 환경을 통한 이동을 제어하고 동작 ESP32로 전송되어 보상 영역을 제어합니다(그림 2).
    1. 로터리 엔코더 구성 요소와 로터리 ESP32 사이에 와이어를 연결합니다. 로터리 엔코더에는 일반적으로 +, GND, A 및 B(구적 엔코더용 디지털 라인 2개)의 4개 와이어가 있습니다. 점퍼 와이어를 통해 ESP32 3.3V, GND, 25, 26(첨부된 코드의 경우)에 연결합니다.
    2. 회전식 ESP32와 동작 ESP32 사이에 직렬 RX/TX 와이어를 연결합니다. 회전식 ESP32 Serial0 RX/TX(수신/전송)와 동작 ESP2의 Serial32 포트(TX/RX, 핀 17, 16, OMwSmall PCB 오른쪽의 Serial2 포트 참조) 사이에 간단한 2선 연결을 만듭니다. 이렇게 하면 로터리 엔코더의 움직임 정보가 보상 영역과 같은 공간 영역에 대한 동작 설정으로 전달됩니다.
    3. 회전식 ESP32와 단일 보드 컴퓨터 GPIO(또는 직접 USB 연결) 사이에 직렬 RX/TX 와이어를 연결합니다. 단일 보드 컴퓨터 GPIO 핀 14, 15(RX/TX)와 회전식 ESP32 Serial2(TX/RX, 핀 17, 16) 사이에 2선 연결을 만듭니다. 이렇게 하면 로터리 인코더에서 단일 보드 컴퓨터에서 실행되는 그래픽 소프트웨어 패키지로 이동 정보가 전달됩니다.
      알림: 이 단계는 회전식 ESP32가 USB를 통해 연결되지 않은 경우에만 필요하지만(즉, "/dev/ttyS0"의 GPIO 직렬 연결) 그렇지 않으면 "/dev/ttyUSB0"을 사용하도록 HallPassVR_wired.py 코드를 수정해야 합니다. 이 유선 연결은 향후 버전에서 무선 Bluetooth 연결로 대체될 예정입니다.
    4. 회전식 ESP32 USB를 단일 보드 컴퓨터 USB(또는 IDE를 실행하는 다른 PC)에 연결하여 초기 회전식 인코더 코드를 업로드합니다.
  3. 동작 ESP32 연결을 동작 하드웨어와 설정합니다(OpenMaze PCB를 통해 ).
    알림: 동작 ESP32 마이크로컨트롤러는 ESP32용 일반 PCB "브레이크아웃 보드", "OMw www.openmaze.org Small"을 통해 연결된 모든 비 VR 동물 상호 작용(비 VR 자극 및 보상 제공, 마우스 핥기 감지)을 제어합니다. PCB에는 액체 보상을 전달하는 데 사용되는 솔레노이드 밸브와 같은 전기 기계 부품을 구동하는 데 필요한 전자 부품이 포함되어 있습니다.
    1. 12V 액체 솔레노이드 밸브를 OMwSmall PCB의 맨 왼쪽에 있는 ULN2803 IC 출력에 연결합니다(ex의 핀 12ample 설정 및 코드). 이 IC는 동작 ESP32 마이크로 컨트롤러의 GPIO 출력에 의해 제어되는 보상 솔레노이드 밸브에 12V 전력을 게이트합니다.
    2. lick 포트를 ESP32 터치 입력에 연결합니다(예: t0, GPIO4amp르 코드). ESP32에는 특정 핀에 정전식 터치 감지 기능이 내장되어 있으며, 동작 ESP32 코드는 VR 동작 중에 부착된 금속 핥기 포트를 마우스가 핥는 것을 감지하는 데 사용합니다.
    3. 동작 ESP32 Serial2(핀 16, 17)와 로터리 인코더 ESP32 Serial0 사이에 직렬 RX/TX 와이어를 연결합니다(2.2.2단계 참조).
    4. USB를 단일 보드 컴퓨터의 USB 포트(또는 다른 PC)에 연결하여 다양한 실험 패러다임(예: 보상 영역의 수/위치)에 대한 동작 ESP32에 새 프로그램을 업로드하고 포함된 처리 스케치를 사용하여 동작 데이터를 캡처합니다.
    5. 12V DC 벽면 어댑터를 동작 ESP2.1 OMwSmall PCB의 32mm 배럴 잭 커넥터에 연결하여 보상 솔레노이드 밸브에 전원을 공급합니다.
    6. 단일 보드 컴퓨터의 HDMI #2 출력을 프로젝터 HDMI 포트에 연결합니다. 이렇게 하면 단일 보드 컴퓨터 GPU에서 렌더링한 VR 환경이 프로젝션 스크린으로 전달됩니다.
    7. (선택 사항) 동기화 와이어(핀 26)를 신경 영상 또는 전기생리학적 기록 설정에 연결합니다. 3.3V TTL(트랜지스터-트랜지스터-로직) 신호가 5초마다 전송되어 시스템을 거의 밀리초 단위의 정밀도로 정렬합니다.
  4. 소프트웨어 설정: IDE를 사용하여 로터리 인코더 ESP32(그림 2B) 및 동작 ESP32(그림 2E)에 펌웨어/소프트웨어를 로드하고 VR Python 소프트웨어를 단일 보드 컴퓨터에 다운로드합니다. https://github.com/GergelyTuri/HallPassVR/software 참조하십시오.
    1. 로터리 인코더 ESP32를 먼저 단일 보드 컴퓨터의 USB 포트에 연결하면 OS에서 자동으로 "/dev/ttyUSB0 "으로 명명됩니다.
    2. 로터리 인코더 코드 로드: IDE에서 RotaryEncoder_Esp32_VR.ino 파일을 연 다음 ESP32 개발 모듈의 도구 > 보드 > ESP32를 선택합니다. Tools > Port > /dev/ttyUSB0을 클릭하여 ESP32 포트를 선택한 다음 Upload를 클릭합니다.
    3. 동작 ESP32를 단일 보드 컴퓨터의 USB 포트에 연결하면 OS에서 "/dev/ttyUSB1"로 명명됩니다.
    4. 동작 시퀀스 코드를 동작 ESP32(IDE, ESP32 개발 모듈이 이미 선택됨)에 로드한 다음 도구 > 포트 > /dev/ttyUSB1을 클릭하고 업로드: wheel_VR_behavior.ino를 클릭합니다.
    5. IDE에서 각 ESP32에 대한 직렬 포트(도구 > 포트 > /dev/ttyUSB0 또는 /dev/ttyUSB1)를 선택한 다음 도구 > 직렬 모니터(전송 속도: 115,200)를 클릭하여 직렬 연결을 테스트하여 로터리 보드(USB0) 또는 동작 보드(USB1)의 직렬 출력을 관찰합니다. 휠을 돌려 USB0의 로터리 ESP32에서 원시 움직임 출력 또는 USB32의 동작 ESP1에서 포맷된 움직임 출력을 확인합니다.
    6. https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR 에서 그래픽 소프트웨어 패키지 Python 코드를 다운로드합니다(/home/pi/Documents로). 이 폴더에는 pi3d Python3 패키지가 이전에 올바르게 설치된 경우 그래픽 소프트웨어 패키지를 실행하는 데 필요한 모든 파일이 포함되어 있습니다(2.1단계).

3. 그래픽 소프트웨어 패키지 실행 및 테스트

참고: 그래픽 소프트웨어 패키지 GUI를 실행하여 VR 선형 트랙 환경을 시작하고, VR 소프트웨어 및 동작 ESP32 코드의 거리를 보정하고, 포함된 처리 언어 스케치를 사용하여 마우스의 실행 및 핥기 동작의 획득 및 온라인 플로팅을 테스트합니다.

  1. 단일 보드 컴퓨터에서 터미널 창을 열고 HallPassVR 폴더(터미널:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)로 이동합니다.
  2. VR GUI: (터미널)> python3 HallPassVR_GUI.py 실행합니다(GUI 창이 열립니다( 그림 3A).
  3. 그래픽 소프트웨어 GUI
    1. 트랙을 따라 세 가지 패턴 각각에 대해 목록 상자에서 4개의 요소(이미지)를 선택하고 추가(또는 아래에서 미리 저장된 패턴을 선택한 다음 업로드를 클릭)한 다음 생성을 클릭합니다.
      참고: 새 이미지 files(.jpeg)는 GUI가 실행되기 전에 HallPassVR/HallPassVR_wired/images/ELEMENTS 폴더에 배치할 수 있습니다.
    2. 드롭다운 메뉴에서 바닥 및 천장 이미지를 선택하고 이 예제 코드의 트랙 길이를 2m로 설정합니다(동작 ESP32 코드 및 처리 코드의 trackLength (밀리미터[mm])와 같아야 함).
    3. 원하는 경우 이 패턴의 이름을 지정합니다(HallPassVR_wired/images/PATH_HIST에 저장됨).
    4. 시작 버튼을 클릭합니다(VR 창이 시작될 때까지 기다렸다가 다른 곳을 클릭). VR 환경은 화면 #2(프로젝션 화면, 그림 3B, C)에 나타납니다.
  4. Processing 스케치를 실행하여 동작 데이터/움직임을 수집하고 플로팅합니다.
    1. 처리 IDE에서 VRwheel_RecGraphSerialTxt.pde를 엽니다.
    2. 동물 변경 = "yourMouseNumber"; 변수를 만들고 sessionMinutes를 행동 세션의 길이(분)와 동일하게 설정합니다.
    3. Processing IDE에서 Run(실행) 버튼을 클릭합니다.
    4. 휠이 회전할 때 가상 선형 트랙의 현재 마우스 위치를 표시해야 하는 처리 플롯 창과 30초마다 업데이트되는 핥기, 랩 및 보상의 보상 영역 및 실행 히스토그램을 확인합니다(그림 3D). 러닝 휠을 손으로 전진시켜 테스트를 위해 작동하는 마우스를 시뮬레이션하거나 초기 설정에 테스트 마우스를 사용합니다.
    5. 플롯 창을 클릭하고 키보드의 q 키를 눌러 동작 데이터 수집을 중지합니다. 동작 이벤트 및 시간의 텍스트 파일(일반적으로 세션당 크기가 <2MB)과 최종 플롯 창의 이미지(.png)는 sessionMinutes 가 경과하거나 사용자가 q 키를 눌러 종료할 때 저장됩니다.
      참고: 출력 .txt 파일의 크기가 작기 때문에 단일 보드 컴퓨터의 SD 카드에 최소 수천 개의 동작 기록을 저장할 수 있는 것으로 추정됩니다. 데이터 파일은 후속 분석을 위해 썸 드라이브에 저장하거나 로컬 네트워크에 연결된 경우 데이터를 원격으로 관리할 수 있습니다.
  5. VR 트랙 길이로 동작 트랙 길이를 보정합니다.
    1. VR 코리더와 마우스 위치(처리 플롯에서)를 관찰하면서 휠을 손으로 전진시킵니다. 마우스가 동작 플롯의 끝에 도달하기 전/후에 VR 코리더가 종료되는 경우 두 시스템에서 트랙이 동시에 재설정될 때까지 VR 트랙 길이를 점진적으로(HallPassVR_wired.py, corridor_length_default, 센티미터[cm] 단위) 늘리거나 줄입니다.
      참고: 이 코드는 현재 256위치 직교 로터리 인코더를 사용하여 6인치 직경의 러닝 휠에 대해 보정되므로 사용자는 다른 구성을 고려하여 VR(HallPassVR_wired.py, corridor_length_default, 센티미터[cm]) 및 동작 코드(wheel_VR_behavior.ino, trackLength, 밀리미터[mm])를 변경해야 할 수 있습니다. 그러나 동작 위치는 시스템 간의 대응을 유지하기 위해 각 VR 랩에서 재설정됩니다.

4. 마우스 학습 및 공간 학습 행동

참고: 마우스는 머리 고정을 위해 이식되고, 머리 지지대에 익숙해진 다음, 점진적으로 액체 보상을 위해 바퀴 위에서 달리고 일관되게 핥도록 훈련됩니다("무작위 채집"). 일관된 달리기와 핥기를 달성 한 마우스는 VR 환경을 사용하여 공간적 숨겨진 보상 작업에 대해 훈련되며, 가상 선형 트랙의 시각적 신호에 따라 단일 보상 영역이 표시됩니다. 그런 다음 공간 학습은 보상 영역 바로 앞의 위치에 대한 증가된 핥기 선택성으로 측정됩니다.

  1. 두부 이식 후 수술: 이 절차는 본 저널 및 다른 저널의 다른 곳에서 자세히 설명되므로 특정 지침 7,17,18,19,20,21에 대해서는 이 문헌을 참조하십시오.
  2. 물 일정
    1. 처음 취급하기 24시간 전에 수분 제한을 수행하고(아래 참조) 습관화 또는 머리 구속 행동의 각 세션 후에 자발적 인 물 소비를 허용합니다. 습관화 기간 동안 3 일에 걸쳐 물 가용성 시간을 약 5 분으로 점진적으로 줄이고 체중이 제한 전 체중의 80 % 이하로 떨어지지 않도록 개별 마우스의 양을 조정하십시오. 매일 각 동물의 체중을 관찰하고 탈수 징후가 있는지 각 마우스의 상태를 관찰한다22. 제한 전 체중의 80%를 유지할 수 없거나 탈수된 것처럼 보이는 마우스는 연구에서 제거하고 무료 물 가용성을 제공해야 합니다.
      참고: 물 제한은 생쥐가 액체 보상을 사용하여 바퀴 위에서 달리도록 동기를 부여하고 트랙을 따라 학습된 위치를 표시하기 위해 공간 핥기를 사용하는 데 필요합니다. 이 절차에 대한 특정 지침에 따라 기관 지침이 다를 수 있으므로 사용자는 물 제한 기간 동안 동물의 건강과 복지를 보장하기 위해 개별 기관 동물 관리 위원회와 상의해야 합니다.
  3. 취급: 이식된 마우스를 매일 처리하여 인간 접촉에 익숙해지도록 한 후 제한된 임의 수를 강화제로 투여할 수 있습니다(1-5분/일, 2일에서 1주).
  4. 머리 지지대에 습관화
    1. 머리 고정 장치에 마우스를 배치하여 머리 고정 장치에 가끔씩 물 한 방울을 주어 머리 고정 장치에 더 많은 시간 동안 머리 지지대에 익숙하게하십시오.
    2. 5분의 머리 고정으로 시작하여 마우스가 최대 30분 동안 고정을 견딜 수 있을 때까지 매일 5분 단위로 지속 시간을 늘립니다. 마우스가 고군분투하거나 거의 움직이지 않는 것처럼 보이면 고정 장치에서 마우스를 제거하십시오. 그러나 마우스는 일반적으로 여러 세션 내에서 자발적으로 바퀴 위에서 달리기 시작하며, 이는 다음 단계의 훈련을 위한 준비가 되었음을 의미합니다.
      참고: 머리 지지대 아래에서 반복적으로 고군분투하거나 보상을 위해 달리고 핥지 않는 마우스는 훈련의 초기 단계로 회귀해야 하며 이러한 세 번의 교정 주기 동안 진행하지 못하면 연구에서 제외되어야 합니다( 표 1 참조).
  5. 달리기/핥기 훈련(무작위 채집)
    참고: VR 환경에서 공간 학습 작업을 수행하려면 마우스가 먼저 바퀴 위에서 달리고 가끔 보상을 받기 위해 지속적으로 핥는 법을 배워야 합니다. 조작적 동작 파라미터의 진행은 동작 ESP32 마이크로컨트롤러를 통해 제어됩니다.
    1. 조작하지 않는 보상으로 무작위 채집
      1. 임의의 시각적 요소의 경로로 그래픽 소프트웨어 GUI 프로그램을 실행하십시오(사용자 선택, 3.3단계 참조).
      2. 여러 비조작적 보상(코드 변수: isOperant=0, numRew=4, isRandRew=1)이 있는 행동 프로그램을 행동 ESP32에 업로드하여 마우스가 달리고 핥도록 조절합니다. 마우스가 세션 당 최소 20 랩 동안 달릴 때까지 20-30 분 세션으로 마우스를 실행하고 임의의 위치 (1-4 세션)에서 제공되는 보상을 핥습니다.
    2. 대체 랩에서 조작적 보상으로 무작위 채집
      1. altOpt=1(조작적/비조작적 랩 번갈아 가며)을 사용하여 행동 프로그램을 업로드하고 마우스가 비조작적 보상 영역과 조작적 보상 영역(1-4개 세션)을 모두 핥을 때까지 마우스를 훈련시킵니다.
    3. 완전 조작적 무작위 채집
      1. 4개의 조작적 랜덤 보상 영역(동작 ESP32 코드 변수: isOperant=1, numRew=4, isRandRew=1)이 있는 동작 프로그램을 업로드합니다. 이 훈련 단계가 끝날 때까지 마우스는 일관되게 달리고 전체 트랙 길이(1-4개 세션)에 걸쳐 테스트 핥기를 수행해야 합니다. 그림 4A).
  6. 공간 학습
    참고: 트랙을 따라 어두운 패널이 있는 2m 길이의 복도와 시각적 신호(0.9-1.1m 위치)로 중간에 단일 고대비 시각적 자극 패널을 선택하여 단일 시각적 신호에서 약간 떨어진 단일 숨겨진 보상 영역으로 공간 학습 실험을 수행합니다20 . 마우스는 가상 선형 트랙 환경에서 시각적 신호로부터 멀리 떨어진 곳에 위치한 보상 영역(1.5-1.8m 위치)에서 핥아야 합니다.
    1. 중앙에 단일 시각적 단서가 있는 어두운 복도의 경로로 그래픽 소프트웨어 프로그램을 실행합니다(예: 체스판, 3.3단계, 그림 3A 참조).
    2. 숨겨진 단일 보상 영역이 있는 동작 프로그램을 동작 ESP32에 업로드합니다(동작 ESP32 코드 변수: isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500}).
    3. 마우스를 머리 고정 장치에 부드럽게 놓고 핥기 주둥이를 마우스 입 바로 앞쪽 위치로 조정한 다음 마우스 휠을 프로젝션 스크린 영역의 중앙에 배치합니다. 최종 조정 후 마우스 헤드가 화면에서 ~12-15cm 떨어져 있는지 확인하십시오.
    4. Processing 스케치에서 동물의 이름을 설정한 다음 Processing IDE 에서 run을 눌러 동작 데이터 수집 및 플로팅을 시작합니다(3.4단계 참조).
    5. 30분 동안 마우스를 실행하면서 하나의 숨겨진 보상 구역과 하나의 시각적 큐 VR 복도를 이용할 수 있습니다.
    6. 오프라인: Processing 스케치 폴더에서 .txt 데이터 파일을 다운로드하고 공간 핥기 동작을 분석합니다(예: procVRbehav.m 및 vrLickByLap.m 파일이 포함된 Matlab에서).
      참고: 마우스는 처음에 전체 가상 트랙에 대해 테스트 핥기("무작위 채집")를 수행한 다음 VR 시각적 신호에 따라 보상 위치 근처에서만 선택적으로 핥기 시작해야 합니다(그림 4).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

이 오픈 소스 가상 현실 행동 설정을 통해 머리가 구속된 마우스가 가상 선형 트랙 환경을 탐색할 때 공간 학습의 판독값으로 핥는 동작을 정량화할 수 있었습니다. 생후 4개월에 남녀 모두의 C57BL/6 마우스 7마리를 제한된 수역 일정에 배치하고 먼저 VR 없이 무작위 공간 보상("무작위 채집")을 위해 바퀴 위를 달리면서 낮은 수준에서 지속적으로 핥도록 훈련했습니다. 처음에는 2m 랜덤 복도 패턴의 VR 프로젝션 스크린 설정으로 이동했을 때 성능에 영향을 미쳤지만 여러 VR 세션 내에서 이전 수준으로 돌아갔습니다(그림 4A). VR로 무작위 먹이 찾기 전략을 개발 한 마우스 (7 마리 중 6 마리, 86 %, 1 마리의 마우스는 일관되게 달리지 못하고 제외 됨)는 물 보상 ( "숨겨진 보상 작업")을 받기 위해 기능이없는 2m 가상 트랙의 중간에있는 단일 시각적 위치 신호에 따라 0.5m의 큐가없는 조작적 보상 영역을 핥아야했습니다. 이 시스템을 사용한 현재 파일럿 데이터에 따르면, 7마리 중 4마리(57%)의 마우스는 선택성이 증가하면서 보상 영역 근처를 핥는 것으로 나타난 바와 같이 2-4개의 세션에서 단일 시각적 신호로 숨겨진 보상 작업을 학습할 수 있었습니다(표 1, 그림 4B, C), 이는 비 VR 트레드밀을 사용한 이전 결과와 유사합니다17 . 이 사실은 광범위한 훈련 없이 학습의 중요한 기간 동안 신경 활동의 모니터링 및/또는 조작을 허용하기 때문에 공간 학습 연구에서 중요합니다. 또한, 마우스는 세션 내 학습뿐만 아니라 세션 간 학습(그림 4C)을 모두 나타내어 공간 학습에 수반되는 단기 및 장기 신경 회로 적응을 모두 관찰할 수 있는 기회를 제공했습니다. 우리는 동등한 비 VR 작업의 학습 속도를 테스트하지 않았지만 Morris 수중 미로와 같은 많은 고전적인 실제 해마 종속 공간 작업은 훨씬 더 광범위한 훈련이 필요하고 행동 시도가 극적으로 적기 때문에 신경 활동 변화와 함께 학습 행동을 모니터링하는 데 적합하지 않습니다.

이 파일럿 그룹의 대다수 (57 %)는 적은 수의 세션에서 숨겨진 보상 작업을 학습 할 수 있었지만 추가 마우스는 더 긴 시간 규모에 걸쳐 공간 학습을 나타낼 수 있으며 개별화 된 훈련은 마우스의이 비율을 증가시켜야합니다. 실제로, 학습률의 변화는 해마와 같은 뇌 영역의 신경 활동과 행동 학습 사이의 특정 관계를 분리하는 데 유용 할 수 있습니다. 그러나 우리는 소수의 마우스가 비 조작적 또는 조작적 보상 (7 마리의 마우스 중 하나, 14 %)을 위해 바퀴 위에서 달리거나 핥는 법을 배우지 않았기 때문에 후속 실험에 사용할 수 없다는 것을 관찰했습니다. 바람직한 음식 간식을 사용하는 것과 같은 추가 강화를 통한 추가 취급 및 습관화 및 동물의 일반적인 스트레스 상태의 감소는 이러한 동물이 바퀴에서 머리를 구속하는 동안 능동적 인 달리기 및 핥기를 채택하도록 돕는 데 유용 할 수 있습니다.

가상 트랙에서 간헐적인 랩에서 큐 및 보상 영역의 존재 및 위치를 조작함으로써, 실험자는 VR에서 특정 정보 채널에 대한 공간적으로 선택적인 핥기의 의존성을 추가로 식별하여, 예를 들어 마우스가 환경에서 자신의 위치를 설정하기 위해 로컬 또는 원격 신호 또는 자체 모션 정보에 의존하는 방법을 결정할 수 있습니다. 숨겨진 보상 위치를 학습한 마우스의 핥기 선택성은 공간 후각 신호를 사용한 최근 연구에서 보여준 것처럼 이 공간 신호를 랜드마크로 적극적으로 활용한다면 트랙을 따라 시각적 신호의 이동 또는 누락에 의해 영향을 받아야 합니다(20). 그러나 여기에 제시된 간단한 예에서도 마우스가 달성한 매우 선택적인 핥기(그림 4C, 오른쪽)는 VR 시각적 환경을 인코딩하여 마우스가 어디에 있는지, 따라서 언제 핥아야 하는지에 대한 결정을 알리기 위해 VR 시각적 환경을 인코딩한다는 것을 나타냅니다. 이 VR 시스템은 또한 후각, 촉각 및 청각 신호와 같은 시각적 VR 환경 외에도 공간 및 상황 신호의 다른 양식을 표현할 수 있도록 하며, 이는 뚜렷한 감각 신호의 복잡한 조합에 대한 신경 활동 및 행동의 선택성을 테스트하는 데 사용할 수 있습니다. 또한, 해마 활동에 대한 작업 수행의 의존성을 테스트하지는 않았지만, 유사한 작업을 사용하지만 촉각 단서를 사용한 최근 연구에서는 해마 비활성화를 통한 공간 학습의 섭동을 보여주었다23, 이는 이 연구에서 수행된 VR 숨겨진 보상 작업에 대해 확인되어야 합니다.

Figure 1
그림 1: 머리 고정 VR 하드웨어 설정: 프로젝션 스크린, 러닝 휠 및 헤드 고정 장치. (A) 주행 휠 및 프로젝션 스크린의 3D 설계 개략도. (B) VR 행동 설정을 완료했습니다. VR 환경은 (1) 단일 보드 컴퓨터에서 렌더링되고 포물선 (2) 후면 프로젝션 스크린에 투영됩니다 (Chris Harvey의 실험실 디자인15,16 기반). (3) 휠 어셈블리. (4) 헤드 포스트 홀더. (5) 보상 전달을 위한 저수지. (C) 프로젝션 스크린 및 동작 설정의 평면도. (1) LED 프로젝터. (2) 곡면 스크린에 VR 복도를 후방 투사하기 위한 거울. (3) 러닝 휠. (D) 휠 어셈블리의 후면 모습. 휠 회전은 (1) 로터리 인코더에 의해 변환되고 (2) ESP32 마이크로 컨트롤러를 통해 단일 보드 컴퓨터로 전송됩니다. (3) 이중 축 고니 오 미터는 광학 이미징을 위해 헤드 위치를 미세 조정하는 데 사용됩니다. (E) 마우스 삽입 수준에서 설정, (1) 헤드 고정 장치 및 (2) (3) 주행 휠 표면 위의 핥기 포트 배치를 보여줍니다. (F) 마우스 입 근처에 보상 주둥이를 정확하게 배치하기 위해 (1) 플렉스 암에 부착된 (2) 핥기 포트의 사진. 보상은 동작 ESP32에 의해 제어되는 (3) 솔레노이드 밸브를 통해 제공됩니다(OpenMaze OMwSmall PCB를 통해). 또한 (4) 휠 액슬과 (5) 헤드 각도 조정을 위한 고니오미터에 연결된 로터리 엔코더도 볼 수 있습니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 2
그림 2: VR 전자 장치 설정 회로도. 이 회로도는 마우스용 오픈 소스 가상 현실 시스템의 전자 부품 간의 가장 관련성이 높은 연결을 나타냅니다. (A) 마우스는 아크릴 러닝 휠 위의 맞춤형 3D 프린팅 헤드 고정 장치에 머리가 고정되어 있습니다. (B) 마우스가 작동 중일 때 휠 액슬의 회전은 마이크로 컨트롤러(로터리 디코더 ESP32)에 연결된 고해상도 로터리 엔코더에 의해 감지됩니다. (C) 움직임 정보는 HallPassVR GUI 소프트웨어 및 3D 환경을 실행하는 단일 보드 컴퓨터에 직렬 연결을 통해 전달되며, 마우스의 이동에 따라 VR 가상 선형 트랙 환경에서 위치를 업데이트합니다. (D) 렌더링된 VR 환경은 단일 보드 컴퓨터의 HDMI #2 비디오 출력(VR 비디오 HDMI)을 통해 프로젝터/스크린으로 전송됩니다. (E) 로터리 인코더 ESP32의 움직임 정보는 다른 마이크로 컨트롤러(OpenMaze OMwSmall PCB를 사용하는 동작 ESP32)로도 전송되며, 이 마이크로 컨트롤러는 마우스의 위치를 사용하여 VR 환경과 함께 공간적, 비 VR 행동 이벤트(예: 보상 영역 또는 공간 후각, 촉각 또는 청각 자극)를 제어하고 정전식 터치 감지를 통해 마우스가 보상 스파우트를 핥는 것을 측정합니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 3
그림 3: 그래픽 소프트웨어 GUI 및 동작 (A) HallPassVR GUI: 트랙 길이와 동일한 각 경로의 3개 패턴에 대해 트랙 길이의 1/3을 덮는(또는 이전에 저장된 조합 패턴이 로드됨) 각 공간 패턴 위에 타일링하기 위해 4개의 이미지가 선택됩니다. 천장 및 바닥 이미지를 선택한 다음 시작을 눌러 단일 보드 컴퓨터의 HDMI 출력(프로젝션 스크린)에서 VR 환경을 초기화합니다. (B) A에 표시된 GUI 매개변수로 생성되고 공간 학습을 테스트하기 위한 숨겨진 보상 실험에 사용된 가상 복도의 예. (C) B에 표시된 가상 환경에서 바퀴 위에서 달리는 머리에 구속된 마우스의 사진. (D) 상단 패널은 행동 데이터를 기록하고 플로팅하기 위해 포함된 프로세싱 스케치에서 VR 환경에서의 동물 행동의 온라인 플롯을 보여줍니다. 핥기, 랩 및 보상은 숨겨진 보상 공간 학습 중에 30분 세션 동안 30초 시간 빈당 표시됩니다. 하단 패널에는 동작 중 현재 마우스 위치(검은색)와 보상 영역의 위치(회색)가 표시됩니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

Figure 4
그림 4: 그래픽 소프트웨어 환경을 사용한 공간 학습. 한 동물의 대표적인 공간 핥기 데이터: (A) 가상 선형 트랙을 따라 무작위 신호로 무작위 먹이를 찾는 동안 및 (B-C) 트랙 중간에 단일 시각적 신호가 있는 1.5m의 정적 숨겨진 보상 영역을 사용한 2일 훈련. (A) 랩당 4개의 보상 구역에 대한 0일차 무작위 채집, 2m 가상 선형 트랙을 따라 균등하게 배치된 8개 위치에서 무작위로 선택됨. (왼쪽) 30분 세션 동안 공간 빈(5cm)당 평균 핥기 횟수(위: 무작위 시각적 자극 패널이 있는 VR 복도). (오른쪽) 이 세션 동안 랩당 각 5cm 공간 빈의 핥기 횟수(히트맵으로 표시됨). (B) 1일차, 위치 0.8-1.2m에서 단일 고대비 자극을 포함하는 가상 트랙을 사용하여 1.5m(트랙 다이어그램의 빨간색 상자, 상단)에서 단일 보상 영역으로 훈련한 첫날. (왼쪽) 세션 동안의 평균 공간 핥기 횟수로, 동물이 보상 영역에 접근할 때 증가하는 핥기를 보여줍니다. (오른쪽) 랩 당 공간 핥기, 사전 보상 영역에서 핥기의 선택성이 증가함을 보여줍니다. (C) 2일차, 1일차와 동일한 숨겨진 보상 작업 및 가상 복도에서 동일한 마우스에서. (왼쪽) 공간 빈당 총 핥기 수로, 사전 보상 영역 밖에서 핥기 감소를 보여줍니다. (오른쪽) 2일차에 랩당 공간적 핥기, 보상 영역 이전에 핥기 증가 및 다른 핥기 감소를 보여주며, 이는 공간적으로 특정한 예상 핥기의 발달을 나타냅니다. 이것은 이 동물이 (단서가 없는) 숨겨진 보상 위치를 학습하고 보상이 있을 것으로 예상하지 않는 지역에서 노력(핥기)을 최소화하는 전략을 개발했음을 보여줍니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.

행동 결과 쥐의 수 생쥐의 비율
마우스가 실행되지 않거나 핥지 않았습니다. 1 14%
무작위 채집만 2 29%
숨겨진 보상을 배웠습니다. 4 57%
합계(N) 7

표 1: VR 공간 학습 행동 파일럿 결과. 생후 4개월에 남녀 C57BL/6 마우스 7마리를 점진적으로 훈련시켜 VR에서 공간적 숨겨진 보상 작업을 수행했습니다. 이 생쥐 중 한 마리의 생쥐는 초기 훈련 후 달리거나 핥지 않았으며 (7 마리 중 1 마리, 14 %), 나머지 쥐 중 6 마리는 바퀴 위에서 달리고 무작위 먹이 찾기 훈련 단계에서 무작위 공간 보상을 핥는 법을 배웠습니다 (7 마리 중 6 마리, 86 %). 무작위 먹이 찾기 행동을 수행 할 수 있었던 6 마리의 마우스 중 4 마리는 숨겨진 보상 작업에서 단서가없는 보상을 예상하여 선택적으로 핥는 법을 배웠습니다 (7 마리의 쥐 중 4 마리, 총 57 마리의 쥐, 6 마리의 쥐 중 4 마리, 무작위 먹이 찾기 쥐의 66 %), 2 마리는 그렇지 않았습니다 (7 마리 중 2 마리, 29%).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

이 마우스용 오픈 소스 VR 시스템은 로터리 및 동작 ESP32 마이크로컨트롤러와 단일 보드 컴퓨터(2단계) 간에 직렬 연결이 제대로 이루어진 경우에만 작동하며, 이는 IDE 직렬 모니터(2.4.5단계)를 사용하여 확인할 수 있습니다. 이 프로토콜(4단계)의 성공적인 행동 결과를 위해 마우스는 장치에 익숙해져야 하며 액체 보상을 위해 바퀴 위에서 편안하게 달릴 수 있어야 합니다(4.3-4.5단계). 이것은 홈케이지에서 임의로 물을 받은 쥐가 보상을 위해 달리거나 핥지 않고(즉, 인지된 위치를 나타내기 위해) 탈수된 쥐가 무기력하고 바퀴 위에서 뛰지 않을 수 있기 때문에 충분한(그러나 과도하지는 않은) 물 제한이 필요합니다. 또한 물 제한 없이 마우스 행동에 동기를 부여하는 대체 방법이 있다는 점도 주목할 가치가 있습니다(24). 그러나 여기서는 이러한 방법을 테스트하지 않았습니다. 훈련 절차를 위해, 초기에 달리지 않는 동물은 부착 된 선택적 버튼 누름을 통해 실험자에 의해 임시 (즉, 비 공간적) 물 보상을 받거나 바퀴가 부드럽게 움직여 이동을 장려 할 수 있습니다. 무작위 먹이 찾기 행동을 개발하기 위해, 달리지만 핥지 않는 마우스는 보상을 위해 달리고 핥을 때까지 비조작적 보상(행동 ESP32 코드: isOperant = 0;, 단계 4.5.1)으로 실행되어야 하며, 그런 다음 비조작적 및 조작적 보상 영역(altOpt=1; 4.5.2 단계) 완전히 조작 된 무작위 보상 영역으로 이동하기 전에 조작 랩을 핥기 시작할 때까지(4.5.3 단계).

한 가지 형태의 공간 학습(가상 선형 트랙 환경의 숨겨진 보상 위치에서 조건 핥기)을 도출하기 위한 기본 실험 세트에 대한 완전한 지침과 예제 결과를 제공했지만, Raspberry Pi용 pi3d Python 패키지를 사용하여 보다 복잡한 시공간 환경을 제공하기 위해 동일한 기본 하드웨어 및 소프트웨어 설정을 수정할 수도 있습니다. 예를 들어, 이 시스템은 길이가 가변적인 복도, 다중 패턴 및 3D 개체, 자연주의적 3D VR 풍경과 같은 보다 복잡한 미로를 통합할 수 있습니다. 또한, 물 보상 및 기타 비시각적 자극을 전달하기 위한 행동 소프트웨어는 주요 변수(행동 ESP32 코드의 시작 부분에 표시됨)를 변경하거나 동일한 코드에 새로운 유형의 공간 이벤트를 삽입하여 다른 훈련 패러다임에 맞게 수정할 수 있습니다. 이 VR 설정을 사용하여 다른 유형의 행동 실험을 구현하거나 문제 해결에 대해 사용자에게 조언해 드리게 되어 기쁩니다.

몰입형 VR 환경은 임상 및 동물 연구에서 공간 내비게이션6,7,8, 보상 학습 행동9 및 시각적 지각25의 기본 신경 메커니즘을 연구하기 위한 다재다능한 도구임이 입증되었습니다. 이 접근법의 주요 장점은 실험자가 시각적 단서 및 특정 공간 자극 (예 : 보상 및 후각, 청각 또는 촉각 자극)과 같은 문맥 요소를 엄격하게 제어 할 수 있다는 것입니다. 그러나 VR 환경이 실제 환경의 사용과 비교할 때 해마와 같은 뇌 영역에 의해 인코딩되는 방식에 차이가 존재할 수 있다는 점에 유의해야 합니다(26,27). 이러한 경고와 함께 VR 환경을 사용하면 실험자가 신중하게 제어된 자극으로 많은 행동 시도를 수행할 수 있으므로 공간 탐색에 대한 뚜렷한 감각 요소의 기여도를 분리할 수 있습니다.

커스텀 VR 셋업을 구축하는 복잡성으로 인해 엔지니어링 및 컴퓨터 프로그래밍에 대한 광범위한 배경 지식이 필요한 경우가 많으며, 이로 인해 셋업 시간이 늘어나고 실험을 위해 마우스를 훈련시키기 위해 구성할 수 있는 장치의 수가 제한될 수 있습니다. VR 설정은 상용 공급 업체에서도 사용할 수 있습니다. 그러나 이러한 솔루션은 사용자가 새로운 기능을 구현하거나 교육/기록 용량을 둘 이상의 설정으로 확장하려는 경우 비용이 많이 들고 제한적일 수 있습니다. 여기에 제시된 오픈 소스 VR 설정의 예상 가격 범위는 <$1,000(USD)입니다. 그러나 훈련을 위한 단순화된 버전(예: 머리 각도 조정을 위한 고니오미터가 없음)을 <$500(USD)에 생산할 수 있으므로 더 큰 규모로 마우스를 훈련하기 위한 여러 설정을 구성할 수 있습니다. 구성 요소의 모듈식 배열은 또한우리가 이전에 사용했던 공간 후각 및 촉각 자극이 있는 트레드밀 시스템과 같은 행동 제어를 위한 다른 시스템과 VR의 통합을 허용하므로 VR 및 기타 자극 양식은 상호 배타적이지 않습니다.

관련 하드웨어(런닝 휠, 프로젝션 스크린 및 헤드 고정 장치), 전자 장치 설정(단일 보드 컴퓨터 및 ESP32 마이크로컨트롤러) 및 소프트웨어(VR GUI 및 동작 코드)가 포함된 이 오픈 소스 VR 시스템은 머리가 제한된 공간 탐색 중에 파라미터화된 몰입형 VR 환경을 마우스에 제공하기 위한 저렴하고 컴팩트하며 사용하기 쉬운 설정을 제공합니다. 이 동작은 공간 학습 동안 신경 활동을 검사하기 위해 신경 이미징 또는 전기 생리학적 기록과 동기화될 수 있습니다(단계 2.3.7). VR과 호환되는 실험 기술의 스펙트럼은 공간 학습 행동 단독에서 광섬유 측광, 미니스코프 이미징, 단일 광자 및 다중 광자 이미징, 전기 생리학적 기술(예: 신경 픽셀 또는 세포 내 기록)과의 조합에 이르기까지 광범위합니다. 이러한 기록 기술 중 일부에는 머리 지지대가 필요하지만 자극 표현의 매우 정확한 특성과 행동의 고정 관념적 특성은 미니스코프 이미징 및 광섬유 측광과 같이 머리 고정이 필요하지 않은 다른 기술에도 유용할 수 있습니다. 그러나 핥기를 감지하기 위한 정전식 센서 기반 솔루션은 전기생리학적 흔적에 상당한 노이즈를 유발할 수 있다는 점에 유의해야 합니다. 이러한 인공물을 피하기 위해, 광학 또는 기타(예를 들어, 기계적), 센서 기반 솔루션이 핥기 검출을 위해 구현되어야 한다.

VR 시스템에 대한 향후 개선 사항은 프로젝트 GitHub 페이지(https://github.com/GergelyTuri/HallPassVR)에 업로드될 예정이므로 사용자는 이 페이지에서 정기적으로 업데이트를 확인해야 합니다. 예를 들어, 우리는 마이크로 컨트롤러와 단일 보드 컴퓨터 간의 유선 직렬 연결을 Bluetooth 기능으로 교체하는 과정에 있으며, 이는 이 설계에서 이미 사용된 ESP32 마이크로 컨트롤러에 기본입니다. 또한 HallPassVR GUI를 업그레이드하여 각 행동 세션에서 서로 다른 경로를 지정하여 서로 다른 랩에서 주요 랜드마크 시각적 자극에 대한 서로 다른 위치를 포함할 수 있도록 할 계획입니다. 이렇게 하면 공간 학습 중에 공간의 신경 인코딩에 대한 특정 시각적 및 문맥적 특징의 영향을 분리할 수 있는 더 큰 유연성이 허용됩니다.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Clay Lacefield는 이 프로토콜에 사용되는 OMwSmall PCB용 설계를 무료로 다운로드할 수 있는 OpenMaze.org 의 창립자이자 유지 관리자입니다.

Acknowledgments

이 원고에서 프로토콜을 개발하는 동안 토론과 제안에 대해 Harvey 연구실의 Noah Pettit에게 감사드립니다. 이 작업은 NINDS R56NS128177(RH, CL) 및 NIMH R01MH068542(RH) 외에도 BBRF Young Investigator Award 및 NIMH 1R21MH122965(GFT)의 지원을 받았습니다.

Materials

Name Company Catalog Number Comments
1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

DOWNLOAD MATERIALS LIST

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. Pettit, N., et al. Harvey Lab Mouse VR. , Available from: https://github.com/Harvey/Lab/mouseVR (2021).
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Tags

신경 과학 문제 193
머리가 구속된 마우스의 공간 학습 측정을 위한 오픈 소스 가상 현실 시스템An open-source virtual reality system for the measurement of spatial learning in head-trained mice
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Lacefield, C., Cai, H., Ho, H.,More

Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter