Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Система виртуальной реальности с открытым исходным кодом для измерения пространственного обучения у мышей с ограниченной головой

Published: March 3, 2023 doi: 10.3791/64863

Summary

Здесь мы представляем упрощенную аппаратную и программную установку с открытым исходным кодом для исследования пространственного обучения мыши с использованием виртуальной реальности (VR). Эта система отображает виртуальную линейную дорожку для мыши с головой, работающей на колесе, используя сеть микроконтроллеров и одноплатный компьютер, на котором работает простой в использовании графический программный пакет Python.

Abstract

Поведенческие эксперименты с головой на мышах позволяют нейробиологам наблюдать активность нейронных цепей с помощью электрофизиологических и оптических инструментов визуализации с высоким разрешением, доставляя точные сенсорные стимулы ведущему себя животному. Недавние исследования на людях и грызунах с использованием сред виртуальной реальности (VR) показали, что VR является важным инструментом для раскрытия нейронных механизмов, лежащих в основе пространственного обучения в гиппокампе и коре, благодаря чрезвычайно точному контролю над такими параметрами, как пространственные и контекстуальные сигналы. Однако создание виртуальных сред для пространственного поведения грызунов может быть дорогостоящим и требует обширного опыта в области инженерии и компьютерного программирования. Здесь мы представляем простую, но мощную систему, основанную на недорогом модульном аппаратном и программном обеспечении с открытым исходным кодом, которая позволяет исследователям изучать пространственное обучение у мышей с ограниченной головой с использованием среды виртуальной реальности. Эта система использует связанные микроконтроллеры для измерения локомоции и доставки поведенческих стимулов, в то время как мыши с головой работают на колесе в сочетании с виртуальной линейной средой трека, визуализируемой графическим программным пакетом, работающим на одноплатном компьютере. Акцент на распределенной обработке позволяет исследователям разрабатывать гибкие модульные системы для выявления и измерения сложного пространственного поведения у мышей, чтобы определить связь между активностью нейронных цепей и пространственным обучением в мозге млекопитающих.

Introduction

Пространственная навигация — это этологически важное поведение, с помощью которого животные кодируют особенности новых мест в когнитивную карту, которая используется для поиска областей возможного вознаграждения и избегания областей потенциальной опасности. Неразрывно связанные с памятью когнитивные процессы, лежащие в основе пространственной навигации, имеют общий нейронный субстрат в гиппокампе1 и коре головного мозга, где нейронные цепи в этих областях интегрируют поступающую информацию и формируют когнитивные карты окружающей среды и событий для последующего вспоминания2. В то время как открытие клеток места в гиппокампе3,4 и клеток сетки в энторинальной коре5 пролило свет на то, как формируется когнитивная карта в гиппокампе, остается много вопросов о том, как конкретные нейронные подтипы, микросхемы и отдельные субрегионы гиппокампа (зубчатая извилина и области рогового аммониса, CA3-1) взаимодействуют и участвуют в формировании пространственной памяти и воспоминании.

Двухфотонная визуализация in vivo была полезным инструментом для выявления клеточной и популяционной динамики в сенсорной нейрофизиологии 6,7; Однако типичная необходимость в подголовниках ограничивает полезность этого метода для изучения пространственного поведения млекопитающих. Появление виртуальной реальности (VR)8 устранило этот недостаток, представив иммерсивные и реалистичные зрительно-пространственные среды, в то время как мыши с головой бегают по мячу или беговой дорожке для изучения пространственного и контекстуального кодирования в гиппокампе 8,9,10 и коре11. Кроме того, использование сред виртуальной реальности с ведущими себя мышами позволило исследователям в области нейробиологии анализировать компоненты пространственного поведения, точно контролируя элементы средывиртуальной реальности 12 (например, визуальный поток, контекстуальную модуляцию) способами, невозможными в реальных экспериментах по пространственному обучению, таких как водный лабиринт Морриса, лабиринт Барнса или задачи на доске с отверстиями.

Визуальные среды виртуальной реальности обычно визуализируются на графическом процессоре (GPU) компьютера, который обрабатывает нагрузку быстрого вычисления тысяч полигонов, необходимых для моделирования движущейся 3D-среды на экране в режиме реального времени. Большие требования к обработке, как правило, требуют использования отдельного ПК с графическим процессором, который отображает визуальную среду на мониторе, нескольких экранах13 или проекторе14 , поскольку движение записывается с беговой дорожки, колеса или пенопластового мяча под животным. Таким образом, полученное устройство для управления, рендеринга и проецирования среды виртуальной реальности является относительно дорогим, громоздким и громоздким. Кроме того, многие такие среды в литературе были реализованы с использованием проприетарного программного обеспечения, которое является дорогостоящим и может быть запущено только на выделенном ПК.

По этим причинам мы разработали систему виртуальной реальности с открытым исходным кодом для изучения поведения пространственного обучения у мышей с ограниченной головой с использованием одноплатного компьютера Raspberry Pi. Этот компьютер с Linux маленький и недорогой, но содержит чип графического процессора для 3D-рендеринга, что позволяет интегрировать среды виртуальной реальности с дисплеем или поведенческим устройством в различных индивидуальных настройках. Кроме того, мы разработали графический программный пакет, написанный на Python, «HallPassVR», который использует одноплатный компьютер для рендеринга простой визуально-пространственной среды, виртуальной линейной дорожки или коридора, путем рекомбинации пользовательских визуальных функций, выбранных с помощью графического пользовательского интерфейса (GUI). Это сочетается с микроконтроллерными подсистемами (например, ESP32 или Arduino) для измерения локомоции и координации поведения, например, путем доставки других модальностей сенсорных стимулов или вознаграждений для облегчения обучения с подкреплением. Эта система предоставляет недорогой, гибкий и простой в использовании альтернативный метод доставки зрительно-пространственных сред виртуальной реальности мышам с ограниченной головой во время двухфотонной визуализации (или других методов, требующих фиксации головы) для изучения нейронных цепей, лежащих в основе поведения пространственного обучения.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Все процедуры в этом протоколе были одобрены Комитетом по уходу за животными и их использованию Психиатрического института штата Нью-Йорк.

ПРИМЕЧАНИЕ: Одноплатный компьютер используется для отображения визуальной среды виртуальной реальности, согласованной с бегом мыши с головой на колесе. Информация о движении поступает в виде последовательного ввода от микроконтроллера ESP32, считывающего поворотный энкодер, соединенный с осью колеса. Среда VR визуализируется с использованием аппаратного ускорения OpenGL на графическом процессоре Raspberry Pi, который использует пакет pi3d Python 3D для Raspberry Pi. Затем визуализированная среда выводится через проектор на компактный закругленный параболический экран, центрированный на поле зрениямыши 15,16, в то время как поведение (например, облизывание в ответ на пространственное вознаграждение) измеряется вторым микроконтроллером поведения ESP32. Графический программный пакет позволяет создавать виртуальные линейные дорожные среды, состоящие из повторяющихся шаблонов визуальных стимулов вдоль виртуального коридора или коридора с графическим пользовательским интерфейсом (GUI). Эта конструкция легко параметризуется, что позволяет проводить сложные эксперименты, направленные на понимание того, как мозг кодирует места и визуальные сигналы во время пространственного обучения (см. раздел 4). Проекты пользовательских аппаратных компонентов, необходимых для этой системы (т. е. ходового колеса, проекционного экрана и подголовника), хранятся в общедоступном репозитории GitHub (https://github.com/GergelyTuri/HallPassVR). Рекомендуется ознакомиться с документацией этого репозитория вместе с этим протоколом, так как сайт будет обновляться с учетом будущих улучшений системы.

1. Аппаратная настройка: конструкция ходового колеса, проекционного экрана и аппарата для фиксации головы

ПРИМЕЧАНИЕ: Пользовательские компоненты для этих установок могут быть легко изготовлены, если пользователь имеет доступ к оборудованию для 3D-печати и лазерной резки, или могут быть переданы на аутсорсинг профессиональному производству или услугам 3D-прототипирования (например, eMachinehop). Все файлы дизайна предоставляются в формате . Файлы STL 3D или . DXF файлы AutoCAD.

  1. Беговое колесо и поведенческая установка (рис. 1)
    ПРИМЕЧАНИЕ: Колесо состоит из прозрачного акрилового цилиндра (6 в диаметре, 3 в ширину, 1/8 в толщину), центрированного на оси, подвешенной к акриловым креплениям, вырезанным лазером с помощью шарикоподшипников. Затем колесо в сборе крепится к легкой алюминиевой раме (с Т-образными пазами) и надежно закрепляется на оптической макетной плате (рис. 1C-E).
    1. Вырежьте лазером боковые стороны колеса и крепления оси из акрилового листа толщиной 1/4 дюйма и прикрепите боковые стороны колеса к акриловому цилиндру с помощью акрилового цемента. Вкрутите фланец оси в центр боковой части колеса.
    2. Вставьте ось в центральный фланец колеса, вставьте шарикоподшипники в опоры оси и прикрепите их к вертикальной алюминиевой опорной планке.
    3. Вставьте ось колеса в установленные шарикоподшипники, оставив 0.5-1 дюйм оси за подшипниками для крепления поворотного энкодера.
    4. Прикрепите крепление поворотного энкодера к концу оси напротив колеса и вставьте поворотный энкодер; Затем с помощью муфты вала соедините ось колеса с валом поворотного энкодера.
    5. Прикрепите отверстие для лизания к гибкому рычагу, а затем прикрепите к алюминиевой раме колеса с помощью гаек с Т-образным пазом. Используйте трубку 1/16 дюйма для подключения отверстия к электромагнитному клапану и клапана к резервуару для воды.
      ПРИМЕЧАНИЕ: Порт облизывания должен быть изготовлен из металла с припаянным проводом, чтобы прикрепить его к емкостным контактным контактам поведения ESP32.
  2. Проекционный экран
    ПРИМЕЧАНИЕ: Экран VR представляет собой небольшой параболический экран обратной проекции (размер холста: 54 см x 21,5 см), основанный на дизайне, разработанном в лаборатории КристофераХарви 15,16. Угол проецирования (трапецеидальное искажение) используемого светодиодного проектора отличается от угла лазерного проектора, используемого ранее; таким образом, первоначальная конструкция немного изменена за счет монтажа блока под экраном и упрощения зеркальной системы (рис. 1А, Б). Настоятельно рекомендуется прочитать документацию лаборатории Харви вместе с нашей, чтобы адаптировать среду виртуальной реальности к потребностям пользователя15.
    1. Лазерная резка сторон проекционного экрана из 1/4 черных матовых акриловых листов. Вырежьте лазером зеркало обратной проекции из 1/4 зеркального акрила.
    2. Соберите раму проекционного экрана с алюминиевыми стержнями и вырежьте акриловые панели лазером.
    3. Вставьте полупрозрачный материал проекционного экрана в параболический паз в раме. Вставьте зеркало обратной проекции в прорезь в задней части рамы проекционного экрана.
    4. Поместите светодиодный проектор на нижнюю монтажную пластину внутри рамы проекционного экрана. Совместите проектор с помощью крепежных болтов, чтобы оптимизировать позиционирование проецируемого изображения на параболический экран обратной проекции.
    5. При необходимости запечатайте блок проектора, чтобы предотвратить световое загрязнение оптических датчиков.
  3. Устройство подголовника
    ПРИМЕЧАНИЕ: Данная конструкция подголовника состоит из двух взаимосвязанных коллекторов, напечатанных на 3D-принтере, для крепления металлической стойки головы (рис. 1E, F).
    1. Используя 3D-принтер SLM с высоким разрешением, напечатайте на 3D-принтере головную стойку, держащую руки.
      ПРИМЕЧАНИЕ: Пластик, напечатанный смолой, способен обеспечить стабильную фиксацию головы для поведенческих экспериментов; однако для достижения максимальной стабильности для чувствительных приложений, таких как одноклеточная запись или двухфотонная визуализация, рекомендуется использовать обработанные металлические детали (например, eMachineShop).
    2. Установите держатель головного столба, напечатанный на 3D-принтере, на двухосевой гониометр с оптическими крепежными стойками, чтобы голову животного можно было наклонить, чтобы выровнять препарат.
      ПРИМЕЧАНИЕ: Эта функция незаменима для длительных экспериментов по визуализации in vivo, когда требуется найти ту же популяцию клеток в последующих сеансах визуализации. В противном случае эта функция может быть опущена, чтобы снизить стоимость настройки.
    3. Изготовьте головные стойки.
      ПРИМЕЧАНИЕ: Два типа головных постов разной сложности (и цены) указаны по ссылке, приведенной в Таблице материалов вместе с этой инструкцией.
      1. В зависимости от типа эксперимента решите, какой головной пост реализовать. Головные стержни изготовлены из нержавеющей стали и, как правило, передаются на аутсорсинг в любую местную механическую мастерскую или онлайн-сервис (например, eMachineShop) для производства.

2. Настройка аппаратного/программного обеспечения электроники (одноплатный компьютер, микроконтроллеры ESP32, рис. 2)

  1. Настройте одноплатный компьютер.
    ПРИМЕЧАНИЕ: Одноплатный компьютер, включенный в таблицу материалов (Raspberry Pi 4B), оптимален для этой установки, поскольку он имеет встроенный графический процессор для облегчения рендеринга среды VR и два порта HDMI для управления / мониторинга эксперимента и проецирования VR. Другие одноплатные компьютеры с такими характеристиками потенциально могут быть заменены, но некоторые из следующих инструкций могут быть специфичны для Raspberry Pi.
    1. Загрузите приложение одноплатного компьютерного имиджера на ПК и установите ОС (в настоящее время Raspberry Pi OS r.2021-05-07) на карту microSD (16+ ГБ). Вставьте плату и загрузите одноплатный компьютер.
    2. Настройте одноплатный компьютер для библиотеки pi3d Python 3D: (строка меню) Настройки > Конфигурация Raspberry Pi.
      1. Нажмите « Дисплей» > «Гашение экрана» > «Отключить».
      2. Нажмите « Интерфейсы» > «Последовательный порт» > «Включить».
      3. Нажмите « Производительность > памяти графического процессора > 256 (МБ).
    3. Обновите пакет библиотеки изображений Python для pi3d: (terminal)> sudo pip3 install pillow --upgrade.
    4. Установите пакет pi3d Python 3D для одноплатного компьютера: (терминал)> sudo pip3 install pi3d.
    5. Увеличьте уровень выходного сигнала HDMI для проектора: (терминал)> sudo nano /boot/config.txt, раскомментировать config_hdmi_boost=4, сохранить и перезагрузить.
    6. Скачайте и установите интегрированную среду разработки (IDE) с arduino.cc/en/software (например, arduino-1.8.19-linuxarm.tar.gz), которая необходима для загрузки кода на поворотный энкодер и поведенческие микроконтроллеры ESP32.
    7. Установите поддержку микроконтроллера ESP32 в среде IDE:
      1. Нажмите « Настройки > файла» > дополнительные URL-адреса Board Manager = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Нажмите « Инструменты > платы» > «Диспетчер досок» > ESP32 (от Espressif). Установите v.2.0.0 (загрузка в настоящее время не удалась в v2.0.4).
    8. Загрузите и установите интегрированную среду разработки обработки из https://github.com/processing/processing4/releases (например, processing-4.0.1-linux-arm32.tgz), которая необходима для записи и онлайн-построения графика поведения мыши во время виртуальной реальности.
      ПРИМЕЧАНИЕ: При желании среды Arduino и Processing могут быть запущены на отдельном ПК от одноплатного компьютера VR.
  2. Настройте соединения энкодера поворота ESP32.
    ПРИМЕЧАНИЕ: Энкодер поворота, соединенный с осью колеса, измеряет вращение колеса с помощью передвижения мыши, которое подсчитывается с помощью микроконтроллера ESP32. Затем изменения положения отправляются на последовательный порт GPIO одноплатного компьютера для управления движением через виртуальную среду с помощью графического программного пакета, а также на поведение ESP32 для управления зонами вознаграждения (рис. 2).
    1. Подсоедините провода между компонентом поворотного энкодера и поворотным ESP32. Поворотные энкодеры обычно имеют четыре провода: +, GND, A и B (две цифровые линии для квадратурных энкодеров). Подключите их через перемычки к ESP32 3,3 В, GND, 25, 26 (в случае прилагаемого кода).
    2. Подключите последовательные провода RX/TX между поворотным ESP32 и поведением ESP32. Выполните простое двухпроводное соединение между поворотным портом ESP32 Serial0 RX/TX (прием/передача) и портом Serial2 поведения ESP32 (TX/RX, контакты 17, 16; см. порт Serial2 справа от печатной платы OMwSmall). Это будет передавать информацию о движении от поворотного энкодера к настройке поведения для пространственных зон, таких как зоны вознаграждения.
    3. Подключите последовательные провода RX/TX между поворотным ESP32 и GPIO одноплатного компьютера (или прямое USB-соединение). Установите двухпроводное соединение между контактами GPIO 14, 15 (RX/TX) одноплатного компьютера и поворотным ESP32 Serial2 (TX/RX, контакты 17, 16). Это будет передавать информацию о движении от поворотного энкодера к графическому пакету программного обеспечения, работающему на одноплатном компьютере.
      ПРИМЕЧАНИЕ: Этот шаг необходим только в том случае, если поворотный ESP32 не подключен через USB (т.е. это последовательное соединение GPIO в «/dev/ttyS0»), но в противном случае код HallPassVR_wired.py должен быть изменен для использования «/dev/ttyUSB0». Это проводное соединение будет заменено беспроводным соединением Bluetooth в будущих версиях.
    4. Подключите поворотный USB-накопитель ESP32 к USB-порту одноплатного компьютера (или другому компьютеру, на котором запущена среда IDE), чтобы загрузить исходный код поворотного энкодера.
  3. Настройте поведение ESP32 соединений с поведенческим оборудованием (через печатную плату OpenMaze).
    ПРИМЕЧАНИЕ: Поведенческий микроконтроллер ESP32 будет управлять всеми взаимодействиями животных, не относящимися к виртуальной реальности (доставка стимулов и вознаграждений, отличных от виртуальной реальности, обнаружение облизывания мыши), которые подключаются через общую «коммутационную плату» печатной платы для ESP32, «OMwSmall», конструкции которой доступны на веб-сайте OpenMaze (www.openmaze.org). Печатная плата содержит электронные компоненты, необходимые для управления электромеханическими компонентами, такими как электромагнитные клапаны, используемые для подачи жидких вознаграждений.
    1. Подключите жидкостный электромагнитный клапан 12 В к выходу микросхемы ULN2803 в крайнем левом углу печатной платы OMwSmall (контакт 12 в примере настройки и кода). Эта микросхема затворяет питание 12 В на электромагнитном клапане вознаграждения, управляемом выходом GPIO на поведенческом микроконтроллере ESP32.
    2. Подключите порт lick к сенсорному вводу ESP32 (например, T0, GPIO4 в примере кода). ESP32 имеет встроенное емкостное сенсорное распознавание на определенных контактах, которое код поведения ESP32 использует для обнаружения облизывания мышью прикрепленного металлического порта лизания во время поведения VR.
    3. Подключите последовательные провода RX/TX между поведением ESP32 Serial2 (контакты 16, 17) и поворотным энкодером ESP32 Serial0 (см. этап 2.2.2).
    4. Подключите USB к USB-порту одноплатного компьютера (или другого ПК), чтобы загрузить новые программы в поведение ESP32 для различных экспериментальных парадигм (например, количество/расположение зон вознаграждения) и захватить данные о поведении с помощью прилагаемого эскиза обработки.
    5. Подключите настенный адаптер постоянного тока 12 В к разъему 2.1 мм на печатной плате ESP32 OMwSmall, чтобы обеспечить питание электромагнитного клапана вознаграждения.
    6. Подключите выход HDMI #2 одноплатного компьютера к порту HDMI проектора; это перенесет среду виртуальной реальности, визуализированную графическим процессором одноплатного компьютера, на проекционный экран.
    7. (необязательно) Подключите провод синхронизации (контакт 26) к установке нейронной визуализации или электрофизиологической записи. Транзисторно-транзисторно-логический (TTL) сигнал 3,3 В будет отправляться каждые 5 с для выравнивания систем с точностью до миллисекунды.
  4. Настройка программного обеспечения: Загрузите прошивку/программное обеспечение на поворотный энкодер ESP32 (рис. 2B) и поведение ESP32 (рис. 2E) с помощью среды IDE и загрузите программное обеспечение VR Python на одноплатный компьютер. См. https://github.com/GergelyTuri/HallPassVR/software.
    1. Сначала подключите поворотный энкодер ESP32 к USB-порту одноплатного компьютера - ОС автоматически назовет его «/dev/ttyUSB0».
    2. Загрузите код кодировщика поворота: откройте файл RotaryEncoder_Esp32_VR.ino в среде IDE, а затем выберите ESP32 в разделе " Сервис > платы" > модуле разработки ESP32. Выберите порт ESP32, щелкнув « Инструменты» > «Порт» > /dev/ttyUSB0, а затем нажмите « Загрузить».
    3. Затем подключите поведение ESP32 к USB-порту одноплатного компьютера - это будет называться «/dev/ttyUSB1» в ОС.
    4. Загрузите код последовательности поведения в поведение ESP32 (IDE, ESP32 Dev Module уже выбран), затем нажмите «Инструменты» > «Порт» > /dev/ttyUSB1 и нажмите «Загрузить»: wheel_VR_behavior.ino.
    5. Проверьте последовательные соединения, выбрав последовательный порт для каждого ESP32 в среде IDE (Tools > Port > /dev/ttyUSB0 или /dev/ttyUSB1), а затем щелкнув Tools > Serial Monitor (скорость передачи данных: 115 200), чтобы увидеть последовательный выход с поворотной платы (USB0) или платы поведения (USB1). Поверните колесо, чтобы увидеть необработанный выходной сигнал движения от поворотного ESP32 на USB0 или отформатированный выходной сигнал движения от поведения ESP32 на USB1.
    6. Загрузите графический программный пакет Python code из https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR (в /home/pi/Documents). Эта папка содержит все файлы, необходимые для запуска графического пакета программного обеспечения, если пакет pi3d Python3 был правильно установлен ранее (этап 2.1).

3. Запуск и тестирование графического программного пакета

ПРИМЕЧАНИЕ: Запустите графический программный пакет GUI, чтобы инициировать среду линейного трека VR, откалибровать расстояния в программном обеспечении VR и коде поведения ESP32, а также протестировать получение и онлайн-построение графика поведения мыши при беге и облизывании с помощью прилагаемого эскиза языка обработки.

  1. Откройте окно терминала на одноплатном компьютере и перейдите в папку HallPassVR (terminal:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)
  2. Запустите VR GUI: (terminal)> python3 HallPassVR_GUI.py (откроется окно GUI, рисунок 3A).
  3. Графический интерфейс программного обеспечения
    1. Выберите и добавьте четыре элемента (изображения) из списка (или выберите предварительно сохраненный шаблон ниже, а затем нажмите « Загрузить») для каждого из трех шаблонов вдоль дорожки, а затем нажмите « Создать».
      ПРИМЕЧАНИЕ: Новые файлы изображений (.jpeg) могут быть помещены в папку HallPassVR/HallPassVR_wired/images/ELEMENTS перед запуском графического интерфейса.
    2. Выберите изображения пола и потолка из выпадающих меню и задайте длину дорожки равной 2 м для этого примера кода (она должна равняться trackLength в миллиметрах [мм] в коде поведения ESP32 и коде обработки).
    3. При желании назовите этот шаблон (он будет храниться в HallPassVR_wired/images/PATH_HIST).
    4. Нажмите кнопку « Пуск » (подождите, пока не запустится окно VR, прежде чем нажимать в другом месте). Среда VR появится на экране #2 (проекционный экран, рисунок 3B, C).
  4. Запустите скетч «Обработка», чтобы получить и отобразить поведенческие данные/движение.
    1. Откройте файл VRwheel_RecGraphSerialTxt.pde в интегрированной среде разработки.
    2. Измените animal = "yourMouseNumber"; и установите sessionMinutes равным продолжительности поведенческого сеанса в минутах.
    3. Нажмите кнопку "Выполнить" в интегрированной среде разработки.
    4. Проверьте окно графика обработки, в котором должно отображаться текущее положение мыши на виртуальной линейной трассе при вращении колеса, а также зоны вознаграждений и беговые гистограммы облизывания, кругов и наград, обновляемые каждые 30 секунд (рис. 3D). Переместите беговое колесо вручную, чтобы имитировать работу мыши для тестирования, или используйте тестовую мышь для первоначальной настройки.
    5. Нажмите на окно графика и нажмите клавишу q на клавиатуре, чтобы остановить получение поведенческих данных. Текстовый файл поведенческих событий и времени (обычно размером <2 МБ за сеанс) и изображение конечного окна графика (.png) сохраняются, когда sessionMinutes истекает или пользователь нажимает клавишу q для выхода.
      ПРИМЕЧАНИЕ: Из-за небольшого размера выходных файлов .txt подсчитано, что на SD-карте одноплатного компьютера может храниться не менее нескольких тысяч записей поведения. Файлы данных могут быть сохранены на флэш-накопителе для последующего анализа или, если они подключены к локальной сети, данными можно управлять удаленно.
  5. Откалибруйте длину дорожки поведения с помощью длины дорожки VR.
    1. Продвигайте колесо вручную, наблюдая за коридором VR и положением мыши (на графике обработки). Если коридор VR заканчивается до/после того, как мышь достигнет конца графика поведения, увеличивайте/уменьшайте длину дорожки VR постепенно ( HallPassVR_wired.py, corridor_length_default, в сантиметрах [см]) до тех пор, пока дорожка не будет сброшена одновременно в двух системах.
      ПРИМЕЧАНИЕ: Код в настоящее время откалиброван для ходового колеса диаметром 6 дюймов с использованием 256-позиционного квадратурного поворотного энкодера, поэтому пользователю, возможно, придется изменить код VR (HallPassVR_wired.py, corridor_length_default, в сантиметрах [см]) и код поведения (wheel_VR_behavior.ino, trackLength, в миллиметрах [мм]), чтобы учесть другие конфигурации. Поведенческая позиция, однако, сбрасывается на каждом круге VR, чтобы поддерживать соответствие между системами.

4. Дрессировка мышей и поведение при пространственном обучении

ПРИМЕЧАНИЕ: Мышей имплантируют для фиксации головы, приучают к подголовнику, а затем обучают бегать по колесу и последовательно облизываться для получения жидкого вознаграждения постепенно («случайное кормление»). Мыши, которые достигают последовательного бега и облизывания, затем обучаются на пространственной скрытой задаче вознаграждения с использованием среды виртуальной реальности, в которой одна зона вознаграждения представлена после визуальной подсказки на виртуальной линейной дорожке. Затем пространственное обучение измеряется как повышенная избирательность облизывания позиций непосредственно перед зоной вознаграждения.

  1. Постимплантационная операция на голове: Эта процедура подробно описана в других разделах этого журнала и в других журналах, поэтому обратитесь к этой литературе для получения конкретных инструкций 7,17,18,19,20,21.
  2. Водный график
    1. Выполняйте ограничение воды за 24 часа до первой обработки (см. Ниже) и разрешайте потребление воды ad libitum после каждого сеанса привыкания или сдержанного поведения головы. Постепенно уменьшайте время доступности воды в течение трех дней во время привыкания примерно до 5 минут и корректируйте количество для отдельных мышей таким образом, чтобы их масса тела не опускалась ниже 80% от их веса до ограничения. Ежедневно следите за весом каждого животного, а также наблюдайте за состоянием каждой мыши на наличие признаков обезвоживания22. Мыши, которые не могут поддерживать 80% своей массы тела до ограничения или выглядят обезвоженными, должны быть исключены из исследования и им должна быть предоставлена свободная вода.
      ПРИМЕЧАНИЕ: Ограничение воды необходимо, чтобы мотивировать мышей бегать на колесе, используя жидкие награды, а также использовать пространственное облизывание в качестве указания изученных мест вдоль трассы. Институциональные руководящие принципы могут отличаться в отношении конкретных инструкций для этой процедуры, поэтому пользователь должен проконсультироваться со своими отдельными институциональными комитетами по уходу за животными, чтобы обеспечить здоровье и благополучие животных во время ограничения воды.
  3. Обращение: Ежедневно обрабатывайте имплантированных мышей, чтобы приучить их к контакту с человеком, после чего в качестве подкрепления можно вводить ограниченную воду ad libitum (от 1 до 5 минут / день, от 2 дней до 1 недели).
  4. Привыкание к подголовнику
    1. Приучайте мышей к подголовнику в течение большего количества времени, помещая их в подголовник, вознаграждая их случайными каплями воды, чтобы уменьшить напряжение, связанное с фиксацией головы.
    2. Начните с 5-минутной фиксации головы и увеличивайте продолжительность с шагом в 5 минут ежедневно, пока мыши не смогут переносить фиксацию до 30 минут. Удалите мышей из фиксирующего аппарата, если кажется, что они борются или двигаются очень мало. Тем не менее, мыши, как правило, начинают бегать по колесу спонтанно в течение нескольких сеансов, что означает, что они готовы к следующему этапу обучения.
      ПРИМЕЧАНИЕ: Мыши, которые постоянно борются под подголовником или не бегают и не облизываются, чтобы получить вознаграждение, должны быть регрессированы на более ранние стадии обучения и исключены из исследования, если они не прогрессируют в течение трех таких корректирующих циклов (см. Таблицу 1).
  5. Дрессировка бега/облизывания (случайное кормление)
    ПРИМЕЧАНИЕ: Чтобы выполнить задачу пространственного обучения в среде виртуальной реальности, мыши должны сначала научиться бегать по колесу и постоянно лизать, чтобы время от времени получать награды. Прогрессирование оперантных поведенческих параметров контролируется с помощью поведенческого микроконтроллера ESP32.
    1. Случайное кормление с неоперантными наградами
      1. Запустите графическое программное обеспечение с графическим интерфейсом программы с путем произвольных визуальных элементов (выбор пользователя, см. шаг 3.3).
      2. Загрузите программу поведения в поведение ESP32 с несколькими неоперантными наградами (кодовые переменные: isOperant = 0, numRew = 4, isRandRew = 1), чтобы заставить мышей бегать и лизать. Запускайте мышей в течение 20-30 минут, пока мыши не пробегут не менее 20 кругов за сеанс, и облизывайте награды, представленные в случайных местах (от одного до четырех сеансов).
    2. Случайное кормление с оперантными наградами на чередующихся кругах
      1. Загрузите программу поведения с altOpt=1 (чередование оперантных/неоперационных кругов) и обучите мышей до тех пор, пока они не начнут лизать как неоперантные, так и оперантные зоны вознаграждения (от одного до четырех сеансов).
    3. Полностью оперантная случайная фуражировка
      1. Загрузите поведенческую программу с четырьмя оперантными зонами случайного вознаграждения (переменные кода поведения ESP32: isOperant=1, numRew=4, isRandRew=1). К концу этого этапа обучения мыши должны постоянно бегать и выполнять тестовые облизывания по всей длине дорожки (от одного до четырех сеансов; Рисунок 4А).
  6. Пространственное обучение
    ПРИМЕЧАНИЕ: Проведите эксперимент по пространственному обучению с одной скрытой зоной вознаграждения на некотором расстоянии от одной визуальной подсказки, выбрав коридор длиной 2 м с темными панелями вдоль дорожки и одной высококонтрастной панелью визуальных стимулов посередине в качестве визуальной подсказки (положение 0,9-1,1 м), аналогично недавним экспериментам с пространственными обонятельными сигналами20 . Мыши должны облизывать зону вознаграждения (в положении 1,5-1,8 м), расположенную на расстоянии от визуальной подсказки в виртуальной линейной среде трека.
    1. Запустите графическую программу с контуром темного коридора с одной визуальной подсказкой в центре (например, шахматная доска, см. шаг 3.3, рисунок 3A).
    2. Загрузите программу поведения с одной скрытой зоной вознаграждения в поведение ESP32 (переменные кода поведения ESP32: isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500}).
    3. Аккуратно поместите мышь в аппарат для фиксации головы, отрегулируйте носик облизывания в месте, расположенном непосредственно перед ртом мыши, и поместите колесико мыши в центр зоны проекционного экрана. Убедитесь, что головка мыши находится на расстоянии ~12-15 см от экрана после окончательной настройки.
    4. Задайте имя животного в эскизе "Обработка", а затем нажмите кнопку " Выполнить" в интегрированной среде разработки "Обработка ", чтобы начать получение и построение данных о поведении (см. шаг 3.4).
    5. Запускайте мышь в течение 30-минутных сеансов с одной скрытой зоной вознаграждения и одним визуальным подсказом VR-коридора.
    6. В автономном режиме: загрузите файл данных .txt из папки Processing sketch и проанализируйте поведение пространственного облизывания (например, в Matlab с включенными файлами procVRbehav.m и vrLickByLap.m).
      ПРИМЕЧАНИЕ: Мыши должны сначала выполнить тестовые облизывания по всему виртуальному треку («случайное кормление»), а затем начать выборочно лизать только вблизи места получения награды, следуя визуальной подсказке VR (рис. 4).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Эта поведенческая установка виртуальной реальности с открытым исходным кодом позволила нам количественно оценить поведение при облизывании как считывание пространственного обучения, когда мыши с головой перемещались по виртуальной линейной среде трека. Семь мышей C57BL / 6 обоих полов в возрасте 4 месяцев были помещены в ограниченный водный график и сначала обучены непрерывно лизать на низких уровнях во время бега на колесе для случайного пространственного вознаграждения («случайное кормление») без VR. Хотя их производительность изначально была затронута при переходе на проекционный экран VR со случайным рисунком коридора длиной 2 м, она вернулась к предыдущим уровням в течение нескольких сеансов VR (рис. 4A). Мыши, которые разработали стратегию случайного кормления с помощью VR (шесть из семи мышей, 86%; одна мышь не могла работать последовательно и была исключена), затем должны были лизнуть неконтролируемую оперантную зону вознаграждения на расстоянии 0,5 м, следуя одному визуальному сигналу местоположения в середине безликой 2-метровой виртуальной дорожки, чтобы получить водное вознаграждение («скрытое задание вознаграждения»). Согласно текущим пилотным данным с этой системой, четыре из семи (57%) мышей смогли выучить скрытую задачу вознаграждения с помощью одной визуальной подсказки за два-четыре сеанса, как показано при облизывании вблизи зоны вознаграждения с возрастающей селективностью (Таблица 1, Рисунок 4B, C), что аналогично нашим предыдущим результатам с беговой дорожкой без VR17 . Этот факт важен при изучении пространственного обучения, поскольку он позволяет контролировать и/или манипулировать нейронной активностью в критические периоды обучения без обширной подготовки. Кроме того, мыши демонстрировали как существенное обучение как во время сеанса, так и между сеансами (рис. 4C), что дает возможность наблюдать как краткосрочные, так и долгосрочные адаптации нейронных цепей, которые сопровождают пространственное обучение. Мы не проверяли скорость обучения эквивалентной задачи, не связанной с виртуальной реальностью, но многие классические пространственные задачи, зависящие от гиппокампа в реальном мире, такие как водный лабиринт Морриса, требуют еще более обширного обучения и представляют значительно меньше поведенческих испытаний и, таким образом, менее подходят для мониторинга обучающего поведения наряду с изменениями нейронной активности.

В то время как большинство мышей в этой пилотной группе (57%) смогли выучить задачу скрытого вознаграждения за небольшое количество сеансов, дополнительные мыши могут демонстрировать пространственное обучение в течение более длительных временных рамок, и индивидуальное обучение должно увеличить эту долю мышей. Действительно, различия в скорости обучения могут быть полезны для диссоциации специфических отношений между нейронной активностью в областях мозга, таких как гиппокамп, и поведенческим обучением. Тем не менее, мы заметили, что небольшой процент мышей не научился бегать по колесу или лизать ни для неоперантного, ни для оперантного вознаграждения (одна из семи мышей, 14%) и, таким образом, не мог быть использован для последующих экспериментов. Дополнительная обработка и привыкание, а также снижение общего состояния стресса животного за счет дальнейшего подкрепления, например, с использованием желаемых пищевых лакомств, могут быть полезны для того, чтобы помочь этим животным принять активный бег и облизывание во время сдерживания головы на колесе.

Манипулируя присутствием и положением зон подсказки и вознаграждения на прерывистых кругах по виртуальной дорожке, экспериментатор может дополнительно различить зависимость пространственного селективного облизывания от определенных каналов информации в виртуальной реальности, чтобы определить, например, как мыши полагаются на локальные или отдаленные сигналы или информацию о самодвижении, чтобы установить свое местоположение в окружающей среде. Избирательность облизывания мышей, которые узнали скрытое местоположение вознаграждения, должна зависеть от смещения или отсутствия визуальной подсказки вдоль дорожки, если они активно используют эту пространственную подсказку в качестве ориентира, как мы показали в недавней работе с использованием пространственных обонятельных сигналов20. Тем не менее, даже с простым примером, который мы представили здесь, высокоселективное облизывание, достигаемое мышами (рис. 4C, справа), указывает на то, что они кодируют визуальную среду VR, чтобы информировать свои решения о том, где они находятся и, следовательно, когда лизать, поскольку зона вознаграждения очевидна только по отношению к визуальным сигналам в среде VR. Эта система виртуальной реальности также позволяет представлять другие модальности пространственных и контекстных сигналов в дополнение к визуальной среде виртуальной реальности, такие как обонятельные, тактильные и слуховые сигналы, которые можно использовать для проверки селективности нейронной активности и поведения для сложных комбинаций различных сенсорных сигналов. Кроме того, хотя мы не проверяли зависимость выполнения задачи от активности гиппокампа, недавнее исследование с использованием аналогичной задачи, но с тактильными сигналами, показало нарушение пространственного обучения с инактивацией гиппокампа23, что должно быть подтверждено для задачи скрытого вознаграждения VR, выполненной в этом исследовании.

Figure 1
Рисунок 1: Аппаратная настройка VR с фиксацией головы: проекционный экран, беговое колесо и устройство для фиксации головы. (A) 3D-схема бегового колеса и проекционного экрана. (B) Завершена настройка поведения VR. Среда виртуальной реальности визуализируется на (1) одноплатном компьютере и проецируется на параболический (2) экран обратной проекции (на основе дизайна лаборатории Криса Харви15,16). (3) Колесо в сборе. (4) Держатель головного поста. (5) Резервуар для воды для доставки вознаграждения. (C) Вид сверху на проекционный экран и поведенческую настройку. (1) Светодиодный проектор. (2) Зеркало для проецирования коридора VR на изогнутый экран. (3) Беговое колесо. d) вид колеса в сборе сзади. Вращения колес преобразуются (1) поворотным энкодером и передаются на одноплатный компьютер через (2) микроконтроллер ESP32. (3) Двухосевой гониометр используется для точной настройки положения головы для оптической визуализации. (E) Установка на уровне вставки мыши, показывающая (1) устройство фиксации головы и (2) расположение отверстия для лизания над (3) поверхностью бегового колеса. (F) Фотография (1) отверстия для облизывания, прикрепленного к (2) гибкому рычагу для точного размещения носика вознаграждения рядом со ртом мыши. Награды выдаются через (3) электромагнитный клапан, управляемый поведением ESP32 (через печатную плату OpenMaze OMwSmall). Также виден поворотный энкодер, соединенный с (4) колесной осью и (5) угломером для регулировки угла наклона головы. Пожалуйста, нажмите здесь, чтобы просмотреть увеличенную версию этого рисунка.

Figure 2
Рисунок 2: Схема настройки электроники VR. На этой схеме изображены наиболее значимые связи между электронными компонентами в системе виртуальной реальности с открытым исходным кодом для мышей. (A) Мыши удерживаются головой на специальном 3D-печатном устройстве для фиксации головы над акриловым беговым колесом. (B) Вращение оси колеса во время работы мыши обнаруживается поворотным энкодером высокого разрешения, подключенным к микроконтроллеру (поворотный декодер ESP32). (C) Информация о движении передается через последовательное соединение на одноплатный компьютер, работающий под управлением программного обеспечения HallPassVR с графическим интерфейсом и 3D-средой, которая обновляет положение в виртуальной линейной дорожной среде VR на основе локомоции мыши. (D) Визуализированная среда VR отправляется на проектор/экран через видеовыход HDMI #2 одноплатного компьютера (видео VR HDMI). (E) Информация о движении от поворотного энкодера ESP32 также отправляется на другой микроконтроллер (поведение ESP32 с печатной платой OpenMaze OMwSmall), который использует положение мыши для управления пространственными, не относящимися к виртуальной реальности поведенческими событиями (такими как зоны вознаграждения или пространственные обонятельные, тактильные или слуховые стимулы) в сочетании со средой виртуальной реальности и измеряет облизывание мышью носика вознаграждения с помощью емкостного сенсорного датчика. Пожалуйста, нажмите здесь, чтобы просмотреть увеличенную версию этого рисунка.

Figure 3
Рисунок 3: Графический интерфейс и поведение программного обеспечения. (A) Графический интерфейс HallPassVR: четыре изображения выбираются для мозаики над каждым пространственным шаблоном, охватывающим одну треть длины дорожки (или загружается ранее сохраненный комбинированный шаблон) для трех шаблонов в каждом пути, равных длине дорожки. Выбираются изображения потолка и пола, а затем нажимается кнопка «Пуск» для инициализации среды виртуальной реальности на выходе HDMI (проекционном экране) одноплатного компьютера. (B) Пример виртуального коридора, созданного с помощью параметров графического интерфейса, показанных в A, и используемого для эксперимента со скрытым вознаграждением для проверки пространственного обучения. (C) Фотография мыши, удерживающей голову, бегущей по колесу в виртуальной среде, показанной в пункте B. (D) На верхней панели показан онлайн-график поведения животных в среде виртуальной реальности из включенного эскиза «Обработка» для записи и построения поведенческих данных. Облизывания, круги и награды строятся в 30-секундных временных ячейках для 30-минутного сеанса во время пространственного обучения со скрытым вознаграждением. Нижняя панель показывает текущее положение мыши (черный) и расположение любых зон вознаграждения (серый) во время поведения. Пожалуйста, нажмите здесь, чтобы просмотреть увеличенную версию этого рисунка.

Figure 4
Рисунок 4: Пространственное обучение с использованием графической программной среды. Репрезентативные пространственные данные о облизывании одного животного (A) во время случайного кормления со случайными подсказками вдоль виртуальной линейной дорожки и (B-C) 2 дня тренировок со статической скрытой зоной вознаграждения на расстоянии 1,5 м с одной визуальной подсказкой в середине дорожки. (A) День 0 случайного поиска пищи для четырех призовых зон на круг, выбранных случайным образом из восьми позиций, равномерно распределенных вдоль 2-метровой виртуальной линейной трассы. (Слева) Среднее количество облизываний на пространственную корзину (5 см) за 30-минутный сеанс (вверху: коридор виртуальной реальности со случайными панелями визуальных стимулов). (Справа) Количество облизываний в каждом 5-сантиметровом пространственном контейнере за круг во время этой сессии, представленное тепловой картой. (B) День 1, первый день тренировки с одной зоной вознаграждения на расстоянии 1,5 м (красная рамка на схеме трека, вверху) с использованием виртуальной дорожки, содержащей один высококонтрастный стимул в положении 0,8-1,2 м. (Слева) Среднее количество пространственных облизываний за сеанс, показывающее увеличение облизывания, когда животное приближается к зоне вознаграждения. (Справа) Пространственные облизывания за круг, демонстрирующие повышенную селективность облизывания в области до получения награды. (C) День 2, из того же скрытого задания и виртуального коридора, что и День 1, и из той же мыши. (Слева) Общее количество облизываний на пространственную корзину, показывающее уменьшение облизывания за пределами зоны до получения награды. (Справа) Пространственные облизывания на круг во 2-й день, демонстрирующие увеличение облизывания до зоны вознаграждения и снижение облизывания в других местах, что указывает на развитие пространственно-специфического упреждающего облизывания. Это показывает, что это животное изучило (без подсказки) скрытое местоположение вознаграждения и разработало стратегию минимизации усилий (облизывания) в регионах, где они не ожидают присутствия награды. Пожалуйста, нажмите здесь, чтобы просмотреть увеличенную версию этого рисунка.

Поведенческий исход Количество мышей Процент мышей
Мышь не бегала/не лизывала 1 14%
Только случайное кормление 2 29%
Узнал скрытую награду 4 57%
Итого (N) 7

Таблица 1: Результаты поведенческого пилота пространственного обучения VR. Семь мышей C57BL / 6 обоих полов в возрасте 4 месяцев были постепенно обучены выполнять пространственную задачу скрытого вознаграждения в виртуальной реальности. Из этих мышей одна мышь не бегала / не лизала после начального обучения (одна из семи мышей, 14%), в то время как шесть из оставшихся мышей научились бегать по колесу и лизать для случайного пространственного вознаграждения на этапе случайного кормления (шесть из семи мышей, 86%). Четыре из шести мышей, которые были способны выполнять случайное кормление, впоследствии научились выборочно лизать в ожидании вознаграждения без подсказки в задании скрытого вознаграждения (четыре из семи мышей, 57% мышей в целом, четыре из шести мышей, 66% случайных мышей), в то время как две не делали этого (две из семи мышей, 29%).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Эта VR-система с открытым исходным кодом для мышей будет функционировать только в том случае, если последовательные соединения между поворотным и поведенческим микроконтроллерами ESP32 и одноплатным компьютером будут выполнены должным образом (шаг 2), что может быть подтверждено с помощью последовательного монитора IDE (этап 2.4.5). Для успешных поведенческих результатов этого протокола (шаг 4) мыши должны быть приучены к аппарату и чувствовать себя комфортно, бегая на колесе за жидкое вознаграждение (шаги 4.3-4.5). Это требует достаточного (но не чрезмерного) ограничения воды, так как мыши, получающие воду ad libitum в домашней клетке, не будут бегать и лизать, чтобы получить вознаграждение (т. е. указать свое предполагаемое местоположение), а обезвоженные мыши могут быть вялыми и не бегать на колесе. Также стоит отметить, что существуют альтернативные методы мотивации поведения мышей без ограничения воды24; Однако мы не тестировали эти методы здесь. Для процедуры дрессировки животные, которые изначально не бегают, могут получать специальные (т.е. непространственные) водные награды от экспериментатора с помощью прикрепленного дополнительного нажатия кнопки, или колесо может быть мягко перемещено, чтобы стимулировать передвижение. Чтобы развить случайное поведение кормления, мышей, которые бегают, но не облизываются, следует запускать с неоперантными наградами (код поведения ESP32: isOperant = 0;, шаг 4.5.1), пока они не побегут и не облизнутся в поисках наград, а затем их можно будет запускать с чередующимися кругами неоперантных и оперантных зон вознаграждения (altOpt = 1; Шаг 4.5.2), пока они не начнут лизать оперантные колени, прежде чем перейти к полностью оперантным случайным зонам вознаграждения (этап 4.5.3).

Несмотря на то, что мы предоставили полные инструкции и примеры результатов для базового набора экспериментов, направленных на выявление одной формы пространственного обучения (условное облизывание скрытого места вознаграждения в виртуальной линейной среде трека), та же базовая аппаратная и программная настройка также может быть изменена для доставки более сложных визуально-пространственных сред с использованием пакета pi3d Python для Raspberry Pi. Например, эта система может включать в себя более сложные лабиринты, такие как коридоры с переменной длиной, несколько узоров и 3D-объектов, а также натуралистические 3D-ландшафты VR. Кроме того, поведенческое программное обеспечение для доставки водных вознаграждений и других невизуальных стимулов может быть модифицировано для других парадигм обучения путем изменения ключевых переменных (представленных в начале кода поведения ESP32) или путем вставки новых типов пространственных событий в тот же код. Мы рады проконсультировать пользователей относительно методов реализации других типов поведенческих экспериментов с этой настройкой VR или при устранении неполадок.

Иммерсивные среды виртуальной реальности оказались универсальным инструментом для изучения основных нейронных механизмов пространственной навигации 6,7,8, поведения 9 и визуального восприятия25 как в клинических исследованиях, так и в исследованиях на животных. Основное преимущество этого подхода заключается в том, что экспериментатор имеет жесткий контроль над контекстуальными элементами, такими как визуальные сигналы и конкретные пространственные стимулы (например, вознаграждения и обонятельные, слуховые или тактильные стимулы), что непрактично в реальных условиях со свободно движущимися животными. Следует, однако, отметить, что могут существовать различия в том, как среды виртуальной реальности кодируются областями мозга, такими как гиппокамп, по сравнению с использованием реальных сред26,27. С этой оговоркой использование среды виртуальной реальности позволяет экспериментаторам проводить большое количество поведенческих испытаний с тщательно контролируемыми стимулами, что позволяет диссоциировать вклад отдельных сенсорных элементов в пространственную навигацию.

Сложность создания пользовательских установок виртуальной реальности часто требует обширного опыта в области инженерии и компьютерного программирования, что может увеличить время настройки и ограничить количество устройств, которые могут быть построены для обучения мышей для экспериментов. Установки VR также доступны у коммерческих поставщиков; Однако эти решения могут быть дорогостоящими и ограниченными, если пользователь хочет внедрить новые функции или расширить возможности обучения/записи до более чем одной установки. Ориентировочный ценовой диапазон представленной здесь установки виртуальной реальности с открытым исходным кодом составляет < 1,000 долларов США; однако упрощенная версия для обучения (например, без гониометров для регулировки угла наклона головы) может быть изготовлена за 500 долларов США (долларов США) <, что позволяет создавать несколько установок для обучения мышей в большем масштабе. Модульное расположение компонентов также позволяет интегрировать VR с другими системами поведенческого контроля, такими как система беговой дорожки с пространственными обонятельными и тактильными стимулами, которые мы использовали ранее20, и, таким образом, VR и другие модальности стимулов не являются взаимоисключающими.

Эта система виртуальной реальности с открытым исходным кодом и сопутствующим аппаратным обеспечением (ходовое колесо, проекционный экран и устройство фиксации головы), настройкой электроники (одноплатный компьютер и микроконтроллеры ESP32) и программным обеспечением (графический интерфейс виртуальной реальности и код поведения) обеспечивает недорогую, компактную и простую в использовании настройку для доставки параметризованных иммерсивных сред виртуальной реальности мышам во время пространственной навигации с ограничением головы. Затем это поведение может быть синхронизировано с нейронной визуализацией или электрофизиологической записью для изучения нейронной активности во время пространственного обучения (этап 2.3.7). Спектр экспериментальных методов, совместимых с виртуальной реальностью, широк: от одного только пространственного поведения обучения до комбинации с волоконной фотометрией, минископом, однофотонной и многофотонной визуализацией и электрофизиологическими методами (например, нейропикселями или внутриклеточной записью). В то время как подголовник необходим для некоторых из этих методов регистрации, чрезвычайно точный характер предъявления стимула и стереотипный характер поведения могут также быть полезны для других методов, не требующих фиксации головы, таких как визуализация с помощью минископа и волоконная фотометрия. Следует, однако, отметить, что наше решение на основе емкостных датчиков для обнаружения облизывания может вносить значительный шум на электрофизиологические следы. Чтобы избежать таких артефактов, оптических или других (например, механических), должны быть реализованы сенсорные решения для обнаружения облизывания.

Будущие улучшения системы виртуальной реальности будут загружаться на страницу проекта GitHub (https://github.com/GergelyTuri/HallPassVR), поэтому пользователи должны регулярно проверять эту страницу на наличие обновлений. Например, мы находимся в процессе замены проводных последовательных соединений между микроконтроллерами и одноплатным компьютером функцией Bluetooth, которая является родной для микроконтроллеров ESP32, уже используемых в этой конструкции. Кроме того, мы планируем обновить графический интерфейс HallPassVR, чтобы позволить спецификации различных путей в каждом поведенческом сеансе содержать разные позиции для ключевых визуальных стимулов на разных кругах. Это позволит более гибко диссоциировать влияние конкретных визуальных и контекстуальных особенностей на нейронное кодирование пространства во время пространственного обучения.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Клэй Лейсфилд является основателем и сопровождающим компании OpenMaze.org, которая предоставляет проекты для печатной платы OMwSmall, используемой в этом протоколе, бесплатно для скачивания.

Acknowledgments

Мы хотели бы поблагодарить Ноа Петтита из лаборатории Харви за обсуждение и предложения при разработке протокола в этой рукописи. Эта работа была поддержана премией BBRF Young Investigator Award и NIMH 1R21MH122965 (G.F.T.), в дополнение к NINDS R56NS128177 (R.H., C.L.) и NIMH R01MH068542 (R.H.).

Materials

Name Company Catalog Number Comments
1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

DOWNLOAD MATERIALS LIST

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. Pettit, N., et al. Harvey Lab Mouse VR. , Available from: https://github.com/Harvey/Lab/mouseVR (2021).
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Tags

Неврология выпуск 193
Система виртуальной реальности с открытым исходным кодом для измерения пространственного обучения у мышей с ограниченной головой
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Lacefield, C., Cai, H., Ho, H.,More

Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter