Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

一种用于测量头部约束小鼠空间学习的开源虚拟现实系统

Published: March 3, 2023 doi: 10.3791/64863

Summary

在这里,我们提出了一个简化的开源硬件和软件设置,用于使用虚拟现实(VR)研究鼠标空间学习。该系统利用微控制器网络和运行易于使用的Python图形软件包的单板计算机,向在滚轮上运行的头部受限鼠标显示虚拟线性轨迹。

Abstract

小鼠头部约束行为实验使神经科学家能够使用高分辨率电生理和光学成像工具观察神经回路活动,同时向行为动物提供精确的感官刺激。最近,使用虚拟现实(VR)环境的人类和啮齿动物研究表明,由于对空间和上下文线索等参数的极其精确的控制,VR是揭示海马体和皮层空间学习背后的神经机制的重要工具。然而,为啮齿动物的空间行为设置虚拟环境可能成本高昂,并且需要广泛的工程和计算机编程背景。在这里,我们提出了一个基于廉价,模块化,开源硬件和软件的简单而强大的系统,使研究人员能够使用VR环境研究头部约束小鼠的空间学习。该系统使用耦合的微控制器来测量运动并提供行为刺激,而头部约束的小鼠在轮子上奔跑,与单板计算机上运行的图形软件包呈现的虚拟线性轨道环境保持一致。对分布式处理的强调使研究人员能够设计灵活的模块化系统来引发和测量小鼠的复杂空间行为,以确定哺乳动物大脑中神经回路活动与空间学习之间的联系。

Introduction

空间导航是一种重要的行为,动物通过这种行为将新位置的特征编码到认知地图中,用于查找可能奖励的区域并避免潜在危险的区域。空间导航背后的认知过程与记忆有着千丝万缕的联系,它们在海马体1和皮层中共享一个神经基质,在这些区域中,这些区域的神经回路整合传入的信息,形成环境和事件的认知图谱,以供以后回忆2。虽然海马体34 中的位置细胞和内嗅皮层5 中网格细胞的发现揭示了海马体内认知图谱是如何形成的但关于海马体的特定神经亚型、微电路和单个亚区(齿状回和角氨区,CA3-1)如何相互作用并参与空间记忆的形成和回忆,仍然存在许多问题。

体内双光子成像一直是揭示感觉神经生理学中细胞和群体动态的有用工具67;然而,头枕的典型必要性限制了这种方法在检查哺乳动物空间行为方面的实用性。虚拟现实(VR)8的出现解决了这一缺点,它提供了身临其境和逼真的视觉空间环境,而头部约束的小鼠在球或跑步机上奔跑,以研究海马体8910和皮层11中的空间和上下文编码。此外,将VR环境与行为小鼠一起使用,使神经科学研究人员能够通过精确控制VR环境12的元素(例如,视觉流,上下文调制)来剖析空间行为的组成部分,这在现实世界的空间学习实验中是不可能的,例如莫里斯水迷宫,巴恩斯迷宫或孔板任务。

Visual VR 环境通常在计算机的图形处理单元 (GPU) 上渲染,该单元处理快速计算在屏幕上实时建模移动 3D 环境所需的数千个多边形的负载。较大的处理要求通常需要使用带有GPU的单独PC,该GPU将视觉环境渲染到显示器,多个屏幕13或投影仪14 ,因为从跑步机,轮子或动物下方的泡沫球记录运动。因此,由此产生的用于控制、渲染和投影 VR 环境的设备相对昂贵、笨重且笨重。此外,文献中的许多此类环境都是使用专有软件实现的,这些软件既昂贵又只能在专用PC上运行。

出于这些原因,我们设计了一个开源VR系统,使用Raspberry Pi单板计算机研究头部约束小鼠的空间学习行为。这款Linux计算机既小又便宜,但包含一个用于3D渲染的GPU芯片,允许将VR环境与各种个人设置中的显示器或行为设备集成。此外,我们还开发了一个用Python编写的图形软件包“HallPassVR”,它利用单板计算机通过重新组合使用图形用户界面(GUI)选择的自定义视觉特征来渲染简单的视觉空间环境,虚拟线性轨道或走廊。它与微控制器子系统(例如 ESP32 或 Arduino)相结合,以测量运动和协调行为,例如通过提供其他形式的感官刺激或奖励来促进强化学习。该系统提供了一种廉价、灵活且易于使用的替代方法,用于在双光子成像(或其他需要头部固定的技术)期间向头部约束的小鼠提供视觉空间 VR 环境,以研究空间学习行为背后的神经回路。

Subscription Required. Please recommend JoVE to your librarian.

Protocol

本协议中的所有程序均已获得纽约州精神病学研究所机构动物护理和使用委员会的批准。

注意:单板计算机用于显示与在滚轮上运行头部约束的鼠标相协调的 VR 视觉环境。运动信息以串行输入的形式从 ESP32 微控制器接收,读取耦合到轮轴的旋转编码器。VR环境在Raspberry Pi GPU上使用OpenGL硬件加速渲染,该GPU利用Raspberry Pi的pi3d Python 3D包。然后,渲染环境 通过 投影仪输出到以头部约束的鼠标视野 1516 为中心的紧凑环绕式抛物面屏幕上,而行为(例如,响应空间奖励的舔舐)则由第二行为 ESP32 微控制器测量。图形软件包支持创建虚拟线性轨道环境,包括沿虚拟走廊或走廊的重复视觉刺激模式,并带有图形用户界面(GUI)。这种设计很容易参数化,因此允许创建复杂的实验,旨在了解大脑在空间学习过程中如何编码地点和视觉线索(见第4节)。该系统所需的自定义硬件组件(即运行轮、投影屏幕和头枕装置)的设计存放在公共 GitHub 存储库 (https://github.com/GergelyTuri/HallPassVR) 中。建议阅读该存储库的文档以及此协议,因为该站点将使用系统的未来增强功能进行更新。

1. 硬件设置:运行轮、投影屏幕和头部固定装置的构造

注意:如果用户可以使用3D打印和激光切割设备,或者可以外包给专业制造或3D原型服务(例如eMachinehop),则可以轻松制造这些设置的自定义组件。所有设计文件均以 形式提供。STL 3D 文件或 .DXF AutoCAD 文件。

  1. 运行轮和行为设置(图1
    注意: 车轮由一个透明的亚克力圆柱体(直径 6 英寸、宽 3 英寸、厚度 1/8 英寸)组成,中心是通过滚珠轴承悬挂在激光切割亚克力支架上的轴。然后将车轮组件安装到轻质铝制框架(T 型槽)上,并牢固地固定在光学试验板上(图 1C-E)。
    1. 从 1/4 的丙烯酸板上激光切割车轮和轴支架的侧面,并用丙烯酸水泥将车轮侧面连接到丙烯酸圆柱体上。将轴法兰拧入车轮侧件的中心。
    2. 将车轴插入轮心法兰,将滚珠轴承卡入轴安装座,然后将它们连接到垂直铝制支撑杆上。
    3. 将轮轴插入安装的滚珠轴承中,留下 0.5-1 英寸的轴经过轴承以连接旋转编码器。
    4. 将旋转编码器支架安装到车轮对面的轴端,然后插入旋转编码器;然后,使用轴耦合器将轮轴耦合到旋转编码器轴。
    5. 将舔舐端口连接到柔性臂上,然后用 T 型槽螺母固定在铝制轮架上。使用 1/16 英寸管将舔端口连接到电磁阀,将阀门连接到储水器。
      注意:舔端口必须由金属制成,并焊接一根电线,以将其连接到行为 ESP32 的电容式触摸感应引脚。
  2. 投影幕布
    注意:VR屏幕是一个小型抛物面背投屏幕(画布尺寸:54厘米x 21.5厘米),基于克里斯托弗哈维实验室1516开发的设计。所用LED投影机的投影角度(梯形)与以前使用的激光投影机不同;因此,通过将装置安装在屏幕下方并简化后视镜系统,对原始设计进行了轻微修改(图 1A、B)。强烈建议阅读 Harvey 实验室的文档以及我们的文档,以便根据用户的需求定制 VR 环境15.
    1. 在黑色哑光亚克力板中从 1/4 激光切割投影屏幕侧面。激光切割背投镜的 1/4 在镜面亚克力中。
    2. 用铝条组装投影幕框,并激光切割亚克力板。
    3. 将半透明投影屏幕材质插入框架中的抛物线槽中。将背投镜插入投影屏幕框架背面的插槽中。
    4. 将 LED 投影仪放在投影幕框内的底部安装板上。将投影机与安装螺栓对齐,以优化投影图像在抛物面背投屏幕上的位置。
    5. 如有必要,密封投影机盒单元以防止光污染光学传感器。
  3. 头枕装置
    注意:这种头枕装置设计由两个互锁的 3D 打印歧管组成,用于固定金属头柱(图 1E、F)。
    1. 使用高分辨率SLM 3D打印机,3D打印头柱抱臂。
      注意:树脂打印塑料能够为行为实验提供稳定的头部固定;但是,为了在单细胞记录或双光子成像等敏感应用中实现最大稳定性,建议使用机加工金属部件(例如,eMachineShop)。
    2. 将3D打印的头柱支架安装到带有光学安装柱的双轴测角仪上,以便动物的头部可以倾斜以调平制剂。
      注意:当需要在随后的成像会话中找到相同的细胞群时,此功能对于长期 体内成像实验 是必不可少的。否则,可以省略此功能以降低设置成本。
    3. 制造顶柱。
      注意:两种类型具有不同复杂性(和价格)的头柱与这些说明一起存放在材料表中提供的链接中。
      1. 根据实验类型,确定要实施的头柱。头杆由不锈钢制成,通常外包给任何本地机械车间或在线服务(例如,eMachineShop)进行制造。

2. 电子硬件/软件的设置(单板计算机、ESP32 微控制器, 图 2

  1. 配置单板计算机。
    注意: 材料表 (Raspberry Pi 4B)中包含的单板计算机最适合此设置,因为它具有板载GPU以促进VR环境渲染和两个HDMI端口,用于实验控制/监视和VR投影。其他具有这些特征的单板计算机可能会被替换,但以下某些指令可能特定于 Raspberry Pi。
    1. 将单板计算机成像器应用程序下载到 PC,并在 microSD 卡 (16+ GB) 上安装操作系统(当前为 Raspberry Pi OS r.2021-05-07)。插入卡,然后启动单板计算机。
    2. 为 pi3d Python 3D 库配置单板计算机:(菜单栏) 首选项>树莓派配置
      1. 单击 屏幕消隐>显示>禁用
      2. 单击接口 >串行端口>启用
      3. 单击性能 > GPU 内存> 256 (MB)。
    3. 升级 pi3d 的 Python 图片库包:(终端)> sudo pip3 安装枕头 --upgrade。
    4. 为单板计算机安装 pi3d Python 3D 包:(终端)> sudo pip3 安装 pi3d。
    5. 提高投影仪的HDMI输出电平:(终端)> sudo nano /boot/config.txt,取消注释 config_hdmi_boost=4,保存,然后重新启动。
    6. 从 arduino.cc/en/software 下载并安装集成开发环境 (IDE)(例如 arduino-1.8.19-linuxarm.tar.gz),这是将代码加载到旋转编码器和行为 ESP32 微控制器上所必需的。
    7. 在 IDE 上安装 ESP32 微控制器支持:
      1. 点击 文件>首选项>其他看板管理器 URL = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. 点击工具 >开发板>开发板管理器> ESP32 (乐鑫)。安装 v.2.0.0(当前在 v2.0.4 上上传失败)。
    8. 从 https://github.com/processing/processing4/releases 下载并安装处理IDE(例如,processing-4.0.1-linux-arm32.tgz),这对于VR期间记录和在线绘制鼠标行为是必需的。
      注意:如果需要,Arduino 和处理环境可以在与 VR 单板计算机不同的 PC 上运行。
  2. 设置旋转编码器 ESP32 连接。
    注意:耦合到车轮轴的旋转编码器通过鼠标运动测量车轮旋转,鼠标运动通过 ESP32 微控制器进行计数。然后,位置变化被发送到单板计算机 GPIO 串行端口,以使用图形软件包控制通过虚拟环境的移动,以及行为 ESP32 以控制奖励区域(图 2)。
    1. 连接旋转编码器组件和旋转 ESP32 之间的电线。旋转编码器通常有四根线:+、GND、A 和 B(正交编码器的两条数字线)。通过跳线 将它们 连接到 ESP32 3.3 V、GND、25、26(在附加代码的情况下)。
    2. 连接旋转 ESP32 和行为 ESP32 之间的串行 RX/TX 线。在旋转 ESP32 Serial0 RX/TX(接收/发送)和行为 ESP32 的 Serial2 端口(TX/RX,引脚 17、16;请参阅 OMwSmall PCB 右侧的 Serial2 端口)之间建立简单的双线连接。这会将运动信息从旋转编码器传输到空间区域(如奖励区域)的行为设置。
    3. 连接旋转 ESP32 和单板计算机 GPIO(或直接 USB 连接)之间的串行 RX/TX 线。在单板计算机 GPIO 引脚 14、15 (RX/TX) 和旋转 ESP32 Serial2(TX/RX,引脚 17、16)之间建立双线连接。这将把运动信息从旋转编码器传输到单板计算机上运行的图形软件包。
      注意:仅当旋转 ESP32 未 通过 USB 连接(即,它是 “/dev/ttyS0” 处的 GPIO 串行连接)时才需要此步骤,但必须修改HallPassVR_wired.py代码以使用“/dev/ttyUSB0”。在将来的版本中,此硬连线连接将被无线蓝牙连接取代。
    4. 将旋转 ESP32 USB 插入单板计算机 USB(或其他运行 IDE 的 PC)以上传初始旋转编码器代码。
  3. 设置行为 ESP32 与行为硬件的连接(通过 OpenMaze PCB)。
    注意:ESP32 微控制器的行为将控制所有非 VR 动物交互(提供非 VR 刺激和奖励、检测鼠标舔舐),这些交互通过 ESP32 的通用 PCB “分线板”“OMwSmall”连接,其设计可通过 OpenMaze 网站 (www.openmaze.org) 获得。PCB包含驱动机电组件所需的电子元件,例如用于提供液体奖励的电磁阀。
    1. 将 12 V 液体电磁阀连接到 OMwSmall PCB 最左侧的 ULN2803 IC 输出(示例设置和代码中的引脚 12)。该 IC 将 12 V 电源隔离至奖励电磁阀,由行为 ESP32 微控制器上的 GPIO 输出控制。
    2. 将舔舔端口连接到 ESP32 触摸输入(例如示例代码中的 T0、GPIO4)。ESP32 在特定引脚上内置了电容式触摸感应功能,ESP32 代码使用该行为在 VR 行为期间检测鼠标对附加金属舔端口的舔舐。
    3. 连接行为 ESP32 串行 2(引脚 16、17)和旋转编码器 ESP32 串行 0 之间的串行 RX/TX 线(请参阅步骤 2.2.2)。
    4. 将 USB 插入单板计算机的 USB 端口(或其他 PC),将新程序上传到行为 ESP32 中,以用于不同的实验范式(例如奖励区域的数量/位置),并使用随附的处理草图捕获行为数据。
    5. 将 12 V DC 墙上适配器插入行为 ESP32 OMwSmall PCB 上的 2.1 mm 套管插孔连接器,为奖励电磁阀供电。
    6. 将单板计算机的HDMI #2输出插入投影仪HDMI端口;这会将单板计算机GPU渲染的VR环境带到投影屏幕上。
    7. (可选)将同步线(引脚 26)连接到神经成像或电生理记录设置。每5秒将发送一次3.3 V晶体管-晶体管-逻辑(TTL)信号,以接近毫秒的精度对准系统。
  4. 设置软件:使用 IDE 将固件/软件加载到旋转编码器 ESP32(图 2B)和行为 ESP32(图 2E)上,然后将 VR Python 软件下载到单板计算机上。请参阅 https://github.com/GergelyTuri/HallPassVR/software。
    1. 先将旋转编码器 ESP32 插入单板计算机的 USB 端口 - 操作系统会自动将其命名为 /dev/ttyUSB0”。
    2. 加载旋转编码器代码:在 IDE 中打开文件 RotaryEncoder_Esp32_VR.ino,然后在 ESP32 开发模块>的工具>板下选择 ESP32。通过单击工具>端口> /dev/ttyUSB0 选择 ESP32 端口,然后单击上传。
    3. 接下来将行为 ESP32 插入单板计算机的 USB 端口 - 这将作系统命名为“/dev/ttyUSB1”。
    4. 将行为序列代码加载到行为 ESP32 上(IDE, ESP32 开发模块 已选中),然后单击工具 >端口 > /dev/ttyUSB1,然后单击 上传:wheel_VR_behavior.ino
    5. 通过在 IDE(工具 > 端口 > /dev/ttyUSB0 或 /dev/ttyUSB1)中为每个 ESP32 选择串行端口,然后单击串行监视器>工具(波特率:115,200)以观察旋转板 (USB0) 或行为板 (USB1) 的串行输出,以测试串行连接。旋转滚轮以查看 USB0 上旋转 ESP32 的原始运动输出或 USB1 上行为 ESP32 的格式化运动输出。
    6. 从 https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR 下载图形软件包 Python 代码(到 /home/pi/Documents)。此文件夹包含运行图形软件包所需的所有文件(如果之前正确安装了 pi3d Python3 软件包)(步骤 2.1)。

3. 运行和测试图形软件包

注意:运行图形软件包 GUI 启动 VR 线性跟踪环境,校准 VR 软件和行为 ESP32 代码上的距离,并使用随附的处理语言草图测试鼠标奔跑和舔舐行为的采集和在线绘图。

  1. 在单板计算机中打开终端窗口,导航到 HallPassVR 文件夹(终端:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired
  2. 运行 VR GUI:(终端)> python3 HallPassVR_GUI.py (GUI 窗口将打开, 图 3A)。
  3. 图形软件图形用户界面
    1. 从列表框中选择并添加四个元素(图像)(或选择下面的预存储模式,然后单击 上传),用于轨道上的三个模式中 的每一个,然后单击生成。
      注意:在运行GUI之前,可以将新的图像文件(.jpeg)放置在HallPassVR/HallPassVR_wired/images/ELEMENTS文件夹中。
    2. 从下拉菜单中选择地板和天花板图像,并将此示例代码的轨道长度设置为 2 m(它必须等于行为 ESP32 代码和处理代码中的 轨道长度 (以毫米 [mm] 为单位)。
    3. 如果需要,请命名此模式(它将存储在 HallPassVR_wired/images/PATH_HIST 中)。
    4. 单击 “开始” 按钮(等到 VR 窗口启动后再单击其他位置)。VR环境将出现在屏幕#2上(投影屏幕, 图3B,C)。
  4. 运行处理草图以获取并绘制行为数据/运动。
    1. 处理 IDE 中打开 VRwheel_RecGraphSerialTxt.pde
    2. 更改 动物=“您的鼠标号码”; 变量,并将会话分钟设置为等于行为会话的长度(以 分钟 为单位)。
    3. 单击处理 IDE 上的“运行”按钮。
    4. 检查处理绘图窗口,该窗口应显示车轮旋转时虚拟线性轨道上的当前鼠标位置,以及每 30 秒更新一次的舔、圈和奖励的奖励区和运行直方图(图 3D)。手动推进跑轮以模拟鼠标运行进行测试,或使用测试鼠标进行初始设置。
    5. 单击绘图窗口,然后按键盘上的 q 键停止获取行为数据。当 sessionMinutes 过去或用户按 q 键退出时,将保存行为事件和时间的文本文件(通常每个会话的大小为<2 MB)和最终绘图窗口(.png)的图像。
      注意:由于输出.txt文件的大小较小,估计单板计算机的SD卡上至少可以存储数千个行为记录。数据文件可以保存到拇指驱动器以供后续分析,或者如果连接到本地网络,则可以远程管理数据。
  5. 使用 VR 轨道长度校准行为轨道长度。
    1. 在观察 VR 走廊和鼠标位置(在处理图上)的同时手动前进滚轮。如果 VR 走廊在鼠标到达行为图的终点之前/之后结束,则递增/减少 VR 轨迹长度(HallPassVR_wired.py、 corridor_length_default,以厘米 [cm] 为单位),直到两个系统中的轨迹同时重置。
      注意:该代码目前针对直径为 6 英寸的运行轮进行了校准,使用 256 位正交旋转编码器,因此用户可能必须更改 VR( HallPassVR_wired.py,corridor_length_default,以厘米 [cm]为单位)和行为代码(wheel_VR_behavior.ino, trackLength,以毫米 [mm])来考虑其他配置。但是,行为位置会在每 VR 圈上重置,以保持系统之间的对应关系。

4. 鼠标训练与空间学习行为

注意:将小鼠植入以进行头部固定,习惯于头部约束,然后训练在轮子上奔跑并持续舔舐以获得液体奖励(“随机觅食”)。然后使用VR环境训练实现一致跑步和舔舐的小鼠进行空间隐藏奖励任务的训练,其中根据虚拟线性轨道上的视觉提示呈现单个奖励区域。然后,空间学习被测量为奖励区之前位置的舔舐选择性增加。

  1. 头部植入后手术:该手术在本期刊的其他地方和其他期刊中有详细描述,因此请参阅本文献以获取具体说明717,18192021
  2. 水时间表
    1. 在首次处理前 24 小时进行限水(见下文),并在每次习惯或头部约束行为后允许随意饮水。在习惯期间,在三天内逐渐减少水的可用性时间至约5分钟,并调整个体小鼠的量,使其体重不低于其限制前体重的80%。每天监测每只动物的体重,并观察每只小鼠的状况是否有脱水迹象22。无法维持其限制前体重的80%或看起来脱水的小鼠应从研究中移除,并给予免费水供应。
      注意:为了激励小鼠使用液体奖励在轮子上奔跑,以及使用空间舔作为沿轨道学习位置的指示,水限制是必要的。机构指南可能因该程序的具体说明而异,因此用户必须咨询其各自的机构动物护理委员会,以确保在限水期间的动物健康和福利。
  3. 处理:每天处理植入的小鼠,使它们习惯于与人类接触,然后可以 随意 施用有限的水作为增强剂(1-5分钟/天,2天至1周)。
  4. 习惯使用头枕
    1. 通过将小鼠放在头枕装置中,使小鼠习惯于头部约束装置,同时偶尔滴水以减轻头部固定的压力,从而增加对头部约束的时间。
    2. 从5分钟的头部固定开始,每天以5分钟的增量增加持续时间,直到小鼠能够耐受固定长达30分钟。如果小鼠看起来挣扎或移动很少,请将它们从固定装置中取出。然而,小鼠通常在几个疗程内开始自发地在轮子上奔跑,这意味着它们已经为下一阶段的训练做好了准备。
      注意:在头部约束下反复挣扎或不跑步和舔舐奖励的小鼠应回归到训练的早期阶段,如果它们在三个这样的补救周期内未能取得进展,则应将其从研究中移除(见 表1)。
  5. 奔跑/舔舐训练(随机觅食)
    注意:要在VR环境中执行空间学习任务,小鼠必须首先学会在轮子上奔跑并持续舔舐以获得偶尔的奖励。操作行为参数的进展通过行为 ESP32 微控制器 进行 控制。
    1. 随机觅食与非操作奖励
      1. 使用任意可视元素的路径运行图形软件GUI程序(用户选择,请参阅步骤3.3)。
      2. 将行为程序上传到具有多个非操作奖励(代码变量:isOperant=0、numRew=4、isRandRew=1)的行为 ESP32,以调节鼠标奔跑和舔舐。在 20-30 分钟的会话中运行小鼠,直到小鼠每次会话至少运行 20 圈,并舔舐随机位置(一到四个会话)呈现的奖励。
    2. 随机觅食,交替圈有操作奖励
      1. 上传 altOpt=1的行为程序(交替的操作/非操作圈),并训练小鼠,直到它们舔非操作性和操作性奖励区域(一到四个会话)。
    3. 完全操作的随机觅食
      1. 上传具有四个操作随机奖励区域的行为程序(行为 ESP32 代码变量:isOperant=1、numRew=4、isRandRew=1)。 在此训练步骤结束时,小鼠应始终如一地运行并在整个轨道长度(一到四个会话;图 4A)。
  6. 空间学习
    注意:通过选择一条 2 m 长的走廊,沿轨道带有深色面板,中间有一个高对比度的视觉刺激面板作为视觉提示(0.9-1.1 m 位置),类似于最近的空间嗅觉线索实验,对单个隐藏奖励区域进行空间学习实验20.在虚拟线性轨道环境中,小鼠需要在距离视觉提示一定距离的奖励区(1.5-1.8 m位置)舔。
    1. 运行图形软件程序,路径为黑暗的走廊,中间有一个视觉提示(例如,棋盘,参见步骤3.3, 图3A)。
    2. 将具有单个隐藏奖励区域的行为程序上传到行为 ESP32(行为 ESP32 代码变量:isOperant=1、isRandRew=0、numRew=1、rewPosArr[]= {1500})。
    3. 轻轻地将鼠标放在头部固定装置中,将舔嘴调整到鼠标嘴正前方的位置,然后将鼠标滚轮定位到投影屏幕区域的中心。确保鼠标头在最终调整后距离屏幕~12-15厘米。
    4. 在处理草图中设置动物的名称,然后在 处理 IDE 中按 run 开始获取和绘制行为数据(请参阅步骤 3.4)。
    5. 使用单个隐藏奖励区域和单个视觉提示 VR 走廊运行鼠标 30 分钟会话。
    6. 离线:从处理草图文件夹下载.txt数据文件并分析空间舔行为(例如,在 Matlab 中使用包含的文件 procVRbehav.m 和 vrLickByLap.m)。
      注意:小鼠应首先在整个虚拟轨道上进行测试舔舐(“随机觅食”),然后根据VR视觉提示开始仅在奖励位置附近选择性地舔舐(图4)。

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

这种开源的虚拟现实行为设置使我们能够量化舔行为,作为空间学习的读出,因为头部约束的小鼠在虚拟线性轨道环境中导航。将7只4个月大的两性C57BL / 6小鼠置于限制的水时间表上,并首先训练在低水平上连续舔舐,同时在没有VR的情况下在轮子上奔跑以获得随机空间奖励(“随机觅食”)。尽管当以 2 m 随机走廊模式移动到 VR 投影屏幕设置时,它们的性能最初受到影响,但在几次 VR 会话中,它们又恢复到以前的水平(图 4A)。然后,使用VR开发随机觅食策略的小鼠(七只小鼠中的六只,86%;一只小鼠未能持续奔跑并被排除在外)被要求在0.5米处的无提示操作奖励区舔一个无提示的操作奖励区,遵循一个单一的视觉位置提示在一个原本没有特征的2米虚拟轨道中间,以获得水奖励(“隐藏奖励任务”)。根据该系统目前的试点数据,七只小鼠中的四只(57%)能够在两到四个会话中通过单个视觉提示学习隐藏的奖励任务,如在奖励区附近舔以增加的选择性显示的那样(表1图4BC),这与我们之前使用非VR跑步机的结果相似17.这一事实在空间学习的研究中很重要,因为它允许在没有广泛训练的情况下在学习的关键时期监测和/或操纵神经活动。此外,小鼠表现出大量的会话内和会话间学习(图4C),为观察伴随空间学习的短期和长期神经回路适应提供了机会。我们没有测试等效的非VR任务的学习率,但许多经典的现实世界海马依赖空间任务,如莫里斯水迷宫,需要更广泛的训练,并且提供的行为试验大大减少,因此不太适合监测学习行为以及神经活动变化。

虽然该试验组中的大多数小鼠(57%)能够在少量会话中学习隐藏的奖励任务,但额外的小鼠可能会在更长的时间尺度上表现出空间学习,并且个性化训练应该增加小鼠的这一比例。事实上,学习率的变化可能有助于解开大脑区域(如海马体)的神经活动与行为学习之间的特定关系。然而,我们观察到一小部分小鼠没有学会在轮子上奔跑或舔非操作性或操作性奖励(七只小鼠之一,14%),因此不能用于后续实验。额外的处理和习惯化以及通过进一步强化来减少动物的一般压力状态,例如通过使用理想的食物零食,可能有助于帮助这些动物在车轮上的头部约束行为期间采取积极的跑步和舔舐。

通过在虚拟轨道上间歇性圈数上操纵提示和奖励区域的存在和位置,实验者可以进一步辨别空间选择性舔对VR中特定信息通道的依赖性,以确定例如,小鼠如何依靠本地或远处的线索或自我运动信息来确定它们在环境中的位置。如果小鼠积极利用这个空间线索作为地标,那么它们已经学会了隐藏奖励位置的小鼠的舔舐选择性应该受到沿轨道的视觉线索的移动或遗漏的影响,正如我们在最近的一项使用空间嗅觉线索的工作中所展示的那样20。然而,即使使用我们在这里介绍的简单示例,小鼠实现的高度选择性舔舐(图4C,右)表明它们对VR视觉环境进行编码,以告知它们决定它们的位置,因此何时舔,因为奖励区仅在与VR环境中的视觉线索有关时才明显。除了视觉VR环境之外,该VR系统还允许呈现其他形式的空间和上下文线索,例如嗅觉,触觉和听觉线索,可用于测试神经活动和行为的选择性,以用于不同感官线索的复杂组合。此外,虽然我们没有测试任务表现对海马活动的依赖性,但最近一项使用类似任务但具有触觉线索的研究表明,海马失活23对空间学习的扰动,这应该得到本研究中执行的VR隐性奖励任务的证实。

Figure 1
图 1:头部约束式 VR 硬件设置:投影屏幕、跑轮和头部固定装置。 (A) 运行轮和投影屏幕的 3D 设计示意图。(B) 完成 VR 行为设置。VR环境在(1)单板计算机上渲染,并投影到抛物线(2)背投屏幕上(基于Chris Harvey实验室的设计1516)。(3)车轮总成。(4)头柱持有人。(5)奖励交付水库。(C)投影屏幕和行为设置的顶视图。(1)LED投影仪。(2) 用于将VR走廊反向投影到曲面屏幕上的镜子。(3)跑轮。(D) 车轮总成的后视图。车轮旋转由 (1) 旋转编码器转换,并通过 (2) ESP32 微控制器传输到单板计算机。(3)双轴测角仪用于微调光学成像的头部位置。(E)在鼠标插入级别设置,显示(1)头部固定装置和(2)舔端口放置在(3)运行轮表面上。(F) 连接到 (2) 弯曲臂的 (1) 舔口的照片,用于将奖励喷口精确放置在鼠标嘴附近。奖励通过行为 ESP32 控制的 (3) 电磁阀(通过 OpenMaze OMwSmall PCB)提供。还可以看到连接到 (4) 轮轴的旋转编码器和 (5) 用于调整头部角度的测角仪。请点击此处查看此图的大图。

Figure 2
图 2:VR 电子设置原理图。 该示意图描述了开源虚拟现实系统中鼠标电子元件之间最相关的连接。(A)小鼠头部被约束在丙烯酸跑轮上方的定制3D打印头部固定装置上。(B) 鼠标运行时轮轴的旋转由连接到微控制器的高分辨率旋转编码器(旋转解码器 ESP32)检测。(C)运动信息 通过 串行连接到运行HallPassVR GUI软件和3D环境的单板计算机,该计算机根据鼠标的运动更新VR虚拟线性跟踪环境中的位置。(D) 渲染的 VR 环境通过单板计算机的 HDMI #2 视频输出(VR 视频 HDMI) 发送到 投影仪/屏幕。(E) 来自旋转编码器 ESP32 的运动信息也会发送到另一个微控制器(带有 OpenMaze OMwSmall PCB 的行为 ESP32),该微控制器使用鼠标的位置来控制空间、非 VR 行为事件(例如奖励区域或空间嗅觉、触觉或听觉刺激),并与 VR 环境保持一致,并通过电容式触摸感应 测量 鼠标对奖励喷口的舔舐。 请点击此处查看此图的大图。

Figure 3
图 3图形软件 GUI 和行为。 (A) HallPassVR GUI:选择四个图像以平铺在每个空间图案上,覆盖轨道长度的三分之一(或加载先前保存的组合图案),每个路径中的三个图案等于轨道长度。选择天花板和地板图像,然后按“开始”以初始化单板计算机的HDMI输出(投影屏幕)上的VR环境。(B) 使用 A 中显示的 GUI 参数创建的示例虚拟走廊,用于隐藏奖励实验以测试空间学习。(C) 在B所示的虚拟环境中,头部约束的鼠标在方向盘上奔跑的照片。(D)顶部面板显示了VR环境中动物行为的在线绘图,从随附的处理草图中记录和绘制行为数据。在隐藏奖励空间学习期间,每 30 秒时间箱绘制 30 秒时间箱的舔、圈数和奖励。底部面板显示行为期间的当前鼠标位置(黑色)和任何奖励区域的位置(灰色)。请点击此处查看此图的大图。

Figure 4
图 4:使用图形软件环境的空间学习。来自一只动物的代表性空间舔舐数据 (A) 在沿虚拟线性轨道使用随机提示进行随机觅食期间,以及 (B-C) 在 1.5 m 处使用静态隐藏奖励区进行 2 天的训练,在轨道中间有一个视觉提示。A) 第 0 天随机觅食,每圈四个奖励区,从沿 2 m 虚拟线性轨道均匀分布的八个位置中随机选择。(左)30 分钟内每个空间箱(5 厘米)的平均舔次数(顶部:带有随机视觉刺激面板的 VR 走廊)。(右)此会话期间每圈每 5 厘米空间垃圾箱中的舔次数,由热图表示。(B)第1天,训练的第一天,在1.5米处使用单个奖励区(轨道图上的红色框,顶部)使用虚拟轨道,在位置0.8-1.2 m处包含单个高对比度刺激。 (左)训练的平均空间舔计数,显示当动物接近奖励区时舔舐增加。(右)每圈的空间舔,显示奖励前区域的舔选择性增加。(C)第2天,来自与第1天相同的隐藏奖励任务和虚拟走廊,来自同一只鼠标。(左)每个空间箱的总舔次,显示奖励前区域之外的舔舐次数减少。(右)第 2 天每圈的空间舔舐次数,显示奖励区之前的舔舐增加,其他地方的舔减少,表明空间特定预期舔的发展。这表明这种动物已经了解了(未提示的)隐藏奖励位置,并制定了一种策略,以尽量减少它们不希望有奖励的区域的努力(舔)。请点击此处查看此图的大图。

行为结果 小鼠数量 小鼠百分比
鼠标未运行/舔 1 14%
仅随机觅食 2 29%
习得的隐藏奖励 4 57%
总计 (N) 7

表1:VR空间学习行为试点结果。 对7只4月龄的两性C57BL/6小鼠进行渐进训练,以在VR中执行空间隐藏奖励任务。在这些小鼠中,一只小鼠在初始训练后没有奔跑/舔舐(七只小鼠中的一只,14%),而其余六只小鼠在训练的随机觅食步骤中学会了在轮子上奔跑和舔舐以获得随机空间奖励(七只小鼠中的六只,86%)。能够执行随机觅食行为的六只小鼠中的四只随后学会了选择性地舔舐,以期待隐藏奖励任务中的非提示奖励(七只小鼠中的四只,总共57%的小鼠,六只小鼠中的四只,66%的随机觅食小鼠),而两只没有(七只小鼠中的两只, 29%).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

这款面向鼠标的开源 VR 系统只有在旋转和行为 ESP32 微控制器与单板计算机之间正确建立串行连接(步骤 2)的情况下才能运行(步骤 2),这可以使用 IDE 串行监视器(步骤 2.4.5)进行确认。为了从该协议(步骤4)获得成功的行为结果,必须使小鼠习惯于该装置,并舒适地在轮子上运行以获得液体奖励(步骤4.3-4.5)。这需要足够(但不是过度)的水限制,因为在笼子里随意喝水的小鼠不会奔跑和舔舐以获得奖励(即,表明它们的感知位置),脱水的老鼠可能会昏昏欲睡,不会在轮子上奔跑。还值得注意的是,有替代方法可以在不限水的情况下激励小鼠行为24;但是,我们没有在这里测试这些方法。对于训练程序,最初不跑步的动物可以通过附加的可选按钮按下来给予实验者临时(即非空间)水奖励,或者可以轻轻移动轮子以鼓励运动。为了发展随机觅食行为,奔跑但不舔的小鼠应以非操作性奖励(行为 ESP32 代码:isOperant = 0;,步骤 4.5.1)运行,直到它们奔跑并舔舐以获得奖励,然后它们可以与非操作性和操作性奖励区交替圈数一起奔跑(altOpt=1; 步骤4.5.2),直到它们开始舔操作圈,然后移动到完全操作的随机奖励区(步骤4.5.3)。

虽然我们已经为一组基本实验提供了完整的说明和示例结果,旨在引发一种形式的空间学习(在虚拟线性轨道环境中的隐藏奖励位置进行条件舔),但也可以修改相同的基本硬件和软件设置,以使用Raspberry Pi的pi3d Python包交付更复杂的视觉空间环境。例如,该系统可以合并更复杂的迷宫,例如具有可变长度的走廊,多种图案和3D对象,以及自然主义的3D VR景观。此外,通过改变关键变量(在行为 ESP32 代码的开头呈现)或在同一代码中插入新类型的空间事件,可以针对其他训练范式修改用于传递水奖励和其他非视觉刺激的行为软件。我们很乐意为用户提供有关使用此VR设置或故障排除实施其他类型的行为实验的方法的建议。

沉浸式VR环境已被证明是一种多功能工具,可用于研究临床和动物研究中的空间导航678奖励学习行为9和视觉感知25的潜在神经机制。这种方法的主要优点是实验者可以严格控制上下文元素,例如视觉线索和特定的空间刺激(例如,奖励和嗅觉、听觉或触觉刺激),这在自由移动的动物的现实环境中是不切实际的。然而,应该注意的是,与使用真实世界环境相比,VR环境由大脑区域(如海马体)编码的方式可能存在差异2627。有了这个警告,VR环境的使用允许实验者在精心控制的刺激下进行大量行为试验,从而可以分离不同感官元素对空间导航的贡献。

构建自定义VR设置的复杂性通常需要广泛的工程和计算机编程背景,这可能会增加设置时间并限制可以构建的用于训练小鼠进行实验的设备数量。VR设置也可以从商业供应商处获得;但是,如果用户想要实现新功能或将培训/记录容量扩展到多个设置,则这些解决方案可能既昂贵又有限。此处介绍的开源 VR 设置的估计价格范围为 <1,000 美元 (USD);然而,可以以<500美元(USD)的价格生产用于训练的简化版本(例如,缺少用于头部角度调整的测角仪),从而允许构建多个设置以大规模训练小鼠。组件的模块化布置还允许将VR与其他行为控制系统集成,例如我们之前使用的具有空间嗅觉和触觉刺激的跑步机系统20,因此,VR和其他刺激模式并不相互排斥。

这款开源 VR 系统及其相关硬件(跑轮、投影屏幕和头部固定设备)、电子设置(单板计算机和 ESP32 微控制器)和软件(VR GUI 和行为代码)提供了一种廉价、紧凑且易于使用的设置,可在头部受限的空间导航期间为鼠标提供参数化的沉浸式 VR 环境。然后,这种行为可以与神经成像或电生理记录同步,以检查空间学习期间的神经活动(步骤2.3.7)。与VR兼容的实验技术范围很广,从单独的空间学习行为到与光纤光度法,微型成像,单光子和多光子成像以及电生理技术(例如,神经像素或细胞内记录)相结合。虽然头部枕式对于其中一些记录技术是必要的,但刺激呈现的极其精确的性质和行为的刻板性质也可能对其他不需要头部固定的技术有用,例如微型镜成像和光纤光度测量。然而,应该注意的是,我们基于电容式传感器的检测舔舐的解决方案可能会在电生理痕迹上引入显着的噪声。为避免此类伪影,应采用光学或其他(例如机械)解决方案进行舔舐检测。

VR系统的未来改进将上传到项目GitHub页面(https://github.com/GergelyTuri/HallPassVR),因此用户应定期查看此页面以获取更新。例如,我们正在用蓝牙功能替换微控制器和单板计算机之间的硬连线串行连接,这是本设计中已经使用的 ESP32 微控制器的原生功能。此外,我们计划升级 HallPassVR GUI,以允许在每个行为会话中指定不同的路径,以包含不同圈数上关键地标视觉刺激的不同位置。这将为在空间学习过程中分离特定视觉和上下文特征对空间神经编码的影响提供更大的灵活性。

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Clay Lacefield是 OpenMaze.org 的创始人和维护者,该公司为该协议中使用的OMwSmall PCB提供免费下载设计。

Acknowledgments

我们要感谢哈维实验室的诺亚·佩蒂特(Noah Pettit)在本手稿中开发协议时的讨论和建议。这项工作得到了BBRF青年研究者奖和NIMH 1R21MH122965(G.F.T.)的支持,此外还有NINDS R56NS128177(R.H.,C.L.)和NIMH R01MH068542(R.H.)。

Materials

Name Company Catalog Number Comments
1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

DOWNLOAD MATERIALS LIST

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. Pettit, N., et al. Harvey Lab Mouse VR. , Available from: https://github.com/Harvey/Lab/mouseVR (2021).
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Tags

神经科学,第193期,
一种用于测量头部约束小鼠空间学习的开源虚拟现实系统
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Lacefield, C., Cai, H., Ho, H.,More

Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter