Waiting
Processando Login

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

使用多功能自制摄像机和 DeepLabCut 跟踪操作调节室中的大鼠

Published: June 15, 2020 doi: 10.3791/61409

Summary

该协议描述了如何构建小型多功能摄像机,以及如何使用从中获得的视频来训练神经网络来跟踪动物在操作调节室中的位置。这是对从操作调理测试中获得的数据日志的标准分析的宝贵补充。

Abstract

操作调理室用于在神经科学领域进行广泛的行为测试。记录的数据通常基于腔室内存在的杠杆和鼻戳传感器的触发。虽然这提供了动物执行某些响应的时和方式的详细视图,但它不能用于评估不触发任何传感器的行为。因此,评估动物如何定位自己和在室内移动是很难的。为了获得这些信息,研究人员通常必须录制和分析视频。操作调节室的制造商通常可以为客户提供高质量的摄像机设置。但是,这些可能非常昂贵,不一定适合来自其他制造商或其他行为测试设置的腔室。当前协议描述了如何使用爱好电子元件构建廉价且多功能的摄像机。它进一步描述了如何使用图像分析软件包 DeepLabCut 跟踪强光信号的状态,以及大鼠的位置,在从操作调节室收集的视频中。前者在涵盖整个测试会话的视频中选择感兴趣的短段时有很大的帮助,后者能够分析无法从操作室生成的数据日志中获得的参数。

Introduction

在行为神经科学领域,研究人员通常使用操作调节室来评估啮齿动物中各种不同的认知和精神特征。虽然有一些不同的制造商的这种系统,他们通常共享某些属性,并具有几乎标准化的设计1,1,2,3。,3房间一般为方形或长方形,其中一面墙可以打开,将动物放在里面,其余一面或两面墙内有一个或两个墙,里面装着诸如杠杆、鼻戳开口、奖励托盘、响应轮和各种1、2、32灯等部件1腔室中的灯和传感器用于控制测试规程和,跟踪动物的行为1,2,3,4,5。2,34,51典型的操作调节系统允许非常详细的分析动物如何与不同操作和开口在房间中相互作用。通常,任何触发传感器的场合都可以由系统记录,用户可以在此数据中获取详细的日志文件,描述动物在测试4、 5的特定步骤中做了什么。虽然这提供了动物性能的广泛表示,但它只能用于描述直接触发一个或多个传感器4,5,的行为。因此,与动物在测试的不同阶段如何定位和在室内移动有关的方面,并没有很好地描述6、7、8、9、10。,8,9,106,这是不幸的,因为这些信息对于充分了解动物的行为是有价值的。例如,它可以用来澄清为什么某些动物在给定的测试6上表现不佳,来描述动物可能发展的策略,,以处理困难的任务6,7,8,9,10,或欣赏所谓的8,9,10简单行为,711,12,的真正复杂性。为了获得如此清晰的信息,研究人员通常转向,,,视频6、7、8、9、10、11,7,8的手动分析910

当从操作调节室录制视频时,相机的选择至关重要。房间通常位于隔离的隔间,协议经常利用步骤,没有可见光闪耀3,6,7,8,9。6,7,8,93因此,有必要将红外 (IR) 照明与红外感应摄像机结合使用,因为它即使在完全黑暗中也允许能见度。此外,在隔离隔间内放置摄像机的空间通常非常有限,这意味着使用具有宽视场(例如鱼眼镜片)的小型摄像机对9有强烈好处。虽然操作式调理系统的制造商通常可以为客户提供高质量的摄像机设置,但这些系统可能非常昂贵,不一定适合其他制造商的机室或其他行为测试的装置。然而,与使用独立摄像机的一个显著好处是,这些设置通常可以直接与操作调理系统13,14接口13,通过此,可以设置它们仅记录特定事件,而不是完整的测试会话,这极大地有助于以下分析。

当前协议描述了如何使用爱好电子元件构建廉价且多功能的摄像机。该摄像机使用鱼眼镜头,对红外照明敏感,并连接到一组红外发光二极管 (IR LED)。此外,它是为了有一个平坦和苗条的轮廓。这些方面共同使得它非常适合从大多数市售的可操作的调理室以及其他行为测试设置录制视频。该协议进一步描述了如何处理使用相机获得的视频,以及如何使用软件包 DeepLabCut15,16来帮助提取感兴趣的视频序列以及跟踪动物在其中的运动。15,这在一定程度上避免了使用独立摄像机对调理系统操作制造商提供的集成解决方案的回拉,并为手动行为评分提供了补充。

已作出努力,以一般格式编写协议,以强调整个过程可以适应不同操作调理测试的视频。为了说明某些关键概念,使用执行 5 选择串行反应时间测试 (5CSRTT)17 的大鼠视频作为示例。

Subscription Required. Please recommend JoVE to your librarian.

Protocol

所有包括动物处理的程序都已经获得马尔默-隆德动物研究伦理委员会的批准。

1. 构建摄像机

注:材料表中提供了构建摄像机所需的组件列表。也请参阅图1,图 2,图 3,图 4图 5

  1. 将磁性金属环(与鱼眼镜头包一起)连接到摄像机支架的开口周围(图 2A)。这将允许鱼眼镜头被放置在相机前面。
  2. 将相机模块连接到摄像机支架(图2B)。这将给摄像机模块带来一些稳定性,并给电子电路提供一些保护。
  3. 通过轻轻拉动其塑料夹的边缘(图2C),打开相机模块和微型计算机上的摄像机端口(图1)。
  4. 将带状电缆放在摄像机端口中,使银色连接器朝向电路板(图2C)。通过推入摄像机端口的塑料夹,将电缆锁定到位。
  5. 将微型计算机放在塑料盒中,然后插入列出的微型 SD 卡(图 2D)。
    注:微型SD卡将用作微机的硬盘,并包含一个完整的操作系统。列出的微型 SD 卡附带预安装管理器(新的开箱即用软件 (NOOBS)。作为替代方案,您可以将最新版本的微型计算机操作系统(Raspbian 或 Rasberry Pi OS)的图像写入通用微型 SD 卡。有关此帮助,请参阅官方网站资源18。最好使用具有 32 Gb 存储空间的 10 级微型 SD 卡。较大的 SD 卡可能无法与列出的微计算机完全兼容。
  6. 将显示器、键盘和鼠标连接到微型计算机,然后连接其电源。
  7. 按照安装指南提示的步骤执行微机操作系统(Raspbian 或 Rasberry Pi OS)的完整安装。当微型计算机启动后,请确保通过以太网电缆或 Wi-Fi 连接到互联网。
  8. 按照下面概述的步骤更新微机预装的软件包。
    1. 打开终端窗口(图 3A)。
    2. 键入"sudo apt-get 更新"(不包括引号),然后按 Enter 键(图 3B)。等待进程完成。
    3. 键入"sudo apt 完全升级"(不包括引号)并按 enter。在提示时进行按钮响应,并等待进程完成。
  9. 在"开始"菜单下,选择"首选项"和"树莓派配置"(图 3C)。在打开的窗口中,转到"接口"选项卡,然后单击"启用相机"和"I2C"。这是微型计算机使用摄像机和红外 LED 模块时需要的。
  10. 补充文件 1 重命名为"Pi_video_camera_Clemensson_2019.py"。将其复制到 USB 记忆棒上,然后复制到微机的 /home/pi 文件夹中(图 3D)。此文件是 Python 脚本,它允许使用步骤 1.13 中附加的按钮开关进行视频录制。
  11. 按照下面概述的步骤编辑微机的 rc.local 文件。这使计算机启动步骤 1.10 中复制的脚本,并在启动步骤 1.13 时启动步骤 1.13 中附加的红外 LED。
    注意:此自动启动功能不能可靠地与列出的型号以外的微型计算机板一起使用。
    1. 打开终端窗口,键入"sudo nano /etc/rc.local"(不包括引号)并按 enter。这将打开一个文本文件(图 4A)。
    2. 使用键盘的箭头键将光标向下移动到"fi"和"退出 0"之间的空格(图 4A)。
    3. 添加以下文本,如图 4B 所示,将每个文本字符串写入新行:
      sudo i2cset -y 1 0x70 0x00 0xa5 &
      sudo i2cset -y 1 0x70 0x09 0x0f &
      sudo i2cset -y 1 0x70 0x01 0x32 &
      sudo i2cset -y 1 0x70 0x03 0x32 &
      sudo i2cset -y 1 0x70 0x06 0x32 &
      sudo i2cset -y 1 0x70 0x08 0x32 &
      苏多巨蛇 /家/皮/Pi_video_camera_Clemensson_2019.py &
    4. 通过按Ctrl = x,后y 和 Enter 保存更改
  12. 焊接在一起的必要组件,如图 5A所示,如下所述。
    1. 对于两个彩色 LED,将电阻器和母跳线电缆连接到一条腿,将母跳线电缆连接到另一条腿(图 5A)。尽量保持电缆短。请注意,哪个 LED 电极是负极(通常是短电极),因为这需要连接到微机通用输入/输出 (GPIO) 引脚上的接地。
    2. 对于两个按钮开关,将母跳线电缆连接到每条腿(图5A)。使电缆长于其中一个开关,而为另一个开关做短电缆。
    3. 要组装红外 LED 模块,请按照其官方网络资源19 上的说明进行操作。
    4. 用收缩管盖住焊接接头,以限制元件短路的风险。
  13. 关闭微型计算机,将开关和 LED 连接到其 GPIO 引脚,如图 5B所示,如下所述。
    注意:当摄像机打开时,将组件连接到错误的 GPIO 引脚可能会损坏它们和/或微型计算机。
    1. 连接一个 LED,以便其负端连接到#14,其正端连接到#12。当微型计算机启动且相机已准备就绪时,此 LED 指示灯将发光。
    2. 用长线连接按钮开关,使一根电缆连接到固定#9另一根电缆连接到#11。此按钮用于启动和停止视频录制。
      注意:控制摄像机的脚本已写入,因此此按钮在开始或停止视频录制后几秒钟无响应。
    3. 连接一个 LED,以便其负端连接到#20,其正端连接到#13。当摄像机录制视频时,此 LED 指示灯将发光。
    4. 将按钮开关与短电缆连接,使一根电缆连接到#37另一根电缆固定#39。此开关用于关闭摄像机。
    5. 连接红外LED模块,如其官方网络资源19中所述

2. 设计感兴趣的操作调节方案

注意:要使用 DeepLabCut 跟踪从操作室录制的视频中的协议进度,行为协议需要以特定的方式进行构建,如下所述。

  1. 将协议设置为使用腔室的室内灯或其他强光信号作为协议中特定步骤的指示器(如单个试验的开始或测试会话)(图 6A)。此信号将在此协议的其余部分中称为"协议步骤指示器"。此信号的存在将允许跟踪录制视频中的协议进度。
  2. 设置协议以记录与协议步骤指示器何时处于活动状态相关的各个时间戳的所有感兴趣响应。

3. 录制动物进行兴趣行为测试的视频

  1. 将摄像机放在操作室的顶部,以便记录内部区域的顶部视图(图 7)。
    注:这特别适合捕捉动物在室内的一般姿势和姿势。避免将摄像机的指示灯和红外 LED 模块放在摄像机镜头附近。
  2. 通过电源电缆将其连接到电源插座,启动摄像机。
    注:在第一次使用之前,使用相机模块附带的小工具设置摄像机对焦是有益的。
  3. 使用步骤 1.13.2 中连接的按钮开始和停止视频录制。
  4. 按照以下步骤关闭摄像机。
    1. 按住步骤 1.13.4 中连接的按钮,直到步骤 1.13.1 中连接的 LED 关闭。这将启动摄像机的关闭过程。
    2. 等到微型计算机顶部可见的绿色 LED (图1) 停止闪烁。
    3. 卸下摄像机的电源。
      注意:在微机仍在运行时拔下电源可能会导致微 SD 卡上的数据损坏。
  5. 将相机连接到显示器、键盘、鼠标和 USB 存储设备,然后从桌面检索视频文件。
    注:文件根据开始视频录制的日期和时间进行命名。但是,微型计算机没有内部时钟,并且仅在连接到互联网时更新其时间设置。
  6. 将录制的视频从 .h264 转换为 。MP4,因为后者与 DeepLabCut 和大多数媒体播放器工作得很好。
    注意:有多种方法可以实现此目的。其中一个在 补充文件2中描述

4. 使用 DeepLabCut 分析视频

注:DeepLabCut 是一个软件包,允许用户定义一组视频帧中的任何感兴趣对象,然后使用这些对象来训练神经网络,以跟踪在全长视频15,16的对象的位置。本节大致概述如何使用 DeepLabCut 跟踪协议步骤指示器的状态和大鼠头部的位置。DeepLabCut 的安装和使用在其他已发布的协议15、16描述得很好。每个步骤都可以通过特定的 Python 命令或 DeepLabCut 的图形用户界面完成,如15、16,的其他地方所述

  1. 按照16中概述的步骤创建和配置新的 DeepLabCut 项目。
  2. 使用 DeepLabCut 的帧抓取功能,从第 3 节录制的一个或多个视频中提取 700+u2012900 视频帧。
    注:如果动物在毛皮色素沉着或其他视觉特征上差异很大,建议将 700+u2012900 提取的视频帧跨不同动物的视频进行拆分。通过此,可以使用一个经过培训的网络来跟踪不同的个人。
    1. 确保包括同时显示协议步骤指示器的活动(图8A)和非活动(图8B)状态的视频帧。
    2. 确保包括视频帧,这些视频帧涵盖大鼠在测试期间可能显示的不同姿势、姿势和头部动作的范围。这应包括大鼠在腔室的不同区域静止不动的视频帧,其头部指向不同的方向,以及大鼠积极移动、进入鼻子戳开口和进入颗粒槽的视频帧。
  3. 使用 DeepLabCut 的标签工具箱手动标记在步骤 4.2 中提取的每个视频帧中大鼠头部的位置。使用鼠标光标将"头"标签放在大鼠耳朵之间的中心位置(图8A,B)。此外,标记室的室内灯(或其他协议步进指示器)的位置,在每个视频帧中,它正积极闪耀(图8A)。将房子的灯留在框架中,在框架中不标记它处于非活动状态(图 8B)。
  4. 使用 DeepLabCut 的"创建训练数据集"和"训练网络"功能,从步骤 4.3 中标记的视频帧创建训练数据集,并开始神经网络训练。确保为所选网络类型resnet_101""网络"。
  5. 当训练损失稳定在0.01以下时,停止网络训练。这可能需要多达 500,000 次训练迭代。
    注意:当使用内存约为 8 GB 的 GPU 计算机和大约 900 个视频帧(分辨率:1640 x 1232 像素)的训练集时,已发现训练过程大约需要 72 小时。
  6. 使用 DeepLabCut 的视频分析功能,使用步骤 4.4 中训练的神经网络分析步骤 3 中收集的视频。这将提供一个 .csv 文件,列出被分析视频的每个视频帧中大鼠头部的跟踪位置和协议步骤指示器。此外,它将创建标记的视频文件,其中跟踪的位置显示视觉 (视频 1-8).
  7. 按照下面列出的步骤评估跟踪的准确性。
    1. 使用 DeepLabCut 的内置评估功能获得网络跟踪准确性的自动评估。这基于在步骤 4.3 中标记的视频帧,并描述了网络跟踪的位置与手动放置的标签的平均位置有多远。
    2. 在步骤 4.6 中获得的标记视频中选择一个或多个简短的视频序列(每个视频帧约 100+u201200)。浏览视频序列、一帧一帧,并记下标签正确指示大鼠头部、尾部等位置的帧数,以及标签放置在错误位置或未显示的帧数。
      1. 如果身体部位或物体的标签经常丢失或放置在错误的位置,请识别跟踪失败的情况。通过重复步骤 4.2 提取和添加这些场合的标记帧。和 4.3.然后重新训练网络,然后通过重复步骤 4.4-4.7 重新分析视频。最终,应实现 >90% 精度的跟踪精度。

5. 获取操作室中感兴趣点的坐标

  1. 使用步骤 4.3 中描述的 DeepLabCut 在单个视频帧中手动标记操作室中的兴趣点(如鼻戳开口、杠杆等)(图 8C)。这些是根据研究特定兴趣手动选择的,尽管应始终包括协议步骤指标的位置。
  2. 从 .csv 文件中检索标记的兴趣点的坐标,DeepLabCut 在项目文件夹中的"标记数据"下自动存储该文件。

6. 识别协议步骤指示器处于活动状态的视频段

  1. 将步骤 4.6 中从 DeepLabCut 视频分析中获得的 .csv 文件加载到首选的数据管理软件中。
    注:由于从 DeepLabCut 和操作调节系统获得的数据的数量和复杂性,最好通过自动分析脚本进行数据管理。要开始这一点,请参阅其他地方的入门级指南20,21,22。,21,22
  2. 注意,其中视频分段协议步骤指示器在第 5 节获得的位置的 60 像素范围内进行跟踪。这些周期将是协议步骤指标处于活动状态的期间(图6B)。
    注意:在协议步骤指示器未发光的视频片段中,标记的视频可能似乎表示 DeepLabCut 没有跟踪到任何位置。但是,这种情况很少发生,而是通常跟踪到多个分散的位置。
  3. 提取协议步骤指示器处于活动状态的每个期间的确切起点(图6C: 1)。

7. 确定感兴趣的视频段

  1. 考虑协议步骤指示器变为活动点的点(图6C: 1)和操作室记录的响应时间戳(第 2 节,图 6C: 2)。
  2. 使用此信息确定哪些视频片段涵盖特定有趣的事件,如审判间间隔、响应、奖励检索等(图 6C:3, 图 6D)。
    注意:为此,请记住,此处描述的摄像机以 30 fps 录制视频。
  3. 请注意涵盖这些事件的特定视频帧。
  4. (可选)编辑完整测试会话的视频文件,以仅包含感兴趣的特定段。
    注意:有多种方法可以实现此目的。其中一个在 补充文件2和3中描述。这在存储大量视频时大有帮助,还可以使查看和呈现结果更加方便。

8. 分析特定视频片段中动物的位置和运动

  1. 将步骤 4.6 中从 DeepLabCut 获得的头部位置的完整跟踪数据进行,以仅包括第 7 节所述的视频段。
  2. 计算动物头部相对于第5节(图8C)选择的一个或多个参考点的位置。这样可以比较不同视频的跟踪和位置。
  3. 对动物的位置和运动进行相关的深入分析。
    注:执行的具体分析将强烈特定于研究。下面提供了一些可以分析的参数示例。
    1. 通过绘制一个图形中选定期间内检测到的所有坐标来可视化路径跟踪。
    2. 使用以下公式分析与给定兴趣点的接近性:
      Equation 1
    3. 通过计算连续帧中跟踪坐标之间的距离,并除以摄像机的 1/fps 来分析移动过程中速度的变化。

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

摄像机性能

代表性的结果是在28.5厘米×25.5厘米、高度为28.5厘米的老鼠的可操作调理室中收集的。连接鱼眼镜头后,当摄像机放置在房间上方时,摄像机可捕捉整个地板面积和周围墙壁的很大部分(图 7A)。因此,即使摄像机位于摄像机顶部的中心位置,也可以获得良好的视图。这对于类似的操作室应该如此。红外 LED 能够照亮整个腔室(图7B,C),即使在室内所有其他灯都关闭时,也可实现良好的视图(图 7C)。然而,在这种情况下,照明并不完全均匀,并可能导致一些难以获得准确的跟踪。如果有兴趣进行此类分析,则可能需要其他红外照明源。值得注意的是,一些商会使用金属滴锅收集尿液和粪便。如果摄像机直接放置在此类表面上方,则在录制的视频中将可以看到红外 LED 光源的强烈反射(图 7B)。但是,通过将纸巾放在掉落的平底锅中来避免这种情况,从而改善图像(图7C)。将摄像机的红外或彩色 LED 放置离相机镜头太近可能会导致它们在图像外围可见(图 7B)。由于摄像机对红外敏感,视频中可能可以看到室内的任何红外光源。对于许多设置,这将包括红外光束断裂传感器的连续发光(图7C)。摄像机红外 LED 的连续照明不会干扰光线充足的腔室的图像质量(图7D)。使用相机录制的视频大小约为 77 Mb/分钟。如果摄像机使用 32 Gb 微型 SD 卡,则安装操作系统后应有大约 20 Gb 可用。这留下了大约 260 分钟录制素材的空间。

鱼眼镜头使相机对焦稍微不均匀,图像中心很锐利,但对边缘的锐度会降低。这似乎不会影响跟踪的准确性。此外,鱼眼镜头导致记录的图像失真。例如,沿直线的等间距点之间的距离将显示人为减小的间距,朝向图像的外围(图9A,B)。如果摄像机用于大多数视野或距离和速度的绝对测量值感兴趣的应用,则值得考虑更正此失真23 的数据(补充文件 4)。但是,在图像中心失真相对温和(图9B)。对于聚集在我们操作室的视频,感兴趣的区域仅限于摄像机视野的中央 25%。在此区域中,鱼眼失真的影响最小(图9C+u2012F)。

使用 DeepLabCut 跟踪的准确性

确定训练网络跟踪准确性的主要因素是 :一) 其训练数据集中标记的帧数,(ii) 这些标记帧捕获感兴趣的行为以及 (iii) 使用的训练迭代数。DeepLabCut 包括一个评估函数,该函数报告其跟踪与对象实际位置有多远(以像素为单位)的估计值。然而,这并不一定能对对象丢失和/或标记错误的框架数进行很好的描述(图10A),这促使需要对跟踪准确性进行额外的手动评估。

对于分析操作室内的行为,训练有素的网络应允许准确识别协议步骤指示器处于活动状态的所有事件。如果没有,可能需要重新训练网络或选择不同的指示器。尽管拥有训练有素的网络,但协议步骤指示器的跟踪有时可能会因动物阻挡摄像机视图而中断(图 10B)。这将导致跟踪中断,这让人想起指标处于非活动状态的情节。发生的频率将取决于动物应变,行为协议的类型和协议步骤指标的选择。在此使用的 5CSRTT 示例数据中,它发生在 400 个试验中的 4 个(未显示数据)。所有场合都很容易识别,因为它们的持续时间与协议设计中包含的中断步骤不匹配(图6A)。最终,选择一个在室内高高放置且远离动物相互作用的成分的指标可能会有所帮助。

训练有素的网络在感兴趣的视频段中跟踪动物头部时应允许 >90% 的准确度(视频1)。这样,只需从后续分析中排除一小部分视频帧,并且从测试会话中的几乎所有试验中几乎可以获得可用跟踪数据。精确跟踪可以清楚地识别出动物在整个运动过程中遵循的标记(视频2),并绘制的路径看起来平滑(图10C)。相比之下,不准确的跟踪的特点是标记不能可靠地留在目标上(视频3)和绘制的路径出现锯齿状(图10D)。后者是由于被跟踪到精确跟踪序列中单个视频帧中的遥远错误位置的对象造成的。因此,不准确的跟踪通常会导致计算运动速度的突然变化(图10E)。这可用于识别跟踪不准确的视频帧,将其排除在后续分析之外。如果跟踪准确性存在严重问题,应识别跟踪失败的场合,并使用包含这些事件标记的视频帧的扩展训练集重新训练网络(图 10A,E)。

使用视频跟踪来补充操作行为分析

分析动物在操作性测试中的移动和定位方式,将提供了对它们行为复杂和多方面本质的多重见解。通过跟踪动物在整个测试会话中的位置,可以评估不同的运动模式与性能的关系(图 11A,B)。通过进一步调查特定协议步骤中的头部运动,可以检测和描述不同策略的用途(图 11C+u2012E)。

为了举例说明,请考虑为执行 5CSRTT 测试的大鼠提供的代表数据(图 6A,图 11)。在此测试中,动物被呈现多个试验,每个试验从5秒的等待步骤(试验间间隔 - ITI)开始(图6A:1)。在此结束时,一盏灯将照在一个鼻子戳开口内(每次试验中随机选择的位置,图 6A: 2)。鼻子戳到 cued 开口被认为是一个正确的反应,并奖励 (图 6A: 3)。响应另一个开口被视为不正确。在光呈现后5小时内未作响应即视为遗漏。在这项测试的 ITI 期间跟踪头部运动表明,在大鼠执行反应的试验中,它们正快速向鼻子戳开口周围的区域移动(图 11A、B、视频4)。相比之下,在大部分遗漏试验中,大鼠无法接近开口周围的区域(图11B,视频5)。这种行为与对遗漏的常见解释是密切相关的,因为执行测试3,16的动机。然而,在遗漏试验的子集(大约20%的当前数据集),大鼠表现出明显的焦点对开口(图11B,视频6),但没有注意到cued开口的确切位置。因此,数据表明,至少有两种不同类型的遗漏,一种与对正在进行的审判可能不感兴趣有关,另一种更依赖于足够的视觉空间关注头部跟踪也可用于区分明显的策略。例如,在分析大鼠在 5CSRTT 期间靠近鼻子戳开口时,它们揭示了两种不同的注意力策略(图 11C+u2012E)。在第一个策略中,大鼠表现出一种非常专注的方法,在整个 ITI 中保持中心位置(图 11C,视频 7)。相比之下,采用其他策略的老鼠会以搜索方式在不同开口之间移动头部(图11D,视频8)。这种类型的行为差异可以通过计算在靠近不同开口时所花费的时间来方便地量化(图11E)。最后,通过分析在提示光呈现时哪个开口最接近(图11F),可以证明处于中心位置(图11G)和/或接近提示开口位置(图11H)似乎有利于测试的准确性能。

Figure 1
图1:所列微机草图。 示意图显示了几个感兴趣的组件在微型计算机主板上的位置。这些标记有圆圈数字如下: 1: 摄像机带状电缆的连接器;2: 指示灯指示灯指示计算机何时运行;3:用于电源电缆的微型 USB;4:用于鼠标/键盘的微型USB;5:通用输入/输出引脚(GPIO引脚),这些引脚用于将微机连接到LED、开关和红外LED模块;6:迷你HDMI输出;7: 微型 SD 卡插槽。在图的下半部分,显示 GPIO 引脚的裁剪和放大部分,以指示如何沿它们计数以正确识别特定引脚的位置。 请单击此处查看此图的较大版本。

Figure 2
图2:构建摄像机的主体。 这些数字说明了构建摄像机主体的主要步骤。(A) 将磁性金属环连接到摄像机支架上。(B) 将相机模块连接到摄像机支架上。(C) 通过扁平带状电缆将相机模块连接到微型计算机。请注意指示如何打开和关闭微型计算机和摄像机模块上的摄像机端口的白色箭头。(D) 将微型计算机放入塑料外壳中,插入微型SD卡。 请单击此处查看此图的较大版本。

Figure 3
图 3:更新微机的操作系统并启用外围设备。 图中显示了四个不同的屏幕截图,描绘了微机的用户界面。(A) 可以通过单击屏幕左上角的"终端"图标打开终端窗口。(B) 在终端中,可以键入不同类型的命令,如协议文本中详述的。屏幕截图显示更新系统软件包的命令。(C) 屏幕截图显示如何导航到配置菜单,其中可以使用相机模块和 I2C GPIO 引脚。(D) 屏幕截图显示 /home/pi 文件夹,其中相机脚本应在协议的步骤 1.10 中复制。单击屏幕左上角的显示图标打开窗口。 请单击此处查看此图的较大版本。

Figure 4
图 4:配置微机的 rc.local 文件。 该图显示微机的 rc.local 文件的两个屏幕截图,如步骤 1.11.1 中所述,通过终端访问该文件。(A) rc.local 文件的原始格式的屏幕截图。箭头指示需要输入文本的空间,以便启用摄像机的自动启动功能。(B) rc.local 文件的屏幕截图,经过编辑后,它闪耀的红外 LED,并在微型计算机启动时启动控制摄像机的 python 脚本。 请单击此处查看此图的较大版本。

Figure 5
图 5:将开关和 LED 连接到微机的 GPIO 引脚。A) 显示带母跳线电缆的按钮开关(顶部)和带电阻器和母跳线电缆的 LED(底部)。(1) 按钮开关,(2) 母跳线电缆,(3) LED,(4) 电阻器。(B) 显示两个按钮开关、彩色 LED 和红外 LED 板如何连接到微机的 GPIO 引脚的示意图图像。蓝色电缆和 GPIO 引脚指示接地。图中指示两个 GPIO 引脚的位置(GPIO 引脚 #2 和 #40):(1) 用于启动/停止视频录制的按钮。(2) LED 指示何时录制视频。(3) 用于关闭相机的按钮。(4) LED 指示灯指示摄像机何时启动并准备使用。(5) 红外 LED 模块。请注意,带 LED 的电路还包含 330 Ω 电阻器。 请单击此处查看此图的较大版本。

Figure 6
图 6:使用协议步骤指标的 DeepLabCut 跟踪来识别全长视频中感兴趣的序列。A) 在 5 选择串行反应时间测试 (5CSRTT) 中单次试验的步骤的示意图: (1) 首先,有一个短暂的等待期 (ITI)。箭头表示主动闪耀的房子灯。(2) 在 ITI 的末尾,五个鼻子戳开口之一(箭头)中会有一盏灯。(3) 如果大鼠通过鼻子戳入尖开来做出准确反应,则提供奖励(箭头)。(4) 允许老鼠取回奖励。(5) 为了允许使用房屋灯作为协议步骤指示器,在下次试验开始前实施一个简短的暂停步骤,其中房屋灯关闭(箭头)。请注意,在审判的后续步骤中,房子的灯光是闪亮的。(B) 在 5CSRTT 测试的视频段中,描述活动房屋光的 x 坐标的示例图,由 DeepLabCut 跟踪。在房屋光线闪耀的段(指示灯为活动 - 1)中,位置被跟踪到一致且稳定的点(也注意示例视频帧中的红色标记(用箭头指示),与 图 8C 中房屋灯的位置(x,y: 163,503)相当。在房屋光线不发光的段(指示器非活动 - 2,请注意示例视频帧中的白色箭头),跟踪的位置不稳定,并且远离房屋灯光的实际坐标。(C) 表 1 显示了从协议步骤指示器的 DeepLabCut 跟踪中获得的已处理输出的示例。在此输出中,已列出指标处于活动状态的每个场合的起点。表2描述了从操作调节系统获得的数据示例,并提供了个别试验的相关细节。在此示例中,已记录 ITI 的持续时间、提示打开位置和执行响应和检索奖励的延迟。表 3 描述了通过合并 DeepLabCut 的跟踪结果和从操作调理系统记录的数据获得的数据示例。通过此,获得了 ITI 起点(A 中步骤 1)、提示光表示的起点(A 中的步骤 2)、响应(A 中的步骤 3)和检索(A 中的步骤 4)的视频帧。(D) 在拍摄的 5CSRTT 试验中,一个示例图,描绘了房子光线的 x 坐标,由 DeepLabCut 跟踪。协议的不同步骤表示:(1) ITI;(2) 提示光的表示(由白色箭头指示的位置);(3) 回应;(4) 奖励检索。描述这些不同协议步骤的开始和停止的视频帧的标识是通过与 D 中所示的过程相媲美的过程完成的

Figure 7
图7:相机的图像特征。A) 从放置在操作调节室顶部的摄像机获得的未裁剪图像。图像是在房间被放在一个明亮的房间里时拍摄的。请注意 (1) 房子灯和 (2) 奖励颗粒槽沿室的左壁和 (3) 一排五个鼻子戳开口沿室的右壁.每个鼻子戳开口包含一个小的提示灯。(B) 未裁剪的图像显示 (1) 金属掉落盘引起的强反射,以及相机 (2) 指示灯和 (3) 红外 LED 模块的次优定位引起的反射。(C) 在完全黑暗中裁剪了房间的图像.请注意,从红外光束断裂探测器的五个鼻子戳开口沿室的右壁是清晰可见的(箭头)。(D) 明亮时,室的裁剪图像。 请单击此处查看此图的较大版本。

Figure 8
图 8:协议步骤指示器和感兴趣身体部位的位置跟踪。A) 图片显示了协议步进指示器(红色)以及大鼠的头部(黄色)和尾部(绿色)的位置,由 DeepLabCut 跟踪。如对照明房屋灯的跟踪所示,视频帧取自主动试验的快照。(B) 图片显示了 DeepLabCut 在试验不活跃时跟踪的头部(黄色)和尾部(绿色)的位置。注意缺乏房子的光跟踪。(C) 分析图 6 及图11所示数据时所用 的兴趣点位置;(1) 房灯,在这种情况下用作协议步骤指示器,(2\u20126) 鼻子戳开口#1\u20125。 请单击此处查看此图的较大版本。

Figure 9
图9:鱼眼镜头的图像失真。A) 棋盘图案的图像,其大小相等,有条不及的黑白方块,与本协议中描述的相机一起拍摄。图像拍摄高度与从操作调节室录制视频时使用的高度相当。沿中央水平和垂直线的黑色方块已标有 DeepLabCut。(B) 描绘 (A) 中标记的正方形间距如何随着靠近图像中心而变化的图形。(C) 图像,描述为评估鱼眼失真效应对从操作室收集的视频的影响而拍摄的测量结果。沿地板区域边缘的角和中点、每个楼层的中央位置和五个鼻戳开口的位置已用 DeepLabCut(彩色点)指示;(1) 地板级数间距,(2)室地板沿室中间的宽度,(3) 鼻戳开口间距。(D) 地板级数间距(每组连续三个级数的平均值),在 (C) 中从左到右编号。鱼眼失真的影响很小,导致中心级被大约 3 像素 (8%) 的分空与位于室内地板边缘的运行距离相距更远。(E) 室地板的宽度(C)在左边缘和右边缘测量,以及中点。鱼眼失真的影响很小,导致中点测量的宽度约为 29 像素 (5%)比其他测量时间长。(F) 从图像顶部编号的鼻戳开口间距( C )。鱼眼失真的影响很小,导致中央三个开口(H2、H3、H5)之间的间距约为 5 像素 (4%)比 H1-H2 和 H4-H5 之间的间距宽。对于 D-F,数据来自四个视频和图形,描绘了组均值 = 标准错误。 请单击此处查看此图的较大版本。

Figure 10
图 10:查看 DeepLabCut 跟踪的准确性。A) 一个表,列出两个神经网络的训练信息,经过训练,以跟踪操作室内的老鼠。与#1相比,网络管理员使用的训练数据集较小,但训练迭代#2。两个网络都从 DeepLabCut 的评估功能(DLC 测试错误)中获得了较低的错误分数,并在训练结束时表现出较低的训练损失。尽管如此,Network #1在手动评估标记的视频帧时显示的跟踪精度非常低(测量精度,估计从 150 个视频帧中覆盖的视频段,与视频2视频 3 中的视频段相当)。网络#2表示网络 #1 的改进版本,在将主动移动大鼠的附加视频帧包含在训练数据中,如 (E) 中所述)。(B) 描绘老鼠饲养并用头部遮盖室内光线(图7A)的图像,扰乱了对它的追踪。(C) 视频帧捕获在 5CSRTT 试验期间做出的反应(图 6A: 3)。响应期间和 ITI 之前的头部运动路径已叠加在图像上,以黄色表示。跟踪被认为是准确的。请注意运动期间的平滑跟踪(白色箭头)。相应的视频可作为视频2 提供。网络#2(参见 A)用于跟踪。(D) 视频帧捕获在 5CSRTT 试验期间做出的反应(图 6A: 3)。响应期间和 ITI 之前的头部运动路径已叠加在图像上,以黄色表示。数据与 (C) 中显示的试验相同,但使用网络#1(参见 A)。跟踪被认为是不准确的。请注意路径的锯齿状外观与多条直线(白色箭头),由偶尔跟踪头部到遥远的错误位置(黑色箭头)。相应的视频可作为视频3 提供。(E) 图,描绘了 (C) 和 (D) 中头部跟踪运动速度的动态变化。在图中可识别的三个主要动作见视频2和3,其中大鼠首先转向面对鼻子戳开口(初始转弯),作出一个小调整,以进一步接近他们(调整),最后执行响应。网络跟踪 (A) 获得良好跟踪的速度#2显示移动速度变化(蓝色箭头)的平滑曲线,表示准确的跟踪。网络 #1 (A) 获得的不良跟踪的速度配置文件显示移动速度(红色箭头)的多个突然峰值,指示单个视频帧中偶尔出现跟踪错误。值得注意的是,这些跟踪问题特别发生在运动过程中。为了纠正这种情况,用于训练网络视频#1扩展了大量视频帧,描绘了积极移动的老鼠。这随后用于培训网络#2,从而有效地消除了此跟踪问题。请单击此处查看此图的较大版本。

Figure 11
图11:通过 DeepLabCut 使用位置跟踪来补充操作调理测试的行为分析。 (A) 操作调节室内部的顶部视图。指出了会议厅的三个区域。靠近奖励颗粒槽(球槽)、中央腔室区域(中心)和鼻子周围区域戳开口的区域(开口)。(B) 一张图表,描绘了大鼠在 5CSRTT 的 ITI 步骤中(A)中概述的操作室的三个不同区域所花费的相对时间。请注意,在具有响应的试验中,大鼠最初倾向于靠近颗粒槽(黑色)和腔室中心(灰色),但随着 ITI 的进展,它们转向在鼻子戳开口(白色)周围定位。相比之下,在典型的遗漏试验中,大鼠仍位于颗粒槽和腔室中心周围。关于遗漏试验的子集(约20%)老鼠显然把焦点转向鼻子戳开口, 但当提示时仍然无法执行响应。使用试验类型对鼻子戳开口周围时间进行双向 ANOVA 分析,如主体间因子和主题内因素显示显著时间(p < 0.001, F(4,8) = 35.13), trial type (p < 0.01, F(2,4) = 57.33) and time x trial type interaction (p < 0.001, F(8,16) = 15.3) effects. Data gathered from four animals performing 100 trials each. Graph displays mean + standard error. (C) 热图显示在 5CSRTT 测试会话的 50 个 IT 中由一只特定大鼠跟踪在鼻子戳开口附近跟踪的所有头部位置。请注意,大鼠有很强的倾向,保持其头部在一个地方接近中央鼻子戳开口。(D) 热图显示在 5-CSRTT 测试会话的 50 个 IT 中由一只特定大鼠跟踪在鼻子戳开口附近跟踪的所有头部位置。请注意,大鼠对任何特定开口没有明确的偏好。(E) 图描绘了在 5CSRTT 的 50 个 IT 中,两只大鼠在 (C) 和 (D) 中显示的相对时间,它们最接近不同的鼻子戳开口。显示聚焦策略 (C) (黑色) 的大鼠表示强烈偏好最接近中央开口,而具有搜索式策略 (D) (白色) 的大鼠则表示对任何特定开口的偏好。该图描绘了平均 + 标准误差。(F) 在 5CSRTT 试验的提示演示时大鼠的图像(图6A).请注意,大鼠的头部距离中央开口(白色箭头)最近,距离开口(黑色箭头)有两个开口。(G) 描述 5CSRTT 性能精度的图形(即执行正确响应的频率),与大鼠头部在提示演示时是否最接近中央开口还是其他开口之一(图6A2).从四只动物那里收集的数据,每个动物执行大约70个响应。图形显示组均值 = 标准错误(匹配 t 检验: p < 0.05). (H) 一个图形,描述 5CSRTT 上的性能精度,与在信号表示点的 cued 开口位置和大鼠头部位置之间的距离有关。距离与大鼠头部位置和信号开口位置之间的开口数有关。从四只动物那里收集的数据,每个动物执行大约70个响应。图形显示均值 = 标准误差(匹配单向 ANOVA: p < 0.01). For the presented analysis, Network #2 described in 图 10A 使用。完整的分析数据集包括大约 160,000 个视频帧和 400 个试验。其中,2.5% 的视频帧被排除,因为动物的标记移动速度超过 3,000 像素/s,表示错误跟踪 (图 10E).没有排除完整的审判。 请单击此处查看此图的较大版本。

视频 1:具有代表性的跟踪训练有素的神经网络的性能。 该视频显示,在 5CSRTT 测试会话期间,大鼠执行 45 次试验并做出正确响应的蒙太奇( 有关协议详细信息 ,请参见图 6A)。视频中指示了房屋灯(红色标记)、尾基(绿色标记)和头部(蓝色标记)的跟踪。网络训练(图 10A中的网络#2)强调了沿室地板在靠近鼻戳开口处进行运动的精度(右壁, 图 7A)。跟踪这些段的平均精度为 90%。跟踪饲养和梳妆的情节是不准确的,因为训练集不包括这些行为的框架。请注意,视频已压缩以减少文件大小,并且无法表示摄像机获得的视频质量。 请点击这里下载此视频。

视频2:准确跟踪动物的例子。 该视频显示,在 5CSRTT 期间,对大鼠进行正确响应的单个跟踪试验。视频中指示了房屋灯(红色标记)、尾基(绿色标记)和头部(蓝色标记)的跟踪。图 10A 中描述的神经网络#2用于 跟踪。注意标记如何准确地跟随动物的运动。另请参阅 图 10C,E, 以在此视频剪辑中绘制路径和移动速度。 请点击这里下载此视频。

视频 3:跟踪不良的动物示例。 该视频显示,在 5CSRTT 期间,对大鼠执行正确响应的单个跟踪不良试验。视频中指示了房屋灯(红色标记)、尾基(绿色标记)和头部(蓝色标记)的跟踪。图 10A 中描述的神经网络#1用于 跟踪。视频剪辑与视频 2 中使用的剪辑相同。请注意,头部的标记不能可靠地放置在大鼠的头顶上。另请参阅 图 10D,E, 用于此视频剪辑中头部跟踪的绘制路径和移动速度。 请点击这里下载此视频。

视频 4:5CSRTT 试验期间有响应的移动示例。 该视频显示了在 5-CSRTT 期间对大鼠执行正确响应的单次跟踪试验。视频中指示了房屋灯(红色标记)、尾基(绿色标记)和头部(蓝色标记)的跟踪。请注意,大鼠最初如何放置在离颗粒贮器(左壁, 图 7A)的清晰位置,然后移动过来,将注意力集中在一排鼻子戳开口上。 请点击这里下载此视频。

视频 5:5CSRTT 期间典型遗漏试验的示例。 该视频显示,在 5CSRTT 期间,对老鼠进行一次跟踪良好的试验,执行典型的遗漏。视频中指示了房屋灯(红色标记)、尾基(绿色标记)和头部(蓝色标记)的跟踪。注意大鼠如何保持其位置周围的颗粒贮器(左壁, 图7A)和腔室中心,而不是转身面对鼻子戳开口(右壁, 图7A)。显示的行为和遗漏的原因可以认为反映了对执行测试的低级兴趣。 请点击这里下载此视频。

视频 6:5CSRTT 期间非典型遗漏试验的示例。 该视频显示,在 5CSRTT 期间,对一只老鼠进行一次跟踪良好的试验,以进行非典型遗漏。视频中指示了房屋灯(红色标记)、尾基(绿色标记)和头部(蓝色标记)的跟踪。请注意大鼠如何将自身位置对鼻子,沿腔室的右壁戳开口(图 7A)。这可以说表明动物有兴趣进行试验。但是,当提示呈现时(5 秒入剪辑),大鼠会面对远离提示开口(中心位置)。与视频 4中显示的遗漏相反,此处看到的遗漏可能与次优的视觉空间关注过程有关。 请点击这里下载此视频。

视频 7:动物在 5CSRTT 的 IT 期间保持集中中心位置的示例。 该视频显示,在5CSRTT的试验中,对老鼠进行单轨跟踪试验,执行正确的反应。请注意,在 ITI 期间,大鼠如何保持中心位置,保持其头部稳定,靠近沿腔室右壁的中央鼻子戳开口(图 7A)。视频中指示了房屋灯(红色标记)、尾基(绿色标记)和头部(蓝色标记)的跟踪。 请点击这里下载此视频。

视频 8:动物在 5CSRTT 的 IT 期间显示搜索式注意力策略的示例。 该视频显示,在5CSRTT的试验中,对老鼠进行单轨跟踪试验,执行正确的反应。请注意,大鼠如何经常重新定位其头部,以面对沿腔室右壁的不同鼻子戳开口(图7A)。视频中指示了房屋灯(红色标记)、尾基(绿色标记)和头部(蓝色标记)的跟踪。 请点击这里下载此视频。

Subscription Required. Please recommend JoVE to your librarian.

Discussion

该协议描述了如何构建一个廉价而灵活的摄像机,可用于录制来自操作调节室和其他行为测试设置的视频。它进一步演示了如何使用 DeepLabCut 跟踪这些视频中的强光信号,以及如何用于帮助识别涵盖完整测试会话的视频文件中感兴趣的简短视频片段。最后,介绍了如何使用对老鼠头部的跟踪来补充操作调节测试期间行为分析。

该协议为可售的可操作调理室视频录制解决方案提供了替代方案。如前所述,它们的主要好处是它们与操作室集成,从而能够录制特定事件的视频。与使用完全集成的系统记录特定事件相比,识别本协议中描述的感兴趣的视频段的方法更加费时和耗时。然而,它相当便宜(最近对6个操作室的视频监测设备的费用估计约为13,000美元。相比之下,建造此处列出的六台摄像机的成本约为 720 美元)。此外,摄像机还可用于多个其他行为测试设置。使用相机时,必须注意外露电子元件(摄像机组件的背面以及红外 LED 组件)的区域,以便它们不会与液体接触。此外,如果摄像机经常移动,将摄像机模块连接到微型计算机的带状电缆以及将 LED 和开关连接到 GPIO 引脚的电缆可能会松动。因此,调整摄像机外壳的设计可能有利于某些应用。

使用 DeepLabCut 识别感兴趣的视频片段并跟踪动物移动,为手动视频分析提供了补充和/或替代方案。虽然前者不会使后者无效,但我们发现它提供了一种分析操作室内运动和行为的便捷方法。特别是,它提供了动物的位置数据,其中包含比通常通过人工评分提取的更详细的信息(即与定性位置信息(如"前面","旁边"等)相比的实际坐标。

选择协议步骤指示器时,必须选择一个始终如一地指示行为协议的给定步骤,并且不太可能被动物阻止。如果后者有问题,可以考虑将一盏灯放在操作室外,然后通过室内墙壁拍摄。许多操作调节室是模块化的,允许用户自由移动灯、传感器和其他组件。应该注意的是,还有其他的软件包,也允许用户训练神经网络识别和跟踪用户定义的对象在视频24,25,26。24,25,26在当前协议中,这些可能用作 DeepLabCut 的替代品。

该协议描述了如何跟踪老鼠头部的中心部分,以便测量操作室内的运动。由于 DeepLabCut 在选择身体部位或感兴趣的对象时提供了完全的自由,因此可以方便地修改,以适应特定学习的兴趣。本文所述跟踪的自然延伸是跟踪大鼠的耳朵和鼻子的位置,以便更好地判断头部位置,而且判断方向。此处显示的代表性数据与长埃文斯大鼠重新编码。这些大鼠的色素沉着模式表现出相当大的个体间变异,尤其是对它们的尾部基数。这可能会导致一些困难,应用一个训练有素的神经网络跟踪不同的个人。为了限制这些问题,最好在网络培训中包括来自所有感兴趣的动物的视频帧。长埃文斯大鼠的黑色头与这里使用的腔室的金属表面形成了相当强烈的对比。因此,获得准确跟踪他们的头可能需要更少的努力比与白化病菌株。使用 DeepLabCut 或可比软件包获得准确跟踪的最关键步骤是选择大量不同的视频帧来训练神经网络。因此,如果将感兴趣的对象的跟踪视为次优,则增加培训框架集应始终是改进结果的第一步。

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

虽然本手稿中已使用和引用树莓派基金会的材料和资源,但该基金会没有积极参与本手稿中设备和数据的准备或使用。Pi-Supply 也是如此。作者没有什么可透露的。

Acknowledgments

这项工作得到了瑞典大脑基金会、瑞典帕金森基金会和瑞典政府临床研究基金(M.A.C.)以及温纳-格伦基金会(M.A.C,E.K.H.C)、奥伦基金会(M.A.C)和布兰塞弗洛·邦康帕尼·卢多维西基金会、Née Bildt基金会(S.F.)的资助。

Materials

Name Company Catalog Number Comments
32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

DOWNLOAD MATERIALS LIST

References

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user's manual. Coulbourn instruments. , Holliston, Massachusetts. 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer's manual. Med Associates Inc. , St. Albans, Vermont. 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat's behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user's manual. Med Associates Inc. , St. Albans, Vermont. 26-30 (2004).
  14. Coulbourn Instruments. Coulbourn Instruments. , Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020).
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. Raspberry Pi foundation. Raspberry Pi foundation. , Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020).
  19. Pi-supply. Pi-supply. , Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018).
  20. Python. Python. , Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020).
  21. MathWorks. MathWorks. , Available from: https://mathworks.com/academia/highschool/ (2020).
  22. Cran.R-Project.org. Cran.R-Project.org. , Available from: https://cran.r-project.org/manuals.html (2020).
  23. Liu, Y., Tian, C., Huang, Y. Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Tags

行为, 问题 160, 操作调理, 认知, 视频录制, 啮齿动物行为, 树莓派, 深度实验室
使用多功能自制摄像机和 DeepLabCut 跟踪操作调节室中的大鼠
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Clemensson, E. K. H., Abbaszadeh,More

Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter