Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Suivi des rats dans les chambres de conditionnement Operant à l’aide d’une caméra vidéo maison polyvalente et DeepLabCut

Published: June 15, 2020 doi: 10.3791/61409

Summary

Ce protocole décrit comment construire une petite caméra vidéo polyvalente, et comment utiliser les vidéos obtenues à partir de celui-ci pour former un réseau neuronal pour suivre la position d’un animal à l’intérieur des chambres de conditionnement opérant. Il s’agit d’un complément précieux aux analyses standard des journaux de données obtenus à partir de tests de conditionnement opérant.

Abstract

Les chambres de conditionnement d’opéra sont utilisées pour effectuer un large éventail de tests comportementaux dans le domaine des neurosciences. Les données enregistrées sont généralement basées sur le déclenchement de capteurs de levier et de nez-poke présents à l’intérieur des chambres. Bien que cela fournisse une vue détaillée du moment et de la façon dont les animaux effectuent certaines réponses, il ne peut pas être utilisé pour évaluer les comportements qui ne déclenchent aucun capteur. En tant que tel, il est rarement possible d’évaluer comment les animaux se positionnent et se déplacent à l’intérieur de la chambre. Pour obtenir cette information, les chercheurs doivent généralement enregistrer et analyser des vidéos. Les fabricants de chambres de conditionnement opérant peuvent généralement fournir à leurs clients des configurations d’appareils photo de haute qualité. Cependant, ceux-ci peuvent être très coûteux et ne correspondent pas nécessairement chambres d’autres fabricants ou d’autres configurations de test comportemental. Le protocole actuel décrit comment construire une caméra vidéo peu coûteuse et polyvalente à l’aide de composants électroniques de passe-temps. Il décrit en outre comment utiliser le logiciel d’analyse d’images DeepLabCut pour suivre l’état d’un signal lumineux fort, ainsi que la position d’un rat, dans des vidéos recueillies à partir d’une chambre de conditionnement opérant. Le premier est une grande aide lors de la sélection de courts segments d’intérêt pour les vidéos qui couvrent des sessions d’essai entières, et le second permet l’analyse des paramètres qui ne peuvent pas être obtenus à partir des journaux de données produits par les chambres opérant.

Introduction

Dans le domaine des neurosciences comportementales, les chercheurs utilisent généralement des chambres de conditionnement opérant pour évaluer un large éventail de caractéristiques cognitives et psychiatriques différentes chez les rongeurs. Bien qu’il existe plusieurs fabricants différents de ces systèmes, ils partagent généralement certains attributs et ont une conception presque normalisée1,2,3. Les chambres sont généralement carrées ou rectangulaires, avec un mur qui peut être ouvert pour placer les animaux à l’intérieur, et un ou deux des murs restants contenant des composants tels que des leviers, des ouvertures de nez-poke, plateaux de récompense, roues de réponse et des lumières de différents types1,2,3. Les lumières et les capteurs présents dans les chambres sont utilisés à la fois pour contrôler le protocole d’essai et suivre les comportements des animaux1,2,3,4,5. Les systèmes de conditionnement opérents typiques permettent une analyse très détaillée de la façon dont les animaux interagissent avec les différents opéranda et les ouvertures présentes dans les chambres. En général, toutes les occasions où des capteurs sont déclenchés peuvent être enregistrées par le système, et à partir de ces données, les utilisateurs peuvent obtenir des fichiers journaux détaillés décrivant ce que l’animal a fait au cours d’étapes spécifiques de l’essai4,5. Bien que cela fournit une représentation étendue de la performance d’un animal, il ne peut être utilisé que pour décrire les comportements qui déclenchent directement un ou plusieurs capteurs4,5. En tant que tel, les aspects liés à la façon dont l’animal se positionne et se déplace à l’intérieur de la chambre au cours des différentes phases de l’essai ne sont pas bien décrits6,7,8,9,10. C’est regrettable, car une telle information peut être utile pour bien comprendre le comportement de l’animal. Par exemple, il peut être utilisé pour clarifier pourquoi certains animaux effectuent mal sur un test donné6, pour décrire les stratégies que les animaux pourraient développer pour gérer les tâches difficiles6,7,8,9,10, ou pour apprécier la vraie complexité des comportements soi-disant simples11,12. Pour obtenir de telles informations articulées, les chercheurs se tournent généralement vers l’analyse manuelle des vidéos6,7,8,9,10,11.

Lors de l’enregistrement de vidéos à partir de chambres de conditionnement opérant, le choix de la caméra est critique. Les chambres sont généralement situées dans des cabines d’isolement, avec des protocoles faisant fréquemment usage des étapes où aucune lumière visible ne brille3,6,7,8,9. Par conséquent, l’utilisation de l’éclairage infrarouge (IR) en combinaison avec une caméra sensible à l’IR est nécessaire, car elle permet une visibilité même dans l’obscurité totale. En outre, l’espace disponible pour placer une caméra à l’intérieur de la cabine d’isolement est souvent très limité, ce qui signifie que l’on bénéficie fortement d’avoir de petites caméras qui utilisent des lentilles avec un large champ de vision (par exemple, lentilles fish-eye)9. Alors que les fabricants de systèmes de conditionnement opérant peuvent souvent fournir des configurations d’appareils photo de haute qualité à leurs clients, ces systèmes peuvent être coûteux et ne sont pas nécessairement adapter chambres d’autres fabricants ou des configurations pour d’autres tests comportementaux. Cependant, un avantage notable sur l’utilisation de caméras vidéo autonomes est que ces configurations peuvent souvent interfacer directement avec les systèmes de conditionnement opérant13,14. Grâce à cela, ils peuvent être mis en place pour enregistrer uniquement des événements spécifiques plutôt que des sessions de test complètes, ce qui peut grandement aider à l’analyse qui suit.

Le protocole actuel décrit comment construire une caméra vidéo peu coûteuse et polyvalente à l’aide de composants électroniques de passe-temps. La caméra utilise une lentille fisheye, est sensible à l’éclairage IR et a un ensemble de diodes électroluminescentes IR (IR LED) attachés à elle. En outre, il est construit pour avoir un profil plat et mince. Ensemble, ces aspects le rendent idéal pour enregistrer des vidéos de la plupart des chambres de conditionnement opérant disponibles dans le commerce ainsi que d’autres configurations de test comportemental. Le protocole décrit en outre comment traiter les vidéos obtenues avec la caméra et comment utiliser le logiciel DeepLabCut15,16 pour aider à extraire des séquences vidéo d’intérêt ainsi que le suivi des mouvements d’un animal dans ce pays. Cela contourne partiellement le recul de l’utilisation d’une caméra autonome sur les solutions intégrées fournies par les fabricants d’opérants de systèmes de conditionnement, et offre un complément à la notation manuelle des comportements.

Des efforts ont été faits pour écrire le protocole dans un format général pour souligner que le processus global peut être adapté aux vidéos de différents tests de conditionnement opérant. Pour illustrer certains concepts clés, les vidéos de rats effectuant le test de temps de réaction en série à 5 choix (5CSRTT)17 sont utilisées comme exemples.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Toutes les procédures qui incluent la manipulation des animaux ont été approuvées par le comité d’éthique de Malmö-Lund pour la recherche sur les animaux.

1. Construction de la caméra vidéo

REMARQUE : Une liste des composants nécessaires à la construction de la caméra est fournie dans le tableau des matériaux. Se référer également à la figure 1, figure 2, figure 3, figure 4, figure 5.

  1. Attachez l’anneau métallique magnétique (qui accompagne l’ensemble de lentilles fisheye) autour de l’ouverture du support de la caméra (Figure 2A). Cela permettra à l’objectif fisheye d’être placé devant la caméra.
  2. Attachez le module de caméra au support de la caméra (Figure 2B). Cela donnera une certaine stabilité au module de caméra et offrira une certaine protection aux circuits électroniques.
  3. Ouvrez les ports de la caméra sur le module de caméra et le micro-ordinateur (Figure 1) en tirant doucement sur les bords de leurs clips en plastique (Figure 2C).
  4. Placez le câble du ruban dans les ports de la caméra, de sorte que les connecteurs argentés font face aux circuits (Figure2C). Verrouillez le câble en place en poussant dans les clips en plastique des ports de la caméra.
  5. Placez le micro-ordinateur dans le boîtier en plastique et insérez la carte micro SD répertoriée (Figure 2D).
    REMARQUE : La carte micro SD fonctionnera comme le disque dur du micro-ordinateur et contient un système d’exploitation complet. La carte micro SD répertoriée est livré avec un gestionnaire d’installation préinstallé sur elle (New Out Of Box Software (NOOBS). Comme alternative, on peut écrire une image de la dernière version du système d’exploitation du micro-ordinateur (Raspbian ou Rasberry Pi OS) à une carte générique micro SD. Pour obtenir de l’aide, veuillez consulter les ressources web officielles18. Il est préférable d’utiliser une carte de classe 10 micro SD avec 32 Go d’espace de stockage. Les cartes SD plus grandes peuvent ne pas être entièrement compatibles avec le micro-ordinateur répertorié.
  6. Connectez un moniteur, un clavier et une souris au micro-ordinateur, puis connectez son alimentation.
  7. Suivez les étapes, comme l’indique le guide d’installation pour effectuer une installation complète du système d’exploitation du micro-ordinateur (Raspbian ou Rasberry Pi OS). Lorsque le micro-ordinateur a démarré, assurez-vous qu’il est connecté à Internet soit par un câble ethernet ou Wi-Fi.
  8. Suivez les étapes décrites ci-dessous pour mettre à jour les packages logiciels préinstallés du micro-ordinateur.
    1. Ouvrir une fenêtre terminale (figure 3A).
    2. Tapez « sudo apt-get update » (à l’exclusion des guillemets) et appuyez sur la touche Entrée (Figure 3B). Attendez que le processus se termine.
    3. Tapez « sudo apt full-upgrade » (à l’exclusion des guillemets) et appuyez sur entrer. Effectuez des réponses de bouton s’il vous y est demandé et attendez que le processus se termine.
  9. Sous le menu Démarrer, sélectionnez Préférences et configurations Raspberry Pi (Figure 3C). Dans la fenêtre ouverte, accédez à l’onglet Interfaces et cliquez pour activer la caméra et i2C. Ceci est nécessaire pour avoir le micro-ordinateur de travail avec la caméra et les modules LED IR.
  10. Renommez le fichier supplémentaire 1 en « Pi_video_camera_Clemensson_2019.py ». Copiez-le sur une clé USB, puis dans le dossier /home/pi du micro-ordinateur (Figure 3D). Ce fichier est un script Python, qui permet de faire des enregistrements vidéo avec les commutateurs de boutons qui sont attachés à l’étape 1.13.
  11. Suivez les étapes décrites ci-dessous pour modifier le fichier rc.local du micro-ordinateur. Cela fait que l’ordinateur démarre le script copié à l’étape 1.10 et démarre les LED IR attachées à l’étape 1.13 lorsqu’il démarre.
    ATTENTION : Cette fonction de démarrage automatique ne fonctionne pas de manière fiable avec des panneaux de micro-ordinateurs autres que le modèle répertorié.
    1. Ouvrez une fenêtre terminale, tapez « uo nano /etc/rc.loca » (à l’exclusion des guillemets) et appuyez sur entrer. Cela ouvre un fichier texte (Figure 4A).
    2. Utilisez les touches fléchées du clavier pour déplacer le curseur vers l’espace entre « » et « ort » (Figure 4A).
    3. Ajoutez le texte suivant comme indiqué dans la figure 4B, en écrivant chaque chaîne de texte sur une nouvelle ligne :
      sudo i2cset -y 1 0x70 0x00 0xa5 &
      sudo i2cset -y 1 0x70 0x09 0x0f &
      sudo i2cset -y 1 0x70 0x01 0x32 &
      sudo i2cset -y 1 0x70 0x03 0x32 &
      sudo i2cset -y 1 0x70 0x06 0x32 &
      sudo i2cset -y 1 0x70 0x08 0x32 &
      sudo python /home/pi/Pi_video_camera_Clemensson_2019.py &
    4. Enregistrez les modifications en appuyant sur Ctrl + x suivi de y et Enter.
  12. Souder ensemble les composants nécessaires comme indiqué à la figure 5A, et comme décrit ci-dessous.
    1. Pour les deux LED colorées, attachez une résistance et un câble de cavalier femelle à une jambe, et un câble de cavalier féminin à l’autre (figure 5A). Essayez de garder les câbles aussi courts que possible. Prenez note de laquelle des électrodes de la LED est la négative (généralement la courte), car cela doit être connecté au sol sur les broches d’entrée/sortie générale (GPIO) du micro-ordinateur.
    2. Pour les deux commutateurs de bouton, attachez un câble de cavalier femelle à chaque jambe (Figure 5A). Rendre les câbles longs pour l’un des commutateurs, et court pour l’autre.
    3. Pour assembler le module IR LED, suivez les instructions disponibles sur ses ressources web officielles19.
    4. Couvrir les joints soudés d’un tube rétrécissant pour limiter le risque de court-circuiter les composants.
  13. Éteignez le micro-ordinateur et connectez les commutateurs et les LED à ses broches GPIO comme indiqué à la figure 5B, et décrit ci-dessous.
    ATTENTION : Le câblage des composants aux mauvaises broches GPIO pourrait les endommager et/ou le micro-ordinateur lorsque la caméra est allumée.
    1. Connectez une LED de sorte que son extrémité négative se connecte à la goupille #14 et son extrémité positive se connecte à la broche #12. Cette LED brillera lorsque le micro-ordinateur a démarré et que la caméra est prête à être utilisée.
    2. Connectez l’interrupteur de bouton avec de longs câbles de sorte qu’un câble se connecte à la broche #9 et l’autre pour épingler #11. Ce bouton est utilisé pour démarrer et arrêter les enregistrements vidéo.
      REMARQUE : Le script qui contrôle la caméra a été écrit de sorte que ce bouton ne répond pas pendant quelques secondes juste après le démarrage ou l’arrêt d’un enregistrement vidéo.
    3. Connectez une LED de sorte que son extrémité négative se connecte à la goupille #20 et son extrémité positive se connecte à la broche #13. Cette LED brillera lorsque la caméra enregistre une vidéo.
    4. Connectez l’interrupteur de bouton avec les câbles courts de sorte qu’un câble se connecte à la broche #37 et l’autre pour épingler #39. Ce commutateur est utilisé pour éteindre la caméra.
    5. Connectez le module LED IR tel que décrit dans ses ressources web officielles19.

2. Concevoir le protocole de conditionnement opérant d’intérêt

REMARQUE : Pour utiliser DeepLabCut pour suivre la progression du protocole dans les vidéos enregistrées à partir de chambres d’opéra, les protocoles comportementaux doivent être structurés de manière spécifique, comme expliqué ci-dessous.

  1. Définissez le protocole pour utiliser la lumière de la maison de la chambre, ou un autre signal lumineux fort, comme indicateur d’une étape spécifique du protocole (comme le début des essais individuels, ou la session d’essai) (figure 6A). Ce signal sera appelé « indicateur d’étape de protocole » dans le reste du présent protocole. La présence de ce signal permettra de suivre la progression du protocole dans les vidéos enregistrées.
  2. Définissez le protocole pour enregistrer toutes les réponses d’intérêt avec des timestamps individuels par rapport au moment où l’indicateur d’étape du protocole devient actif.

3. Enregistrement de vidéos d’animaux effectuant le test comportemental d’intérêt

  1. Placez la caméra au-dessus des chambres d’opéra, de sorte qu’elle enregistre une vue supérieure de la zone à l’intérieur (Figure 7).
    REMARQUE : Ceci convient particulièrement à la capture de la position générale et de la posture d’un animal à l’intérieur de la chambre. Évitez de placer les voyants de la caméra et le module IR LED près de l’objectif de la caméra.
  2. Démarrez la caméra en la connectant à une prise électrique via le câble d’alimentation.
    REMARQUE : Avant la première utilisation, il est avantageux de mettre l’accent sur la caméra, à l’aide du petit outil qui accompagne le module de la caméra.
  3. Utilisez le bouton connecté à l’étape 1.13.2 pour démarrer et arrêter les enregistrements vidéo.
  4. Éteignez la caméra en suivant ces étapes.
    1. Appuyez et maintenez le bouton connecté à l’étape 1.13.4 jusqu’à ce que la LED connectée à l’étape 1.13.1 s’éteigne. Cela initie le processus d’arrêt de la caméra.
    2. Attendez que la LED verte visible sur le micro-ordinateur (figure 1) ait cessé de clignoter.
    3. Retirez l’alimentation de l’appareil.
      ATTENTION : Débrancher l’alimentation pendant que le micro-ordinateur est toujours en cours d’exécution peut causer la corruption des données sur la carte micro SD.
  5. Connectez l’appareil photo à un moniteur, un clavier, une souris et un périphérique de stockage USB et récupérez les fichiers vidéo à partir de son bureau.
    REMARQUE : Les fichiers sont nommés en fonction de la date et de l’heure à laquelle l’enregistrement vidéo a été démarré. Cependant, le micro-ordinateur n’a pas d’horloge interne et ne met à jour son réglage de l’heure lorsqu’il est connecté à Internet.
  6. Convertir les vidéos enregistrées de .h264 en . MP4, comme ce dernier fonctionne bien avec DeepLabCut et la plupart des joueurs de médias.
    REMARQUE : Il existe plusieurs façons d’y parvenir. L’un d’eux est décrit dans le fichier supplémentaire 2.

4. Analyser des vidéos avec DeepLabCut

REMARQUE : DeepLabCut est un logiciel qui permet aux utilisateurs de définir n’importe quel objet d’intérêt dans un ensemble de cadres vidéo, puis de les utiliser pour former un réseau neuronal dans le suivi des positions des objets dans des vidéos pleine longueur15,16. Cette section donne un aperçu approximatif de la façon d’utiliser DeepLabCut pour suivre l’état de l’indicateur d’étape du protocole et la position de la tête d’un rat. L’installation et l’utilisation de DeepLabCut sont bien décrites dans d’autres protocoles publiés15,16. Chaque étape peut être effectuée par le biais de commandes Python spécifiques ou de l’interface utilisateur graphique de DeepLabCut, comme décrit ailleurs15,16.

  1. Créez et configurez un nouveau projet DeepLabCut en suivant les étapes décrites dans16.
  2. Utilisez la fonction d’accaparement du cadre de DeepLabCut pour extraire les images vidéo 700\u2012900 d’une ou de plusieurs des vidéos enregistrées à la section 3.
    REMARQUE : Si les animaux diffèrent considérablement en pigmentation de la fourrure ou en d’autres caractéristiques visuelles, il est conseillé que les images vidéo extraites 700\u2012900 soient divisées en vidéos de différents animaux. Grâce à cela, un réseau formé peut être utilisé pour suivre différentes personnes.
    1. Assurez-vous d’inclure les images vidéo qui affichent à la fois l’état actif (figure 8A) et inactif (figure 8B)de l’indicateur d’étape du protocole.
    2. Assurez-vous d’inclure des images vidéo qui couvrent la gamme de différentes positions, postures et mouvements de la tête que le rat peut montrer pendant l’essai. Cela devrait inclure des cadres vidéo où le rat est immobile dans différentes zones de la chambre, avec sa tête pointant dans différentes directions, ainsi que des cadres vidéo où le rat se déplace activement, entrant dans les ouvertures de poke nez et entrant dans le creux de granulés.
  3. Utilisez la boîte à outils d’étiquetage deeplabcut pour marquer manuellement la position de la tête du rat dans chaque image vidéo extraite à l’étape 4.2. Utilisez le curseur de la souris pour placer une étiquette « tête » dans une position centrale entre les oreilles du rat (Figure 8A,B). En outre, marquez la position de la lumière de la maison de la chambre (ou d’un autre indicateur d’étape de protocole) dans chaque cadre vidéo où il brille activement (Figure 8A). Laissez la lumière de la maison non étiquetée dans des cadres où elle est inactive (figure 8B).
  4. Utilisez les fonctions « créer des données de formation » et « réseau de formation » de DeepLabCut pour créer un ensemble de données de formation à partir des images vidéo étiquetées à l’étape 4.3 et commencer la formation d’un réseau neuronal. Assurez-vous de sélectionner « resnet_101 » pour le type de réseau choisi.
  5. Arrêter la formation du réseau lorsque la perte de formation a plafonné en dessous de 0,01. Cela peut prendre jusqu’à 500 000 itérations de formation.
    REMARQUE : Lors de l’utilisation d’une machine GPU avec environ 8 Go de mémoire et un ensemble de formation d’environ 900 images vidéo (résolution : 1640 x 1232 pixels), le processus de formation a pris environ 72 h.
  6. Utilisez la fonction d’analyse vidéo de DeepLabCut pour analyser les vidéos recueillies à l’étape 3, à l’aide du réseau neuronal formé à l’étape 4.4. Cela fournira un fichier .csv répertoriant les positions suivies de la tête du rat et l’indicateur d’étape de protocole dans chaque image vidéo des vidéos analysées. En outre, il créera des fichiers vidéo marqués où les positions suivies sont affichées visuellement (Vidéos 1-8).
  7. Évaluez l’exactitude du suivi en suivant les étapes décrites ci-dessous.
    1. Utilisez la fonction d’évaluation intégrée de DeepLabCut pour obtenir une évaluation automatisée de l’exactitude du suivi du réseau. Ceci est basé sur les images vidéo qui ont été étiquetées à l’étape 4.3 et décrit à quelle distance en moyenne la position suivie par le réseau est de l’étiquette placée manuellement.
    2. Sélectionnez une ou plusieurs brèves séquences vidéo (d’environ 100\u2012200 images vidéo chacune) dans les vidéos marquées obtenues à l’étape 4.6. Passez en revue les séquences vidéo, image par image, et notez dans combien d’images les étiquettes indiquent correctement les positions de la tête du rat, la queue, etc., et dans combien d’images les étiquettes sont placées dans des positions erronées ou non montrées.
      1. Si l’étiquette d’une partie ou d’un objet corporel est fréquemment perdue ou placée dans une position erronée, identifiez les situations où le suivi échoue. Extraire et ajouter des images étiquetées de ces occasions en répétant les étapes 4.2. et 4.3. Puis reformer le réseau et réanalyser les vidéos en répétant les étapes 4.4-4.7. En fin de compte, l’exactitude de suivi de >90% de précision devrait être atteint.

5. Obtention de coordonnées pour les points d’intérêt dans les chambres d’opéra

  1. Utilisez DeepLabCut tel que décrit à l’étape 4.3 pour marquer manuellement les points d’intérêt dans les chambres d’opéra (comme les ouvertures de poke nez, leviers, etc.) dans un seul cadre vidéo (Figure 8C). Ceux-ci sont choisis manuellement en fonction des intérêts spécifiques à l’étude, bien que la position de l’indicateur d’étape du protocole devrait toujours être incluse.
  2. Récupérez les coordonnées des points d’intérêt marqués à partir du fichier .csv que DeepLabCut stocke automatiquement sous « données étiquetées » dans le dossier de projet.

6. Identification des segments vidéo où l’indicateur d’étape du protocole est actif

  1. Chargez les fichiers .csv obtenus à partir de l’analyse vidéo DeepLabCut à l’étape 4.6 dans un logiciel de gestion des données de choix.
    REMARQUE : En raison de la quantité et de la complexité des données obtenues à partir des systèmes de conditionnement DeepLabCut et operant, la gestion des données est mieux effectuée par le biais de scripts d’analyse automatisés. Pour commencer, veuillez consulter les guides d’entrée de gamme disponibles ailleurs20,21,22.
  2. Remarque dans laquelle les segments vidéo, l’indicateur d’étape du protocole est suivi à moins de 60 pixels de la position obtenue à la section 5. Il s’agira de périodes où l’indicateur d’étape du protocole est actif (figure 6B).
    REMARQUE : Pendant les segments vidéo où l’indicateur d’étape du protocole ne brille pas, la vidéo marquée peut sembler indiquer que DeepLabCut ne le suit à aucune position. Cependant, c’est rarement le cas, et il est plutôt généralement suivi à plusieurs endroits dispersés.
  3. Extraire le point de départ exact pour chaque période où l’indicateur d’étape du protocole est actif (Figure 6C : 1).

7. Identifier les segments vidéo d’intérêt

  1. Considérez les points où l’indicateur d’étape du protocole devient actif (Figure 6C: 1) et les temps de réponses enregistrés par les chambres d’opéra (section 2, figure 6C: 2).
  2. Utilisez ces informations pour déterminer quels segments vidéo couvrent des événements intéressants spécifiques, tels que les intervalles inter-essais, les réponses, les récupérations de récompenses, etc. (Figure 6C: 3, Figure 6D).
    NOTE: Pour cela, gardez à l’esprit que la caméra décrite ci-après enregistre des vidéos à 30 fps.
  3. Notez les images vidéo spécifiques qui couvrent ces événements d’intérêt.
  4. (Facultatif) Modifiez les fichiers vidéo des sessions de test complètes pour inclure uniquement les segments spécifiques d’intérêt.
    REMARQUE : Il existe plusieurs façons d’y parvenir. L’un d’eux est décrit dans les dossiers supplémentaires 2 et 3. Cela aide grandement lors du stockage d’un grand nombre de vidéos et peut également rendre l’examen et la présentation des résultats plus pratique.

8. Analyse de la position et des mouvements d’un animal au cours de segments vidéo spécifiques

  1. Sous-ensemble les données complètes de suivi de la position de la tête obtenues à partir de DeepLabCut à l’étape 4.6 pour inclure uniquement les segments vidéo notés sous la section 7.
  2. Calculer la position de la tête de l’animal par rapport à un ou plusieurs des points de référence sélectionnés en vertu de la section 5 (figure 8C). Cela permet des comparaisons de suivi et de position entre différentes vidéos.
  3. Effectuer une analyse approfondie pertinente de la position et des mouvements de l’animal.
    REMARQUE : L’analyse spécifique effectuée sera fortement spécifique à l’étude. Quelques exemples de paramètres qui peuvent être analysés sont donnés ci-dessous.
    1. Visualisez les traces de chemin en traçant toutes les coordonnées détectées au cours d’une période sélectionnée dans un graphique.
    2. Analyser la proximité d’un point d’intérêt donné en utilisant la formule suivante :
      Equation 1
    3. Analyser les changements de vitesse au cours d’un mouvement en calculant la distance entre les coordonnées suivies dans les images consécutives et divisez par 1/fps de la caméra.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Performance de la caméra vidéo

Les résultats représentatifs ont été recueillis dans des chambres de conditionnement opérant pour les rats avec des surfaces de plancher de 28,5 cm x 25,5 cm, et des hauteurs de 28,5 cm. Avec l’objectif fisheye attaché, la caméra capture la surface du sol complet et de grandes parties des murs environnants, lorsqu’elle est placée au-dessus de la chambre (Figure 7A). En tant que tel, une bonne vue peut être obtenue, même si la caméra est placée hors centre sur le dessus de la chambre. Cela devrait être vrai pour les chambres d’opéra comparables. Les LED IR sont capables d’éclairer toute la chambre (Figure 7B,C), permettant une bonne vue, même lorsque toutes les autres lumières à l’intérieur de la chambre sont éteintes (figure 7C). Cependant, l’éclairage dans de telles situations n’est pas entièrement uniforme, et peut entraîner certaines difficultés à obtenir un suivi précis. Si une telle analyse est intéressante, d’autres sources d’éclairage IR pourraient être nécessaires. Il est également intéressant de noter que certaines chambres utilisent des casseroles en métal pour recueillir l’urine et les excréments. Si la caméra est placée directement au-dessus de ces surfaces, de fortes réflexions de la lumière des LED IR seront visibles dans les vidéos enregistrées (Figure 7B). Cela peut toutefois être évité en plaçant des serviettes en papier dans la casserole de chute, donnant une image beaucoup améliorée (Figure 7C). Placer les LED de l’appareil photo ou les LED colorées trop près de l’objectif de la caméra peut les rendre visibles dans la périphérie de l’image (figure 7B). Comme la caméra est sensible à l’IR, toutes les sources de lumière IR qui sont présentes à l’intérieur des chambres peuvent être visibles dans les vidéos. Pour de nombreuses configurations, cela inclura le brillant continu des capteurs de rupture de faisceau IR (Figure 7C). L’éclairage continu des LED IR de la caméra ne perturbe pas la qualité d’image des chambres bien éclairées (Figure 7D). La taille des vidéos enregistrées avec l’appareil photo est d’environ 77 Mo/min. Si une carte micro SD de 32 Go est utilisée pour l’appareil photo, il devrait y avoir environ 20 Go disponibles après l’installation du système d’exploitation. Cela laisse de la place pour environ 260 minutes de séquences enregistrées.

L’objectif fisheye provoque la caméra d’avoir une mise au point légèrement inégale, étant forte au centre de l’image, mais la netteté réduite vers les bords. Cela ne semble pas affecter l’exactitude du suivi. En outre, la lentille fisheye entraîne une distorsion de l’image enregistrée. Par exemple, les distances entre les points également espacés le long des lignes droites montreront un espacement artificiellement réduit vers la périphérie del’image( figure 9A,B). Si la caméra est utilisée pour des applications où la plupart du champ de vision ou des mesures absolues de la distance et de la vitesse sont d’intérêt, il convient d’envisager de corriger les données pour cette distorsion23 (Fichier supplémentaire 4). La distorsion est cependant relativement légère au centre de l’image (figure 9B). Pour les vidéos rassemblées dans notre chambre d’opéra, la zone d’intérêt est limitée aux 25% centraux du champ de vision de la caméra. Dans cette zone, l’effet de la distorsion du fisheye est minime (Figure 9C\u2012F).

Précision du suivi avec DeepLabCut

Les principaux facteurs qui détermineront l’exactitude de suivi d’un réseau formé sont (i) le nombre d’images étiquetées dans son ensemble de données de formation, (ii) la façon dont ces images étiquetées capturent le comportement d’intérêt et (iii) le nombre d’itérations de formation utilisées. DeepLabCut inclut une fonction d’évaluation, qui signale une estimation de la distance (en nombre de pixels) que son suivi peut être prévu à partir de l’emplacement réel d’un objet. Toutefois, cela ne donne pas nécessairement une bonne description du nombre d’images où un objet est perdu et/ou mal étiqueté (figure 10A),ce qui incite à une évaluation manuelle supplémentaire de l’exactitude du suivi.

Pour analyser les comportements à l’intérieur d’une chambre d’opéra, un réseau bien formé devrait permettre l’identification précise de tous les événements où l’indicateur d’étape du protocole est actif. Si ce n’est pas le cas, il faudra peut-être recycler le réseau ou choisir un autre indicateur. Bien qu’il ait un réseau bien formé, le suivi de l’indicateur d’étape du protocole peut parfois être perturbé par des animaux bloquant la vue de la caméra (figure 10B). Cela provoquera des ruptures dans le suivi qui rappellent les épisodes où l’indicateur est inactif. La fréquence de ce qui se passe dépendra de la souche animale, le type de protocole comportemental et le choix de l’indicateur d’étape de protocole. Dans l’exemple des données du 5CSRTT qui est utilisé ici, il s’est produit sur quatre des 400 essais (données non affichées). Toutes les occasions étaient facilement identifiables, car leurs durées ne correspondaient pas à celles de l’étape de rupture qui avait été incluse dans la conception du protocole (figure 6A). En fin de compte, le choix d’un indicateur qui est placé haut dans la chambre et loin des composants que les animaux interagissent avec est susceptible d’être utile.

Un réseau bien formé devrait permettre >90% de précision lors du suivi de la tête d’un animal pendant les segments vidéo d’intérêt (Vidéo 1). Avec cela, seul un petit sous-ensemble d’images vidéo devra être exclu de l’analyse ultérieure et les données de suivi utilisables seront obtenues à partir de pratiquement tous les essais au sein d’une session de test. Un suivi précis est clairement identifiable par des marqueurs suivant un animal tout au long de ses mouvements (Vidéo 2) et des chemins tracés apparaissant lisses (Figure 10C). En revanche, le suivi inexact est caractérisé par des marqueurs qui ne restent pas sur la cible (Vidéo 3) et par des chemins tracés apparaissant déchiquetés (Figure 10D). Ce dernier est causé par le suivi de l’objet à des positions erronées lointaines dans des images vidéo simples dans des séquences de suivi précis. Par conséquent, un suivi inexact provoque généralement des changements soudains dans les vitesses de mouvement calculées (figure 10E). Cela peut être utilisé pour identifier les images vidéo où le suivi est inexact, pour les exclure de l’analyse ultérieure. S’il y a des problèmes importants de précision du suivi, les occasions où le suivi échoue doivent être identifiées et le réseau doit être reformé à l’aide d’un ensemble de formation élargi contenant des images vidéo étiquetées de ces événements (Figure 10A,E).

Utilisation du suivi vidéo pour compléter l’analyse des comportements opérents

L’analyse de la façon dont un animal se déplace et se positionne pendant les tests opérent fournira de multiples aperçus de la nature complexe et multiforme de leurs comportements. En suivant l’endroit où un animal est situé tout au long d’une séance d’essai, on peut évaluer comment les modèles de mouvement distincts se rapportent à la performance (Figure 11A,B). En approfonditant les mouvements de la tête au cours d’étapes spécifiques du protocole, on peut détecter et caractériser l’utilisation de différentes stratégies (Figure 11C\u2012E).

Pour illustrer, considérez les données représentatives présentées pour les rats effectuant le test 5CSRTT (figure 6A, figure 11). Dans ce test, les animaux sont présentés avec de multiples essais qui commencent chacun par une étape d’attente de 5 s (intervalle d’inter-procès - INI) (Figure 6A: 1). À la fin de cela, une lumière brillera à l’intérieur d’une des ouvertures de poke nez (position choisie au hasard sur chaque essai, figure 6A: 2). Le nez-piquer dans l’ouverture de cued est considéré comme une réponse correcte et est récompensé (figure 6A: 3). Répondre à une autre ouverture est considéré comme incorrect. Ne pas répondre dans les 5 s suivant la présentation de la lumière est considéré comme une omission. Suivi des mouvements de la tête au cours de l’INI de ce test a révélé que sur les essais où les rats effectuent une réponse, ils sont rapides à se déplacer vers la zone autour des ouvertures de poke nez (Figure 11A,B, Vidéo 4). En revanche, sur la majorité des essais d’omission, les rats ne parviennent pas à s’approcher de la zone autour des ouvertures (Figure 11B, Vidéo 5). Ce comportement est conforme à l’interprétation commune des omissions étant étroitement liée à une faible motivation pour effectuer le test3,16. Toutefois, sur un sous-ensemble d’essais d’omission (environ 20 % de l’ensemble de données actuel), les rats se sont clairement concentrés sur les ouvertures (figure 11B, Vidéo 6)mais n’ont pas noté l’emplacement exact de l’ouverture de cued. Les données indiquent donc qu’il existe au moins deux types d’omissions différentes, l’une liée à un désintérêt possible pour l’essai en cours, et l’autre qui dépend davantage de l’attention visuospatiale insuffisante3. Le suivi de la tête peut également être utilisé pour distinguer les stratégies apparentes. À titre d’exemple, deux stratégies attentionnelles distinctes ont été révélées lors de l’analyse de la façon dont les rats se déplacent lorsqu’ils sont à proximité des ouvertures de poke du nez au cours de la 5CSRTT (Figure 11C\u2012E). Dans la première stratégie, les rats ont montré une approche extrêmement ciblée, en maintenant une position centrale dans la plupart de l’INI (Figure 11C, Vidéo 7). En revanche, les rats adoptant l’autre stratégie ont constamment déplacé leur tête entre les différentes ouvertures d’une manière de recherche -like (Figure 11D, Vidéo 8). Ce type de différences comportementales peut facilement être quantifié en calculant le temps passé à proximité des différentes ouvertures (figure 11E). Enfin, en analysant à quelle ouverture le rat est le plus proche au moment de la présentation de la lumière de queue (figure 11F), il peut être démontré qu’être en position centrale (figure 11G) et/ou à proximité de l’emplacement de l’ouverture de cued (figure 11H) semble être bénéfique pour une performance précise sur l’essai.

Figure 1
Figure 1 : Croquis du microordinateur répertorié. Le schéma montre la position de plusieurs composants d’intérêt sur la carte mère micro-ordinateur. Ceux-ci sont marqués avec des nombres encerclés comme suit: 1: Connecteur pour câble de ruban de caméra; 2: Lumière LED indiquant quand l’ordinateur est en marche; 3: Micro USB pour câble d’alimentation; 4: Micro USB pour la souris/clavier; 5 : Les broches d’entrée et de sortie à usage général (broches GPIO), ces broches sont utilisées pour connecter le microordinateur aux LED, aux commutateurs et au module LED IR; 6: Sortie Mini HDMI; 7: Fente de carte Micro SD. Dans la partie inférieure de la figure, une partie recadrée et agrandie des broches GPIO indique comment compter le long d’elles pour identifier correctement la position d’une broche spécifique. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 2
Figure 2 : Construction du corps principal de la caméra. Les chiffres illustraient les étapes principales pour la construction du corps de la caméra. (A) Attachez l’anneau métallique magnétique au support de la caméra. (B) Attachez le module de caméra au support de la caméra. (C) Connectez le module de la caméra au micro-ordinateur par le câble à ruban plat. Notez les flèches blanches indiquant comment ouvrir et fermer les ports de caméra présents à la fois sur le micro-ordinateur et le module de caméra. (D) Placez le micro-ordinateur dans le boîtier en plastique et insérez une carte micro SD. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 3
Figure 3 : Mise à jour du système d’exploitation du micro-ordinateur et activation des périphériques. La figure montre quatre captures d’écran différentes représentant l’interface utilisateur du micro-ordinateur. (A) Les fenêtres terminales peuvent être ouvertes en cliquant sur l’icône « ara » dans le coin supérieur gauche de l’écran. (B) Dans le terminal, on peut taper différents types de commandes, comme indiqué dans le texte du protocole. La capture d’écran affiche la commande pour la mise à jour des packages logiciels du système. (C) La capture d’écran montre comment naviguer vers le menu configurations, où l’on peut activer l’utilisation du module de caméra et des broches I2C GPIO. (D) La capture d’écran affiche le dossier /home/pi, où le script de la caméra doit être copié à l’étape 1.10 du protocole. La fenêtre est ouverte en cliquant sur l’icône indiquée dans le coin supérieur gauche de l’écran. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 4
Figure 4 : Configuration du fichier rc.local du microordinateur. La figure affiche deux captures d’écran du fichier rc.local du micro-ordinateur, lorsqu’il est accessible par le terminal tel que décrit à l’étape 1.11.1. (A) Une capture d’écran du fichier rc.local dans son format original. La flèche indique l’espace où le texte doit être entré afin d’activer la fonction de démarrage automatique de la caméra. (B) Une capture d’écran du fichier rc.local après qu’il a été édité pour briller les LED IR et commencer le script python contrôlant la caméra au démarrage du micro-ordinateur. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 5
Figure 5 : Connexion des commutateurs et des LED aux broches GPIO du micro-ordinateur. (A) Schématique montrant un interrupteur de bouton avec des câbles de cavalier féminin (en haut) et une LED avec résistance et câbles de cavalier femelle (en bas). (1) Interrupteur à boutons, (2) câbles de sauteur féminin, (3) LED, (4) résistance. (B) Image schématique montrant comment les deux commutateurs de bouton, les LED colorées et le panneau DEL IR sont connectés aux broches GPIO du microordinateur. Les câbles bleus et les broches GPIO indiquent le sol. La position de deux broches GPIO est indiquée dans la figure (broches GPIO #2 et #40) : (1) Bouton pour le démarrage/arrêt de l’enregistrement vidéo. (2) LED indiquant quand la vidéo est enregistrée. (3) Bouton pour éteindre la caméra. (4) LED indiquant quand la caméra a démarré et est prêt à être utilisé. (5) Module LED IR. Notez que les circuits avec LED contiennent également 330 résistances Ω. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 6
Figure 6 : Utilisation du suivi DeepLabCut de l’indicateur d’étape du protocole pour identifier les séquences d’intérêt pour les vidéos intégrales. (A) Schéma des étapes d’un seul essai dans le test de temps de réaction en série à 5 choix (5CSRTT): (1) Premièrement, il y a une brève période d’attente (INI). Flèche indique une lumière de maison activement brillante. (2) À la fin de l’INI, une lumière brillera dans l’une des cinq ouvertures de poke de nez (flèche). (3) Si un rat réagit avec précision en effectuant un piqué de nez dans l’ouverture de cued, une récompense est livrée (flèche). (4) Le rat est autorisé à récupérer la récompense. (5) Pour permettre l’utilisation de la lumière de la maison comme indicateur d’étape de protocole, une brève étape de pause où la lumière de la maison est éteinte (flèche) est implémentée avant le début de l’essai suivant. Notez que la lumière de la maison brille pendant les étapes suivantes du procès. (B) Un graphique d’exemple représentant la coordonnée x de la lumière de la maison active, suivi par DeepLabCut, lors d’un segment vidéo d’un test 5CSRTT. Pendant les segments où la lumière de la maison brille (indicateur actif - 1), la position est suivie à un point cohérent et stable (notez également le marqueur rouge (indiqué par flèche) dans l’exemple de cadre vidéo), comparable à celle de la position de la lumière de la maison dans la figure 8C (x, y: 163, 503). Pendant les segments où la lumière de la maison ne brille pas (indicateur inactif - 2, notez la flèche blanche dans l’exemple du cadre vidéo), la position suivie n’est pas stable, et loin de la coordonnée réelle de la lumière de la maison. (C) Le tableau 1 montre un exemple de sortie traitée obtenue à partir du suivi DeepLabCut d’un indicateur d’étape de protocole. Dans cette sortie, le point de départ pour chaque occasion où l’indicateur est actif a été répertorié. Le tableau 2 présente un exemple de données obtenues à partir du système de conditionnement opérent, donnant des détails pertinents pour les essais individuels. Dans cet exemple, la durée de l’INI, la position de l’ouverture cued et les latences pour effectuer une réponse et récupérer la récompense ont été enregistrées. Le tableau 3 présente un exemple de données obtenues en fusionnant les résultats de suivi de DeepLabCut et les données enregistrées à partir du système de conditionnement opérant. Grâce à cela, les images vidéo pour le point de départ de l’INI (étape 1 en A), le point de départ de la présentation de la lumière de repère (étape 2 en A), la réponse (étape 3 en A) et la récupération (étape 4 en A) pour un essai par exemple ont été obtenues. (D) Un exemple de graphique illustrant la coordonnée x de la lumière de la maison, suivi par DeepLabCut, lors d’un essai filmé 5CSRTT. Les différentes étapes du protocole sont indiquées : (1) INI; (2) présentation d’une lumière de repère (position indiquée par flèche blanche); (3) réponse; (4) récupération de récompense. L’identification des images vidéo illustrant le début et l’arrêt de ces différentes étapes du protocole a été effectuée dans le cadre d’un processus comparable à celui indiqué dans D. Veuillez cliquer ici pour voir une version plus grande de cette figure.

Figure 7
Figure 7 : Caractéristiques de l’image de la caméra. (A) Image non débropped obtenue à partir d’une caméra placée sur une chambre de conditionnement opérant. L’image a été capturée alors que la chambre était placée dans une pièce lumineuse. Notez la (1) lumière de la maison et (2) le creux de granulés de récompense le long du mur gauche de la chambre et (3) la rangée de cinq ouvertures de poke de nez le long du mur droit de la chambre. Chaque ouverture de poke de nez contient une petite lumière de queue. (B) Image non débrossé affichant la forte réflexion causée par (1) la casserole de chute en métal, ainsi que les réflexions causées par le positionnement sous-optimal des LED indicateurs de la caméra (2) et (3) du module LED IR. (C) Image recadrée de la chambre dans l’obscurité complète. Notez que les lumières des détecteurs de rupture de faisceau IR dans les cinq ouvertures de poke de nez le long du mur droit de la chambre sont clairement visibles (flèche). (D) Image recadrée de la chambre lorsqu’elle est éclairée. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 8
Figure 8 : Suivi positionnel de l’indicateur d’étape du protocole et des parties du corps d’intérêt. (A) L’image montre la position d’un indicateur d’étape de protocole (rouge) ainsi que la tête (jaune) et la queue (verte) d’un rat, suivi par DeepLabCut. Comme l’indique le suivi de la lumière de la maison allumée, le cadre vidéo est tiré d’un instantané d’un essai actif. (B) L’image montre la position de la tête (jaune) et de la queue (vert) suivie par DeepLabCut pendant un moment où un essai n’est pas actif. Notez l’absence de suivi de la lumière de la maison. CC) Les positions des points d’intérêt utilisées dans l’analyse des données figurant à la figure 6 et à la figure 11; (1) Lumière de maison, dans ce cas utilisé comme indicateur d’étape de protocole, (2\u20126) Ouvertures de poke de nez #1\u20125. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 9
Figure 9 : Distorsion d’image de l’objectif fisheye. (A) Image d’un motif de damier avec des carrés noirs et blancs de taille égale et espacés pris avec la caméra décrite dans ce protocole. L’image a été prise à une hauteur comparable à celle utilisée lors de l’enregistrement de vidéos à partir de chambres de conditionnement opérant. Les carrés noirs le long des lignes horizontales et verticales centrales ont été marqués avec DeepLabCut. (B) Graphique illustrant comment l’espacement des carrés marqués dans (A) change avec la proximité du centre d’image. (C) Image représentant les mesures prises pour évaluer l’impact de l’effet de distorsion fisheye sur les vidéos recueillies à partir de chambres d’opéra. Les coins et les points médians le long du bord de la surface du sol, la position centrale de chaque échelon individuel et la position des cinq ouvertures de poke du nez ont été indiqués avec DeepLabCut (points colorés); (1) espacement des échelons de plancher, (2) largeur du plancher de chambre le long du milieu de la chambre, (3) espacement des ouvertures de poke de nez. (D) Espacement des échelons de plancher (moyenne pour chaque ensemble de trois échelons consécutifs), numéroté de gauche à droite dans (C). Il y a un petit effet de la distorsion de fisheye, ayant pour résultat que les échelons centraux sont espacés d’environ 3 pixels (8%) plus loin que les échelons qui sont placés sur les bords du plancher de la chambre. (E) Largeur du plancher de chambre en (C) mesurée à ses bords gauche et droit, ainsi qu’au point médian. Il y a un petit effet de la distorsion de l’oeil de poisson, ce qui fait que la largeur mesurée au point médian est d’environ 29 pixels (5 %) plus longues que les autres mesures. (F) Espacement des ouvertures de poke de nez dans (C), numérotées du haut de l’image. Il y a un petit effet de la distorsion de l’oeil de poisson, ce qui entraîne l’espacement entre les trois ouvertures centrales (H2, H3, H5) étant d’environ 5 pixels (4%) plus large que l’espacement entre H1-H2 et H4-H5. Pour D-F, les données ont été recueillies à partir de quatre vidéos et les graphiques représentent la moyenne de groupe + erreur standard. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 10
Figure 10 : Révision de l’exactitude du suivi DeepLabCut. (A) Un tableau répertoriant l’information sur la formation de deux réseaux neuronaux formés pour suivre les rats dans les chambres d’opéra. Les #1 réseau ont utilisé un ensemble de données de formation plus petit, mais un nombre élevé d’itérations de formation par rapport aux #2 réseau. Les deux réseaux ont obtenu un faible score d’erreur de la fonction d’évaluation de DeepLabCut (erreur de test DLC) et ont affiché une faible perte d’entraînement vers la fin de la formation. Malgré cela, Network #1 a montré une très faible précision de suivi lors de l’évaluation manuelle des images vidéo marquées (précision mesurée, estimée à partir de 150 images vidéo couvrant un segment vidéo comparable à ceux de la vidéo 2 et la vidéo 3). Network #2 représente la version améliorée de Network #1, après avoir inclus des images vidéo supplémentaires de rats qui déplacent activement dans l’ensemble de données de formation, comme décrit dans (E). (B) Image représentant un rat élevant et couvrant la lumière de la maison de la chambre (Figure 7A) avec sa tête, perturbant le suivi de celui-ci. (C) Cadre vidéo capturant une réponse effectuée au cours d’un essai 5CSRTT (Figure 6A: 3). Le chemin de mouvement de la tête pendant la réponse et l’INI précédent a été superposé sur l’image en jaune. Le suivi est considéré comme exact. Notez le suivi lisse pendant les mouvements (flèche blanche). Une vidéo correspondante est disponible sous la forme de vidéo 2. Le #2 réseau (voir A) a été utilisé pour le suivi. (D) Cadre vidéo capturant une réponse effectuée lors d’un essai 5CSRTT (Figure 6A: 3). Le chemin de mouvement de la tête pendant la réponse et l’INI précédent a été superposé sur l’image en jaune. Les données concernent le même essai que dans (C) mais analysées avec Network #1 (voir A). Le suivi est considéré comme inexact. Notez l’aspect déchiqueté du chemin avec plusieurs lignes droites (flèches blanches), causée par le suivi occasionnel de la tête vers des positions erronées lointaines (flèches noires). Une vidéo correspondante est disponible sous la forme de vidéo 3. (E) Graphique illustrant les changements dynamiques de la vitesse de mouvement du suivi de la tête dans (C) et (D). Identifiables dans le graphique sont trois mouvements majeurs vus dans la vidéo 2 et 3, où le rat se tourne d’abord pour faire face aux ouvertures de poke nez (tour initial), fait un petit ajustement pour les approcher plus loin (ajustement), et effectue enfin une réponse. Le profil de vitesse pour le bon suivi obtenu par Network #2 (A) affiche des courbes lisses des changements de vitesse de mouvement (flèches bleues), indiquant un suivi précis. Le profil de vitesse pour le mauvais suivi obtenu par Network #1 (A) montre plusieurs pics soudains de vitesse de mouvement (flèches rouges) indiquant des erreurs occasionnelles de suivi dans des images vidéo simples. Il est à noter que ces problèmes de suivi se produisent spécifiquement pendant les mouvements. Pour y remédier, l’ensemble de formation initiale utilisé pour former network #1 a été élargi avec une grande quantité de cadres vidéo représentant des rats en mouvement actif. Cela a ensuite été utilisé pour former network #2, ce qui a efficacement supprimé ce problème de suivi. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 11
Figure 11 : Utilisation du suivi positionnel par DeepLabCut pour compléter l’analyse comportementale des tests de conditionnement opérent. (Un) Une vue supérieure de l’intérieur d’une chambre de conditionnement opérant. Trois secteurs de la chambre sont indiqués. La zone proche de l’auge de granulé de récompense (Pellet), la zone de chambre centrale (Centre) et la zone autour des ouvertures de poke de nez (Ouvertures). (B) Un graphique illustrant le temps relatif que les rats passent dans les trois zones différentes de la chambre d’opéra décrites dans le point A) pendant l’étape INI du 5CSRTT. Notez que lors d’essais avec une réponse, les rats ont d’abord tendance à être positionnés près du creux de granulés (noir) et du centre de chambre (gris), mais au fur et à mesure que l’INI progresse, ils se déplacent vers le positionnement autour des ouvertures de poke du nez (blanc). En revanche, lors d’essais d’omission typiques, les rats restent positionnés autour du creux de granulés et du centre de la chambre. Sur un sous-ensemble d’essais d’omission (environ 20 %) les rats déplacent clairement leur foyer vers les ouvertures de poke de nez, mais toujours ne parviennent pas à effectuer une réponse quand on les demande. Analyse bidirectionnelle ANOVA du temps passé autour des ouvertures de poke de nez utilisant le type d’essai comme facteur entre-sujet et temps comme facteur intérieur-sujet révèlent le temps significatif (p < 0.001, F(4,8) = 35.13), trial type (p < 0.01, F(2,4) = 57.33) and time x trial type interaction (p < 0.001, F(8,16) = 15.3) effects. Data gathered from four animals performing 100 trials each. Graph displays mean + standard error. (C) Carte thermique affichant toutes les positions de tête suivies à proximité des ouvertures de poke du nez, par un rat spécifique pendant 50 ITO d’une session d’essai 5CSRTT. Notez que le rat a une forte tendance à garder sa tête dans un endroit près de l’ouverture centrale de poke de nez. (D) Carte thermique affichant toutes les positions de tête suivies à proximité des ouvertures de poke du nez, par un rat spécifique pendant 50 ITO d’une session d’essai 5-CSRTT. Notez que le rat ne montre aucune préférence claire pour une ouverture spécifique. (E) Graphique illustrant la quantité relative de temps que les deux rats affichés dans (C) et (D) passent à être les plus proches des différentes ouvertures de poke de nez pendant 50 ITO du 5CSRTT. Le rat affichant une stratégie ciblée (C) (noir) montre une forte préférence pour être le plus proche de l’ouverture centrale tandis que le rat avec une stratégie de recherche (D) (blanc) ne montre aucune préférence pour une ouverture particulière. Le graphique représente la moyenne + erreur standard. (F) Une image d’un rat au moment de la présentation de repère sur un essai de 5CSRTT (Figure 6A). Notez que le rat a placé sa tête la plus proche de l’ouverture centrale (flèche blanche), étant à deux ouvertures de l’ouverture cued (flèche noire). (G) Un graphique illustrant la précision des performances sur le 5CSRTT (c.-à-d. la fréquence d’exécution des réponses correctes) par rapport à la question de savoir si la tête des rats était la plus proche de l’ouverture centrale ou de l’une des autres ouvertures au moment de la présentation du signal (Figure 6A2). Données recueillies auprès de quatre animaux effectuant environ 70 réponses chacun. Graphique affiche la moyenne de groupe + erreur standard (match t-test: p < 0.05). (H) Un graphique illustrant la précision des performances sur le 5CSRTT par rapport à la distance entre la position de l’ouverture de cued et la position de la tête d’un rat, au point de présentation du signal. La distance est liée au nombre d’ouvertures entre la position de la tête des rats et la position de l’ouverture signalée. Données recueillies auprès de quatre animaux effectuant environ 70 réponses chacun. Affichage graphique moyenne + erreur standard (matched one-way ANOVA: p < 0.01). For the presented analysis, Network #2 described in Figure 10A a été utilisé. L’ensemble complet de données analysées comprenait environ 160 000 images vidéo et 400 essais. De ce nombre, 2,5 % des images vidéo ont été exclues en raison de la vitesse de déplacement notée de l’animal supérieure à 3 000 pixels/s, ce qui indique un suivi erroné (Figure 10E). Aucun essai complet n’a été exclu. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Vidéo 1 : Performances de suivi représentatives d’un réseau neuronal bien formé. La vidéo montre un montage d’un rat effectuant 45 essais avec des réponses correctes au cours d’une session d’essai 5CSRTT (voir la figure 6A pour plus de détails sur le protocole). Le suivi du voyant de la maison (marqueur rouge), de la base de queue (marqueur vert) et de la tête (marqueur bleu) est indiqué dans la vidéo. La formation du réseau (Réseau #2 de la figure 10A)a mis l’accent sur l’exactitude des mouvements effectués le long du plancher de la chambre à proximité des ouvertures de poke du nez (mur droit, figure 7A). Le suivi de ces segments montre en moyenne >90% de précision. Le suivi des épisodes d’élevage et de toilettage est inexact, car l’ensemble de formation n’incluait pas les cadres de ces comportements. Notez que la vidéo a été compressée pour réduire la taille du fichier et n’est pas représentable de la qualité vidéo obtenue avec l’appareil photo. Veuillez cliquer ici pour télécharger cette vidéo.

Vidéo 2 : Exemple d’animal suivi avec précision. La vidéo montre un seul essai bien suivi d’un rat effectuant une réponse correcte pendant le 5CSRTT. Le suivi du voyant de la maison (marqueur rouge), de la base de queue (marqueur vert) et de la tête (marqueur bleu) est indiqué dans la vidéo. Le réseau neuronal #2 décrit dans la figure 10A a été utilisé pour le suivi. Notez comment les marqueurs suivent les mouvements de l’animal avec précision. Reportez-vous également à la figure 10C,E pour le chemin tracé et la vitesse de mouvement pour le suivi de la tête dans ce clip vidéo. Veuillez cliquer ici pour télécharger cette vidéo.

Vidéo 3 : Exemple d’animal mal suivi. La vidéo montre un seul essai mal suivi d’un rat effectuant une réponse correcte pendant le 5CSRTT. Le suivi du voyant de la maison (marqueur rouge), de la base de queue (marqueur vert) et de la tête (marqueur bleu) est indiqué dans la vidéo. Le réseau neuronal #1 décrit dans la figure 10A a été utilisé pour le suivi. Le clip vidéo est le même que celui utilisé dans la vidéo 2. Notez que le marqueur de la tête n’est pas placé de façon fiable sur la tête du rat. Reportez-vous également à la figure 10D,E pour le chemin tracé et la vitesse de mouvement pour le suivi de la tête dans ce clip vidéo. Veuillez cliquer ici pour télécharger cette vidéo.

Vidéo 4 : Exemple de mouvements effectués lors d’un essai 5CSRTT avec une réponse. La vidéo montre un seul essai bien suivi d’un rat effectuant une réponse correcte pendant le 5-CSRTT. Le suivi du voyant de la maison (marqueur rouge), de la base de queue (marqueur vert) et de la tête (marqueur bleu) est indiqué dans la vidéo. Notez comment le rat est d’abord positionné à proximité claire du récipient à granulés (mur gauche, figure 7A)et se déplace ensuite pour concentrer son attention sur la rangée d’ouvertures de poke nez. Veuillez cliquer ici pour télécharger cette vidéo.

Vidéo 5 : Exemple d’essai d’omission typique pendant le 5CSRTT. La vidéo montre un seul essai bien suivi d’un rat effectuant une omission typique au cours de la 5CSRTT. Le suivi du voyant de la maison (marqueur rouge), de la base de queue (marqueur vert) et de la tête (marqueur bleu) est indiqué dans la vidéo. Notez comment le rat maintient sa position autour du récipient à granulés (mur gauche, figure 7A)et du centre de la chambre, plutôt que de se retourner pour faire face aux ouvertures de poke du nez (mur droit, figure 7A). Le comportement affiché et la cause de l’omission peuvent être argumentés pour refléter le faible intérêt dans l’exécution du test. Veuillez cliquer ici pour télécharger cette vidéo.

Vidéo 6 : Exemple d’essai d’omission atypique pendant le 5CSRTT. La vidéo montre un seul essai bien suivi d’un rat effectuant une omission atypique pendant le 5CSRTT. Le suivi du voyant de la maison (marqueur rouge), de la base de queue (marqueur vert) et de la tête (marqueur bleu) est indiqué dans la vidéo. Notez comment le rat se positionne vers les ouvertures de poke du nez le long du mur droit de la chambre (Figure 7A). Cela peut être avancé pour indiquer que l’animal est intéressé à effectuer le test. Cependant, le rat fait face loin de l’ouverture cued (position centrale) lorsque le signal est présenté (5 s dans le clip). Contrairement à l’omission affichée dans la vidéo 4, celle que l’on voit ici est probablement liée à des processus d’attention visuospatial sous-optimaux. Veuillez cliquer ici pour télécharger cette vidéo.

Vidéo 7 : Exemple d’un animal qui maintient une position centrale ciblée lors d’une INI du 5CSRTT. La vidéo montre un seul essai bien suivi d’un rat effectuant une réponse correcte sur un essai de la 5CSRTT. Notez comment le rat maintient une position centrale pendant l’INI, en gardant sa tête stable à proximité de l’ouverture de poke nez central le long du mur droit des chambres (Figure 7A). Le suivi du voyant de la maison (marqueur rouge), de la base de queue (marqueur vert) et de la tête (marqueur bleu) est indiqué dans la vidéo. Veuillez cliquer ici pour télécharger cette vidéo.

Vidéo 8 : Exemple d’un animal affichant une stratégie d’attention semblable à la recherche lors d’une INI du 5CSRTT. La vidéo montre un seul essai bien suivi d’un rat effectuant une réponse correcte sur un essai de la 5CSRTT. Notez comment le rat repositionne fréquemment sa tête pour faire face à différentes ouvertures de poke nez le long du mur droit de la chambre (Figure 7A). Le suivi du voyant de la maison (marqueur rouge), de la base de queue (marqueur vert) et de la tête (marqueur bleu) est indiqué dans la vidéo. Veuillez cliquer ici pour télécharger cette vidéo.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Ce protocole décrit comment construire une caméra vidéo peu coûteuse et flexible qui peut être utilisée pour enregistrer des vidéos à partir de chambres de conditionnement opérant et d’autres configurations de test comportemental. Il montre en outre comment utiliser DeepLabCut pour suivre un signal lumineux fort dans ces vidéos, et comment cela peut être utilisé pour aider à identifier de brefs segments vidéo d’intérêt pour les fichiers vidéo qui couvrent des sessions de test complètes. Enfin, il décrit comment utiliser le suivi de la tête d’un rat pour compléter l’analyse des comportements lors de tests de conditionnement opérant.

Le protocole présente une alternative aux solutions d’enregistrement vidéo disponibles dans le commerce pour les chambres de conditionnement opérant. Comme nous l’avons mentionné, le principal avantage est qu’ils s’intègrent aux chambres d’opéra, permettant des enregistrements vidéo d’événements spécifiques. L’approche d’identification des segments vidéo d’intérêt décrits dans ce protocole est plus laborieuse et plus longue que l’utilisation d’un système entièrement intégré pour enregistrer des événements spécifiques. Il est cependant considérablement moins cher (une estimation récente des coûts pour l’équipement de surveillance vidéo pour 6 chambres d’opéra a été fixé à environ 13.000 USD. En comparaison, la construction de six des caméras répertoriées ici coûterait environ 720 USD). En outre, les caméras peuvent être utilisées pour plusieurs autres configurations de test comportemental. Lorsque vous travaillez avec la caméra, il est important d’être conscient des zones de l’électronique exposée (l’arrière du composant de la caméra ainsi que le composant IR LED), de sorte qu’ils ne entrent pas en contact avec les fluides. En outre, le câble de ruban attachant le module de caméra au micro-ordinateur et les câbles reliant les LED et les commutateurs aux broches GPIO peuvent se détacher si la caméra est fréquemment déplacée. Ainsi, l’ajustement de la conception du boîtier de la caméra peut être bénéfique pour certaines applications.

L’utilisation de DeepLabCut pour identifier les segments vidéo d’intérêt et suivre les mouvements des animaux offre un complément et/ou une alternative à l’analyse vidéo manuelle. Bien que le premier n’invalide pas le second, nous avons constaté qu’il fournit un moyen pratique d’analyser les mouvements et les comportements à l’intérieur des chambres d’opéra. En particulier, il fournit des données de position de l’animal, qui contiennent des informations plus détaillées que ce qui est généralement extrait par pointage manuel (c.-à-d. les coordonnées réelles par rapport aux informations de position qualitatives telles que « n aceu », « nt à côté de " etc.).

Lors de la sélection d’un indicateur d’étape de protocole, il est important de choisir un qui indique constamment une étape donnée du protocole comportemental, et qui est peu susceptible d’être bloqué par l’animal. Si ce dernier problème, on peut envisager de placer une lampe à l’extérieur de la chambre d’opéra et de la filmer à travers les murs de la chambre. De nombreuses chambres de conditionnement opérant sont modulaires et permettent aux utilisateurs de déplacer librement les lumières, capteurs et autres composants autour. Il convient de noter qu’il existe d’autres logiciels qui permettent également aux utilisateurs de former des réseaux neuronaux dans la reconnaissance et le suivi des objets définis par l’utilisateur dans les vidéos24,25,26. Ceux-ci peuvent probablement être utilisés comme alternatives à DeepLabCut dans le protocole actuel.

Le protocole décrit comment suivre la partie centrale de la tête d’un rat afin de mesurer les mouvements à l’intérieur des chambres d’opéra. Comme DeepLabCut offre une liberté totale dans la sélection des parties du corps ou des objets d’intérêt, cela peut avec commodité être modifié pour s’adapter à des intérêts spécifiques à l’étude. Une extension naturelle du suivi décrit ci-après est également de suivre la position des oreilles et du nez des rats, pour mieux juger non seulement la position de la tête, mais aussi l’orientation. Les données représentatives présentées ici ont été recodées avec des rats Long Evans. Ces rats présentent des variations inter-individuelles considérables dans leur modèle de pigmentation, en particulier vers leur base de queue. Cela peut entraîner certaines difficultés à appliquer un seul réseau neuronal formé pour le suivi de différentes personnes. Pour limiter ces problèmes, il est préférable d’inclure des images vidéo de tous les animaux d’intérêt dans l’ensemble de formation pour le réseau. La tête noire du rat Long Evans offre un contraste assez fort avec les surfaces métalliques de la chambre utilisée ici. Ainsi, obtenir un suivi précis de leurs têtes nécessite probablement moins d’effort qu’avec les souches albinos. L’étape la plus critique pour obtenir un suivi précis avec DeepLabCut ou des logiciels comparables est de sélectionner un bon nombre de cadres vidéo divers pour la formation du réseau neuronal. En tant que tel, si le suivi d’un objet d’intérêt est considéré comme sous-optimal, l’augmentation de l’ensemble des cadres de formation devrait toujours être la première étape vers l’amélioration des résultats.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Bien que les matériaux et les ressources de la fondation Raspberry Pi aient été utilisés et cités dans ce manuscrit, la fondation n’a pas participé activement à la préparation ou à l’utilisation de l’équipement et des données de ce manuscrit. Il en va de même pour Pi-Supply. Les auteurs n’ont rien à divulguer.

Acknowledgments

Ce travail a été soutenu par des subventions de la Fondation suédoise du cerveau, de la Fondation suédoise Parkinson et des Fonds du gouvernement suédois pour la recherche clinique (M.A.C.), ainsi que des fondations Wenner-Gren (M.A.C, E.K.H.C), de la Fondation Åhlén (M.A.C) et de la fondation Blanceflor Boncompagni Ludovisi, née Bildt (S.F).

Materials

Name Company Catalog Number Comments
32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

DOWNLOAD MATERIALS LIST

References

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user's manual. Coulbourn instruments. , Holliston, Massachusetts. 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer's manual. Med Associates Inc. , St. Albans, Vermont. 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat's behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user's manual. Med Associates Inc. , St. Albans, Vermont. 26-30 (2004).
  14. Coulbourn Instruments. Coulbourn Instruments. , Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020).
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. Raspberry Pi foundation. Raspberry Pi foundation. , Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020).
  19. Pi-supply. Pi-supply. , Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018).
  20. Python. Python. , Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020).
  21. MathWorks. MathWorks. , Available from: https://mathworks.com/academia/highschool/ (2020).
  22. Cran.R-Project.org. Cran.R-Project.org. , Available from: https://cran.r-project.org/manuals.html (2020).
  23. Liu, Y., Tian, C., Huang, Y. Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Tags

Comportement Numéro 160 Conditionnement Operant cognition enregistrement vidéo comportement des rongeurs Raspberry Pi DeepLabCut
Suivi des rats dans les chambres de conditionnement Operant à l’aide d’une caméra vidéo maison polyvalente et DeepLabCut
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Clemensson, E. K. H., Abbaszadeh,More

Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter