Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Un système de réalité virtuelle open-source pour la mesure de l’apprentissage spatial chez des souris retenues par la tête

Published: March 3, 2023 doi: 10.3791/64863

Summary

Ici, nous présentons une configuration matérielle et logicielle open source simplifiée pour étudier l’apprentissage spatial de la souris à l’aide de la réalité virtuelle (VR). Ce système affiche une piste linéaire virtuelle vers une souris retenue par la tête fonctionnant sur une roue en utilisant un réseau de microcontrôleurs et un ordinateur monocarte exécutant un logiciel graphique Python facile à utiliser.

Abstract

Les expériences comportementales restreintes à la tête chez la souris permettent aux neuroscientifiques d’observer l’activité des circuits neuronaux avec des outils d’imagerie électrophysiologique et optique à haute résolution tout en fournissant des stimuli sensoriels précis à un animal qui se comporte. Récemment, des études sur les humains et les rongeurs utilisant des environnements de réalité virtuelle (RV) ont montré que la RV est un outil important pour découvrir les mécanismes neuronaux sous-jacents à l’apprentissage spatial dans l’hippocampe et le cortex, en raison du contrôle extrêmement précis de paramètres tels que les indices spatiaux et contextuels. La mise en place d’environnements virtuels pour les comportements spatiaux des rongeurs peut toutefois être coûteuse et nécessiter une vaste expérience en ingénierie et en programmation informatique. Ici, nous présentons un système simple mais puissant basé sur du matériel et des logiciels peu coûteux, modulaires et open source qui permet aux chercheurs d’étudier l’apprentissage spatial chez des souris retenues à la tête en utilisant un environnement VR. Ce système utilise des microcontrôleurs couplés pour mesurer la locomotion et fournir des stimuli comportementaux tandis que des souris retenues par la tête courent sur une roue de concert avec un environnement de piste linéaire virtuel rendu par un progiciel graphique fonctionnant sur un ordinateur monocarte. L’accent mis sur le traitement distribué permet aux chercheurs de concevoir des systèmes flexibles et modulaires pour susciter et mesurer des comportements spatiaux complexes chez la souris afin de déterminer le lien entre l’activité des circuits neuronaux et l’apprentissage spatial dans le cerveau des mammifères.

Introduction

La navigation spatiale est un comportement éthologiquement important par lequel les animaux codent les caractéristiques de nouveaux emplacements dans une carte cognitive, qui est utilisée pour trouver des zones de récompense possible et éviter les zones de danger potentiel. Inextricablement liés à la mémoire, les processus cognitifs sous-jacents à la navigation spatiale partagent un substrat neuronal dans l’hippocampe1 et le cortex, où les circuits neuronaux de ces zones intègrent les informations entrantes et forment des cartes cognitives des environnements et des événements pour un rappel ultérieur2. Alors que la découverte de cellules de lieu dans l’hippocampe3,4 et de cellules de grille dans le cortex entorhinal5 a mis en lumière la façon dont la carte cognitive dans l’hippocampe est formée, de nombreuses questions demeurent sur la façon dont les sous-types neuronaux spécifiques, les microcircuits et les sous-régions individuelles de l’hippocampe (le gyrus denté et les aires cornu ammonis, CA3-1) interagissent et participent à la formation et au rappel de la mémoire spatiale.

L’imagerie in vivo à deux photons a été un outil utile pour découvrir la dynamique cellulaire et des populations en neurophysiologie sensorielle 6,7; Cependant, la nécessité typique d’un appuie-tête limite l’utilité de cette méthode pour examiner le comportement spatial des mammifères. L’avènement de la réalité virtuelle (RV)8 a comblé cette lacune en présentant des environnements visuospatiaux immersifs et réalistes tandis que des souris retenues à la tête courent sur une balle ou un tapis roulant pour étudier l’encodage spatial et contextuel dans l’hippocampe 8,9,10 et le cortex 11. De plus, l’utilisation d’environnements de RV avec des souris se comportant a permis aux chercheurs en neurosciences de disséquer les composantes du comportement spatial en contrôlant avec précision les éléments de l’environnement VR12 (par exemple, le flux visuel, la modulation contextuelle) d’une manière qui n’est pas possible dans les expériences réelles d’apprentissage spatial, telles que le labyrinthe aquatique Morris, le labyrinthe Barnes ou les tâches de planche de trous.

Les environnements de réalité virtuelle visuelle sont généralement rendus sur l’unité de traitement graphique (GPU) d’un ordinateur, qui gère la charge de calcul rapide des milliers de polygones nécessaires pour modéliser un environnement 3D en mouvement sur un écran en temps réel. Les exigences de traitement importantes nécessitent généralement l’utilisation d’un PC séparé avec un GPU qui rend l’environnement visuel sur un moniteur, plusieurs écrans13 ou un projecteur14 lorsque le mouvement est enregistré à partir d’un tapis roulant, d’une roue ou d’une balle en mousse sous l’animal. L’appareil résultant pour contrôler, rendre et projeter l’environnement VR est donc relativement coûteux, encombrant et encombrant. En outre, de nombreux environnements de ce type dans la littérature ont été mis en œuvre à l’aide de logiciels propriétaires qui sont à la fois coûteux et ne peuvent être exécutés que sur un PC dédié.

Pour ces raisons, nous avons conçu un système de RV open-source pour étudier les comportements d’apprentissage spatial chez des souris retenues à la tête à l’aide d’un ordinateur monocarte Raspberry Pi. Cet ordinateur Linux est à la fois petit et peu coûteux mais contient une puce GPU pour le rendu 3D, permettant l’intégration d’environnements VR avec l’appareil d’affichage ou comportemental dans diverses configurations individuelles. De plus, nous avons développé un logiciel graphique écrit en Python, « HallPassVR », qui utilise l’ordinateur monocarte pour rendre un environnement visuospatial simple, une piste linéaire virtuelle ou un couloir, en recombinant des caractéristiques visuelles personnalisées sélectionnées à l’aide d’une interface utilisateur graphique (GUI). Ceci est combiné avec des sous-systèmes de microcontrôleurs (par exemple, ESP32 ou Arduino) pour mesurer la locomotion et coordonner le comportement, par exemple par la livraison d’autres modalités de stimuli sensoriels ou de récompenses pour faciliter l’apprentissage par renforcement. Ce système fournit une méthode alternative peu coûteuse, flexible et facile à utiliser pour fournir des environnements de RV visuospatiaux à des souris contraintes par la tête pendant l’imagerie à deux photons (ou d’autres techniques nécessitant une fixation de la tête) pour étudier les circuits neuronaux sous-jacents au comportement d’apprentissage spatial.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Toutes les procédures de ce protocole ont été approuvées par le Comité institutionnel de soin et d’utilisation des animaux de l’Institut psychiatrique de l’État de New York.

REMARQUE: Un ordinateur monocarte est utilisé pour afficher un environnement visuel VR coordonné avec le fonctionnement d’une souris retenue par la tête sur une molette. Les informations de mouvement sont reçues sous forme d’entrée série à partir d’un microcontrôleur ESP32 lisant un codeur rotatif couplé à l’essieu de roue. L’environnement VR est rendu à l’aide de l’accélération matérielle OpenGL sur le GPU Raspberry Pi, qui utilise le package 3D Python pi3d pour Raspberry Pi. L’environnement rendu est ensuite affiché via un projecteur sur un écran parabolique compact enveloppant centré sur le champ visuel de la souris retenue par la tête15,16, tandis que le comportement (par exemple, léchage en réponse à des récompenses spatiales) est mesuré par un second microcontrôleur ESP32 comportemental. Le progiciel graphique permet la création d’environnements de pistes linéaires virtuelles consistant en des motifs répétés de stimuli visuels le long d’un couloir ou d’un couloir virtuel avec une interface utilisateur graphique (GUI). Cette conception est facilement paramétrée, permettant ainsi la création d’expériences complexes visant à comprendre comment le cerveau encode les lieux et les indices visuels pendant l’apprentissage spatial (voir section 4). Les conceptions des composants matériels personnalisés nécessaires à ce système (c’est-à-dire la roue de roulement, l’écran de projection et l’appuie-tête) sont déposées dans un référentiel GitHub public (https://github.com/GergelyTuri/HallPassVR). Il est recommandé de lire la documentation de ce référentiel ainsi que ce protocole, car le site sera mis à jour avec les améliorations futures du système.

1. Configuration du matériel: Construction de la roue de roulement, de l’écran de projection et de l’appareil de fixation de la tête

REMARQUE: Les composants personnalisés pour ces configurations peuvent être facilement fabriqués si l’utilisateur a accès à des équipements d’impression 3D et de découpe laser ou peuvent être sous-traités à des services professionnels de fabrication ou de prototypage 3D (par exemple, eMachinehop). Tous les fichiers de conception sont fournis sous la forme . Fichiers 3D STL ou . DXF AutoCAD fichiers.

  1. Roue de roulement et configuration comportementale (Figure 1)
    REMARQUE: La roue est constituée d’un cylindre en acrylique transparent (6 pouces de diamètre, 3 pouces de largeur, 1/8 de pouce d’épaisseur) centré sur un essieu suspendu à des supports en acrylique découpés au laser via des roulements à billes. La roue est ensuite montée sur un cadre en aluminium léger (fentes en T) et solidement fixée à une breadboard optique (figure 1C-E).
    1. Découpez au laser les côtés de la roue et des supports d’essieu à partir d’une feuille d’acrylique de 1/4 de pouce et fixez les côtés de la roue au cylindre en acrylique avec du ciment acrylique. Vissez la bride de l’essieu au centre de la pièce latérale de la roue.
    2. Insérez l’essieu dans la bride centrale de la roue, enclenchez les roulements à billes dans les supports d’essieu et fixez-les à la barre de support verticale en aluminium.
    3. Insérez l’axe de roue dans les roulements à billes montés, en laissant 0,5 à 1 pouce de l’essieu au-delà des roulements pour la fixation du codeur rotatif.
    4. Fixez le support de codeur rotatif à l’extrémité de l’essieu opposé à la roue et insérez le codeur rotatif; Ensuite, utilisez l’attelage de l’arbre pour coupler l’essieu de roue à l’arbre de codage rotatif.
    5. Fixez l’orifice de léchage au bras flexible, puis fixez sur le cadre de roue en aluminium avec des écrous à fente en T. Utilisez un tube de 1/16 pouce pour connecter l’orifice de léchage à l’électrovanne et la vanne au réservoir d’eau.
      REMARQUE: Le port de léchage doit être en métal avec un fil soudé pour le fixer aux broches de détection tactile capacitives du comportement ESP32.
  2. Ecran de projection
    NOTE: L’écran VR est un petit écran de rétroprojection parabolique (taille de la toile: 54 cm x 21,5 cm) basé sur un design développé dans le laboratoire de Christopher Harvey15,16. L’angle de projection (clé de voûte) du projecteur LED utilisé est différent de celui du projecteur laser utilisé précédemment; ainsi, la conception originale est légèrement modifiée en montant l’unité sous l’écran et en simplifiant le système de miroirs (Figure 1A, B). Il est fortement recommandé de lire la documentation du laboratoire Harvey ainsi que la nôtre pour adapter l’environnement VR aux besoins de l’utilisateur15.
    1. Découpez au laser les côtés de l’écran de projection à partir de 1/4 de feuilles d’acrylique mat noir. Découper au laser le miroir de projection arrière à partir de 1/4 en acrylique miroir.
    2. Assemblez le cadre de l’écran de projection avec les barres d’aluminium et découpez au laser les panneaux acryliques.
    3. Insérez le matériau de l’écran de projection translucide dans la fente parabolique du cadre. Insérez le rétroviseur de projection arrière dans la fente située à l’arrière du cadre de l’écran de projection.
    4. Placez un projecteur LED sur la plaque de montage inférieure à l’intérieur du cadre de l’écran de projection. Alignez le projecteur avec des boulons de montage pour optimiser le positionnement de l’image projetée sur l’écran de rétroprojection parabolique.
    5. Scellez le boîtier du projecteur pour éviter toute contamination lumineuse des capteurs optiques si nécessaire.
  3. Appuie-tête
    NOTA: Cette conception d’appuie-tête consiste en deux collecteurs imbriqués imprimés en 3D pour fixer un poteau de culasse métallique (figure 1E, F).
    1. À l’aide d’une imprimante 3D SLM haute résolution, imprimez en 3D les bras de maintien de la tige de tête.
      REMARQUE: Le plastique imprimé en résine est capable de fournir une fixation stable de la tête pour les expériences comportementales; Cependant, pour obtenir une stabilité maximale pour les applications sensibles telles que l’enregistrement à une cellule ou l’imagerie à deux photons, il est recommandé d’utiliser des pièces métalliques usinées (par exemple, eMachineShop).
    2. Installez le support de poteau de tête imprimé en 3D sur un goniomètre à deux axes avec des poteaux de montage optiques afin que la tête de l’animal puisse être inclinée pour niveler la préparation.
      REMARQUE: Cette fonctionnalité est indispensable pour les expériences d’imagerie in vivo à long terme lorsque la recherche de la même population cellulaire lors de sessions d’imagerie ultérieures est nécessaire. Sinon, cette fonctionnalité peut être omise pour réduire le coût de l’installation.
    3. Fabriquez les poteaux de tête.
      NOTE: Deux types de poteaux de tête de complexité (et de prix) différents sont déposés dans le lien fourni dans le tableau des matériaux avec ces instructions.
      1. En fonction du type d’expérience, décidez quel poteau principal mettre en œuvre. Les barres de tête sont en acier inoxydable et sont généralement sous-traitées à n’importe quel atelier d’usinage local ou service en ligne (par exemple, eMachineShop) pour la fabrication.

2. Configuration du matériel/logiciel électronique (ordinateur monocarte, microcontrôleurs ESP32, Figure 2)

  1. Configurez l’ordinateur monocarte.
    REMARQUE: L’ordinateur monocarte inclus dans le tableau des matériaux (Raspberry Pi 4B) est optimal pour cette configuration car il dispose d’un GPU embarqué pour faciliter le rendu de l’environnement VR et de deux ports HDMI pour le contrôle / surveillance des expériences et la projection VR. D’autres ordinateurs monocartes avec ces caractéristiques peuvent potentiellement être remplacés, mais certaines des instructions suivantes peuvent être spécifiques à Raspberry Pi.
    1. Téléchargez l’application d’imagerie d’ordinateur monocarte sur le PC et installez le système d’exploitation (actuellement Raspberry Pi OS r.2021-05-07) sur la carte microSD (16+ Go). Insérez la carte et démarrez l’ordinateur monocarte.
    2. Configurez l’ordinateur monocarte pour la bibliothèque 3D Python pi3d : (barre de menus) Préférences > Configuration de Raspberry Pi.
      1. Cliquez sur Affichage > Suppression de l’écran > désactiver.
      2. Cliquez sur Interfaces > port série > activer.
      3. Cliquez sur Performance > GPU Memory > 256 (MB).
    3. Mettez à niveau le paquet de bibliothèque d’images Python pour pi3d: (terminal)> sudo pip3 install pillow --upgrade.
    4. Installez le paquet 3D Python pi3d pour l’ordinateur monocarte: (terminal)> sudo pip3 install pi3d.
    5. Augmentez le niveau de sortie HDMI du projecteur: (terminal)> sudo nano / boot / config.txt, décommentez config_hdmi_boost = 4, enregistrez et redémarrez.
    6. Téléchargez et installez l’environnement de développement intégré (IDE) à partir de arduino.cc/en/software (par exemple, arduino-1.8.19-linuxarm.tar.gz), qui est nécessaire pour charger le code sur le codeur rotatif et les microcontrôleurs ESP32 de comportement.
    7. Installez la prise en charge du microcontrôleur ESP32 sur l’IDE :
      1. Cliquez sur Préférences de > Fichier > URL supplémentaires du gestionnaire de conseil = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Cliquez sur Outils > Boards > Boards Manager > ESP32 (par Espressif ). Installez v.2.0.0 (le téléchargement échoue actuellement sur v2.0.4).
    8. Téléchargez et installez l’IDE de traitement à partir de https://github.com/processing/processing4/releases (par exemple, processing-4.0.1-linux-arm32.tgz), qui est nécessaire pour l’enregistrement et le traçage en ligne du comportement de la souris pendant la réalité virtuelle.
      REMARQUE: Les environnements Arduino et Processing peuvent être exécutés sur un PC séparé de l’ordinateur monocarte VR si vous le souhaitez.
  2. Configurez les connexions du codeur rotatif ESP32.
    REMARQUE: Le codeur rotatif couplé à l’axe de roue mesure la rotation de la roue avec la locomotion de la souris, qui est comptée avec un microcontrôleur ESP32. Les changements de position sont ensuite envoyés au port série GPIO de l’ordinateur monocarte pour contrôler le mouvement dans l’environnement virtuel à l’aide du progiciel graphique, ainsi qu’au comportement ESP32 pour contrôler les zones de récompense (Figure 2).
    1. Connectez les fils entre le composant codeur rotatif et l’ESP32 rotatif. Les codeurs rotatifs ont généralement quatre fils: +, GND, A et B (deux lignes numériques pour les codeurs en quadrature). Connectez-les via des fils de démarrage à ESP32 3,3 V, GND, 25, 26 (dans le cas du code attaché).
    2. Connectez les fils série RX/TX entre l’ESP32 rotatif et l’ESP32 de comportement. Effectuez une simple connexion à deux fils entre le port rotatif ESP32 Serial0 RX/TX (réception/émission) et le port Serial2 du comportement ESP32 (TX/RX, broches 17, 16 ; voir port Serial2 à droite du PCB OMwSmall). Cela transportera les informations de mouvement du codeur rotatif à la configuration du comportement pour les zones spatiales telles que les zones de récompense.
    3. Connectez les fils série RX/TX entre l’ESP32 rotatif et le GPIO de l’ordinateur monocarte (ou connexion USB directe). Établissez une connexion à deux fils entre les broches GPIO 14, 15 (RX/TX) de l’ordinateur monocarte et le système rotatif ESP32 Serial2 (TX/RX, broches 17, 16). Cela transportera les informations de mouvement du codeur rotatif vers le progiciel graphique exécuté sur l’ordinateur monocarte.
      REMARQUE: Cette étape n’est nécessaire que si l’ESP32 rotatif n’est pas connecté via une clé USB (c’est-à-dire qu’il s’agit d’une connexion série GPIO à « /dev/ttyS0 »), mais le code HallPassVR_wired.py doit être modifié pour utiliser « /dev/ttyUSB0 ». Cette connexion câblée sera remplacée par une connexion Bluetooth sans fil dans les versions futures.
    4. Branchez l’ESP32 USB rotatif sur l’ordinateur monocarte USB (ou un autre PC exécutant l’IDE) pour télécharger le code du codeur rotatif initial.
  3. Configurez les connexions ESP32 de comportement avec le matériel comportemental (via OpenMaze PCB).
    REMARQUE: Le microcontrôleur ESP32 de comportement contrôlera toutes les interactions animales non-VR (fournir des stimuli et des récompenses non-VR, détecter les léchages de souris), qui sont connectés via une « carte de dérivation » PCB générale pour l’ESP32, « OMwSmall », dont les conceptions sont disponibles sur le site Web OpenMaze (www.openmaze.org). Le PCB contient les composants électroniques nécessaires à l’entraînement des composants électromécaniques, tels que les électrovannes utilisées pour délivrer des récompenses liquides.
    1. Connectez l’électrovanne liquide 12 V à la sortie du circuit intégré ULN2803 à l’extrême gauche du circuit imprimé OMwSmall (broche 12 dans l’exemple de configuration et de code). Ce circuit intégré alimente 12 V à l’électrovanne de récompense, contrôlée par une sortie GPIO sur le microcontrôleur de comportement ESP32.
    2. Connectez le port de léchage à l’entrée tactile ESP32 (par exemple, T0, GPIO4 dans l’exemple de code). L’ESP32 dispose d’une détection tactile capacitive intégrée sur des broches spécifiques, que le code de comportement ESP32 utilise pour détecter le léchage de la souris du port de léchage métallique attaché pendant le comportement VR.
    3. Connectez les fils série RX/TX entre le comportement ESP32 Serial2 (broches 16, 17) et le codeur rotatif ESP32 Serial0 (voir étape 2.2.2).
    4. Branchez l’USB sur le port USB de l’ordinateur monocarte (ou un autre PC) pour télécharger de nouveaux programmes sur le comportement ESP32 pour différents paradigmes expérimentaux (par exemple, le nombre / l’emplacement des zones de récompense) et pour capturer les données de comportement à l’aide de l’esquisse de traitement incluse.
    5. Branchez l’adaptateur mural 12 V CC dans le connecteur jack barillet de 2,1 mm sur le circuit imprimé de comportement ESP32 OMwSmall pour fournir l’alimentation de l’électrovanne de récompense.
    6. Branchez la sortie HDMI #2 de l’ordinateur monocarte dans le port HDMI du projecteur; cela transportera l’environnement VR rendu par le GPU de l’ordinateur monocarte à l’écran de projection.
    7. (facultatif) Connectez le fil de synchronisation (broche 26) à une installation d’imagerie neuronale ou d’enregistrement électrophysiologique. Un signal transistor-transistor-logique (TTL) de 3,3 V sera envoyé toutes les 5 s pour aligner les systèmes avec une précision proche de la milliseconde.
  4. Configurer le logiciel : chargez le micrologiciel/logiciel sur le codeur rotatif ESP32 (Figure 2B) et le comportement ESP32 (Figure 2E) à l’aide de l’IDE, puis téléchargez le logiciel VR Python sur l’ordinateur monocarte. Voir https://github.com/GergelyTuri/HallPassVR/software.
    1. Branchez d’abord l’encodeur rotatif ESP32 sur le port USB de l’ordinateur monocarte - cela sera automatiquement nommé « / dev / ttyUSB0 » par le système d’exploitation.
    2. Pour charger le code du codeur rotatif : Ouvrez le fichier RotaryEncoder_Esp32_VR.ino dans l’IDE, puis sélectionnez l’ESP32 sous Outils > cartes > ESP32 Dev Module. Sélectionnez le port ESP32 en cliquant sur Outils > Port > /dev/ttyUSB0, puis cliquez sur Télécharger.
    3. Branchez ensuite le comportement ESP32 sur le port USB de l’ordinateur monocarte - celui-ci sera nommé « / dev / ttyUSB1 » par le système d’exploitation.
    4. Chargez le code de séquence de comportement sur le comportement ESP32 (IDE, ESP32 Dev Module déjà sélectionné), puis cliquez sur Outils > Port > /dev/ttyUSB1, et cliquez sur Télécharger : wheel_VR_behavior.ino.
    5. Testez les connexions série en sélectionnant le port série pour chaque ESP32 dans l’IDE (Tools > Port > /dev/ttyUSB0 ou /dev/ttyUSB1), puis en cliquant sur Outils > Moniteur série (débit en bauds : 115 200) pour observer la sortie série de la carte rotative (USB0) ou de la carte de comportement (USB1). Faites pivoter la molette pour voir une sortie de mouvement brute de l’ESP32 rotatif sur USB0 ou une sortie de mouvement formatée à partir du comportement ESP32 sur USB1.
    6. Téléchargez le code du logiciel graphique Python à partir de https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR (vers /home/pi/Documents). Ce dossier contient tous les fichiers nécessaires à l’exécution du package logiciel graphique si le package pi3d Python3 a été installé correctement précédemment (étape 2.1).

3. Exécution et test du progiciel graphique

REMARQUE: Exécutez l’interface graphique du logiciel pour lancer un environnement de piste linéaire VR, calibrez les distances sur le logiciel VR et le code ESP32 de comportement, et testez l’acquisition et le traçage en ligne du comportement de course et de léchage de la souris avec l’esquisse de langage de traitement incluse.

  1. Ouvrez la fenêtre du terminal dans l’ordinateur monocarte et accédez au dossier HallPassVR (terminal:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)
  2. Exécutez l’interface graphique VR : (terminal)> python3 HallPassVR_GUI.py (la fenêtre GUI s’ouvrira, Figure 3A).
  3. Interface graphique du logiciel
    1. Sélectionnez et ajoutez quatre éléments (images) dans la zone de liste (ou sélectionnez le motif pré-stocké ci-dessous, puis cliquez sur Télécharger) pour chacun des trois modèles le long de la piste, puis cliquez sur Générer.
      REMARQUE: Les nouveaux fichiers image (.jpeg) peuvent être placés dans le dossier HallPassVR / HallPassVR_wired / images / ELEMENTS avant l’exécution de l’interface graphique.
    2. Sélectionnez des images de sol et de plafond dans les menus déroulants et définissez la longueur de la piste sur 2 m pour cet exemple de code (elle doit être égale à trackLength en millimètres [mm] dans le code de comportement ESP32 et le code de traitement).
    3. Nommez ce modèle si vous le souhaitez (il sera stocké dans HallPassVR_wired/images/PATH_HIST).
    4. Cliquez sur le bouton Démarrer (attendez que la fenêtre VR démarre avant de cliquer ailleurs). L’environnement VR apparaîtra sur l’écran #2 (écran de projection, Figure 3B, C).
  4. Exécutez l’esquisse Traitement pour acquérir et tracer les données/mouvements comportementaux.
    1. Ouvrez VRwheel_RecGraphSerialTxt.pde dans l’IDE de traitement.
    2. Changez l’animal = « yourMouseNumber »; et définissez sessionMinutes égale à la durée de la session comportementale en minutes.
    3. Cliquez sur le bouton Exécuter dans l’IDE de traitement.
    4. Vérifiez la fenêtre du tracé de traitement, qui devrait afficher la position actuelle de la souris sur la piste linéaire virtuelle lorsque la roue tourne, ainsi que les zones de récompense et les histogrammes en cours d’exécution des léchages, des tours et des récompenses mis à jour toutes les 30 s (Figure 3D). Faites avancer la roue à la main pour simuler la souris en cours d’exécution pour les tests, ou utilisez une souris de test pour la configuration initiale.
    5. Cliquez sur la fenêtre de tracé et appuyez sur la touche q du clavier pour arrêter l’acquisition de données comportementales. Un fichier texte des événements comportementaux et des heures (généralement <2 Mo par session) et une image de la fenêtre de tracé finale (.png) sont enregistrés lorsque sessionMinutes s’est écoulé ou que l’utilisateur appuie sur la touche q pour quitter.
      REMARQUE: En raison de la petite taille de la sortie .txt fichiers, on estime qu’au moins plusieurs milliers d’enregistrements de comportement peuvent être stockés sur la carte SD de l’ordinateur monocarte. Les fichiers de données peuvent être enregistrés sur une clé USB pour une analyse ultérieure, ou s’ils sont connectés à un réseau local, les données peuvent être gérées à distance.
  5. Calibrez la longueur de la piste de comportement avec la longueur de la piste VR.
    1. Faites avancer la roue à la main tout en observant le couloir VR et la position de la souris (sur le tracé Traitement). Si le couloir VR se termine avant/après que la souris atteigne la fin du diagramme de comportement, augmentez/diminuez la longueur de la piste VR de manière incrémentielle (HallPassVR_wired.py, corridor_length_default, en centimètres [cm]) jusqu’à ce que la piste se réinitialise simultanément dans les deux systèmes.
      REMARQUE: Le code est actuellement calibré pour une roue de roulement de 6 pouces de diamètre à l’aide d’un codeur rotatif en quadrature à 256 positions, de sorte que l’utilisateur peut avoir à modifier le VR (HallPassVR_wired.py, corridor_length_default, en centimètres [cm]) et le code de comportement (wheel_VR_behavior.ino, trackLength, en millimètres [mm]) pour tenir compte d’autres configurations. La position comportementale est cependant réinitialisée à chaque tour VR pour maintenir la correspondance entre les systèmes.

4. Entraînement de souris et comportement d’apprentissage spatial

NOTE: Les souris sont implantées pour la fixation de la tête, habituées à l’appuie-tête, puis entraînées à courir sur la roue et à lécher régulièrement pour obtenir progressivement des récompenses liquides (« recherche de nourriture aléatoire »). Les souris qui réussissent à courir et à lécher de manière cohérente sont ensuite entraînées sur une tâche de récompense cachée spatiale en utilisant l’environnement VR, dans lequel une seule zone de récompense est présentée suivant un repère visuel sur la piste linéaire virtuelle. L’apprentissage spatial est ensuite mesuré comme une sélectivité accrue du léchage pour les positions immédiatement avant la zone de récompense.

  1. Chirurgie post-implantation de la tête: Cette procédure est décrite en détail ailleurs dans cette revue et dans d’autres, alors reportez-vous à cette littérature pour des instructions spécifiques 7,17,18,19,20,21.
  2. Horaire de l’eau
    1. Effectuer une restriction d’eau 24 heures avant la première manipulation (voir ci-dessous) et permettre la consommation d’eau ad libitum après chaque séance d’accoutumance ou de comportement restreint de la tête. Réduisez progressivement le temps de disponibilité de l’eau sur trois jours pendant l’accoutumance à environ 5 minutes, et ajustez la quantité pour les souris individuelles de sorte que leur poids corporel ne tombe pas en dessous de 80% de leur poids avant la restriction. Surveillez quotidiennement le poids de chaque animal et observez également l’état de chaque souris pour détecter tout signe de déshydratation22. Les souris qui ne sont pas en mesure de maintenir 80% de leur poids corporel d’avant la restriction ou qui semblent déshydratées doivent être retirées de l’étude et avoir accès à de l’eau gratuite.
      REMARQUE: La restriction d’eau est nécessaire pour motiver les souris à courir sur la roue en utilisant des récompenses liquides, ainsi que pour utiliser le léchage spatial comme indication des emplacements appris le long de la piste. Les lignes directrices de l’établissement peuvent différer sur les instructions spécifiques pour cette procédure, de sorte que l’utilisateur doit consulter les comités de protection des animaux de leur établissement pour assurer la santé et le bien-être des animaux pendant la restriction d’eau.
  3. Manipulation: Manipuler quotidiennement les souris implantées pour les habituer au contact humain, après quoi de l’eau ad libitum limitée peut être administrée en renfort (1-5 min / jour, 2 jours à 1 semaine).
  4. Habituation à l’appuie-tête
    1. Habituer les souris à l’appuie-tête pendant de plus en plus de temps en les plaçant dans l’appuie-tête tout en les récompensant avec des gouttes d’eau occasionnelles pour réduire la contrainte de la fixation de la tête.
    2. Commencez par 5 minutes de fixation de la tête et augmentez la durée par incréments de 5 minutes par jour jusqu’à ce que les souris soient capables de tolérer la fixation jusqu’à 30 minutes. Retirez les souris de l’appareil de fixation si elles semblent se débattre ou bouger très peu. Cependant, les souris commencent généralement à courir sur la roue spontanément en plusieurs séances, ce qui signifie qu’elles sont prêtes pour la prochaine étape de l’entraînement.
      NOTE: Les souris qui luttent à plusieurs reprises sous l’appuie-tête ou qui ne courent pas et ne lèchent pas pour obtenir des récompenses doivent être rétrogradées aux stades antérieurs de l’entraînement et retirées de l’étude si elles ne progressent pas pendant trois de ces cycles de rattrapage (voir tableau 1).
  5. Entraînement à courir/lécher (recherche aléatoire de nourriture)
    REMARQUE: Pour effectuer la tâche d’apprentissage spatial dans l’environnement VR, les souris doivent d’abord apprendre à courir sur la roue et à lécher régulièrement pour des récompenses occasionnelles. La progression dans les paramètres comportementaux opérants est contrôlée via le microcontrôleur de comportement ESP32.
    1. Recherche aléatoire de nourriture avec récompenses non opérantes
      1. Exécutez le programme graphique GUI du logiciel avec un chemin d’éléments visuels arbitraires (choix de l’utilisateur, voir étape 3.3).
      2. Téléchargez le programme de comportement dans le comportement ESP32 avec plusieurs récompenses non opérantes (variables de code : isOperant=0, numRew=4, isRandRew=1) pour conditionner les souris à courir et à lécher. Faites courir les souris en sessions de 20 à 30 minutes jusqu’à ce que les souris courent au moins 20 tours par session et léchent pour obtenir des récompenses présentées dans des endroits aléatoires (une à quatre séances).
    2. Recherche aléatoire de nourriture avec des récompenses opérantes sur des tours alternatifs
      1. Téléchargez le programme de comportement avec altOpt=1 (alternance de tours opérants/non opérants) et entraînez les souris jusqu’à ce qu’elles lèchent pour les zones de récompense non opérantes et opérantes (une à quatre sessions).
    3. Alimentation aléatoire entièrement opérante
      1. Téléchargez le programme de comportement avec quatre zones de récompense aléatoires opérantes (variables de code de comportement ESP32 : isOperant=1, numRew=4, isRandRew=1). À la fin de cette étape d’entraînement, les souris doivent courir régulièrement et effectuer des tests de léchage sur toute la longueur de la piste (une à quatre séances; Figure 4A).
  6. Apprentissage spatial
    REMARQUE: Effectuez une expérience d’apprentissage spatial avec une seule zone de récompense cachée à une certaine distance d’un seul repère visuel en sélectionnant un couloir de 2 m de long avec des panneaux sombres le long de la piste et un seul panneau de stimulus visuel à contraste élevé au milieu comme repère visuel (position de 0,9 à 1,1 m), analogue aux expériences récentes avec des repères olfactifs spatiaux20 . Les souris doivent lécher dans une zone de récompense (à une position de 1,5 à 1,8 m) située à une distance du repère visuel dans l’environnement de piste linéaire virtuelle.
    1. Exécutez le logiciel graphique avec le chemin d’un couloir sombre avec un seul repère visuel au centre (par exemple, l’échiquier, voir l’étape 3.3, Figure 3A).
    2. Téléchargez le programme de comportement avec une seule zone de récompense masquée dans le comportement ESP32 (variables de code de comportement ESP32 : isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500}).
    3. Placez doucement la souris dans l’appareil de fixation de la tête, ajustez le bec à lécher à un endroit juste en avant de la bouche de la souris et placez la molette de la souris au centre de la zone de l’écran de projection. Assurez-vous que la tête de la souris est à ~12-15 cm de l’écran après les derniers réglages.
    4. Définissez le nom de l’animal dans l’esquisse de traitement, puis appuyez sur exécuter dans l’IDE de traitement pour commencer à acquérir et à tracer les données comportementales (voir étape 3.4).
    5. Exécutez la souris pendant des sessions de 30 minutes avec une seule zone de récompense cachée et un seul couloir de repère visuel VR.
    6. Hors ligne : téléchargez le fichier de données .txt à partir du dossier Processing sketch et analysez le comportement de léchage spatial (par exemple, dans Matlab avec les fichiers inclus procVRbehav.m et vrLickByLap.m).
      REMARQUE: Les souris doivent d’abord effectuer des tests de léchage sur l’ensemble de la piste virtuelle (« recherche de nourriture aléatoire »), puis commencer à lécher sélectivement uniquement près de l’emplacement de la récompense après le signal visuel VR (Figure 4).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Cette configuration comportementale de réalité virtuelle open source nous a permis de quantifier le comportement de léchage en tant que lecture de l’apprentissage spatial alors que des souris retenues à la tête naviguaient dans un environnement de piste linéaire virtuel. Sept souris C57BL / 6 des deux sexes à l’âge de 4 mois ont été placées sur un programme d’eau restreint et d’abord entraînées à lécher continuellement à de faibles niveaux tout en courant sur la roue pour des récompenses spatiales aléatoires (« recherche de nourriture aléatoire ») sans VR. Bien que leur performance ait d’abord été affectée lorsqu’elle a été déplacée vers la configuration de l’écran de projection VR avec un motif de couloir aléatoire de 2 m, elle est revenue aux niveaux précédents au cours de plusieurs sessions de RV (Figure 4A). Les souris qui ont développé la stratégie de recherche de nourriture aléatoire avec VR (six des sept souris, 86%; une souris n’a pas fonctionné de manière cohérente et a été exclue) ont ensuite été tenues de lécher une zone de récompense opérante non cuite à 0,5 m suivant un seul repère visuel au milieu d’une piste virtuelle de 2 m autrement sans caractéristiques afin de recevoir des récompenses d’eau (« tâche de récompense cachée »). Selon les données pilotes actuelles avec ce système, quatre des sept souris (57%) ont pu apprendre la tâche de récompense cachée avec un seul repère visuel en deux à quatre séances, comme le montre le léchage près de la zone de récompense avec une sélectivité croissante (Tableau 1, Figure 4B, C), ce qui est similaire à nos résultats précédents avec un tapis roulant non-VR17 . Ce fait est important dans l’étude de l’apprentissage spatial, car il permet la surveillance et / ou la manipulation de l’activité neuronale pendant les périodes critiques de l’apprentissage sans formation approfondie. De plus, les souris ont présenté à la fois un apprentissage substantiel au sein de la session et entre les sessions (Figure 4C), offrant l’occasion d’observer les adaptations à court et à long terme des circuits neuronaux qui accompagnent l’apprentissage spatial. Nous n’avons pas testé le taux d’apprentissage d’une tâche équivalente non VR, mais de nombreuses tâches spatiales classiques dépendantes de l’hippocampe dans le monde réel, telles que le labyrinthe aquatique de Morris, nécessitent une formation encore plus approfondie et présentent considérablement moins d’essais comportementaux et, par conséquent, sont moins adaptées à la surveillance du comportement d’apprentissage ainsi qu’aux changements d’activité neuronale.

Alors qu’une majorité de souris de ce groupe pilote (57%) ont pu apprendre la tâche de récompense cachée dans un petit nombre de séances, d’autres souris peuvent présenter un apprentissage spatial sur des échelles de temps plus longues, et un entraînement individualisé devrait augmenter cette fraction de souris. En effet, les variations des taux d’apprentissage peuvent être utiles pour dissocier les relations spécifiques entre l’activité neuronale dans les zones du cerveau telles que l’hippocampe et l’apprentissage comportemental. Cependant, nous avons observé qu’un faible pourcentage de souris n’ont pas appris à courir sur la roue ou à lécher pour des récompenses non opérantes ou opérantes (l’une des sept souris, 14%) et, par conséquent, ne pouvaient pas être utilisées pour des expériences ultérieures. Une manipulation et une accoutumance supplémentaires et une réduction de l’état général de stress de l’animal grâce à un renforcement supplémentaire, par exemple en utilisant des friandises alimentaires souhaitables, peuvent être utiles pour aider ces animaux à adopter la course active et le léchage lors d’un comportement de retenue de la tête sur le volant.

En manipulant la présence et la position des zones de queue et de récompense sur des tours intermittents sur la piste virtuelle, un expérimentateur peut discerner davantage la dépendance du léchage spatialement sélectif sur des canaux d’information spécifiques en RV pour déterminer, par exemple, comment les souris s’appuient sur des indices locaux ou distants ou des informations d’auto-mouvement pour établir leur emplacement dans un environnement. La sélectivité de léchage des souris qui ont appris l’emplacement caché de la récompense devrait être affectée par le déplacement ou l’omission du repère visuel le long de la piste si elles utilisent activement ce repère spatial comme repère, comme nous l’avons montré dans un travail récent utilisant des repères olfactifs spatiaux20. Cependant, même avec l’exemple simple que nous avons présenté ici, le léchage hautement sélectif réalisé par les souris (Figure 4C, à droite) indique qu’elles encodent l’environnement visuel VR pour éclairer leurs décisions sur l’endroit où elles se trouvent et, par conséquent, quand lécher, car la zone de récompense n’est évidente que par rapport aux indices visuels dans l’environnement VR. Ce système de RV permet également la présentation d’autres modalités d’indices spatiaux et contextuels en plus de l’environnement visuel de RV, tels que des indices olfactifs, tactiles et auditifs, qui peuvent être utilisés pour tester la sélectivité de l’activité et du comportement neuronaux pour des combinaisons complexes d’indices sensoriels distincts. De plus, bien que nous n’ayons pas testé la dépendance de la performance des tâches sur l’activité hippocampique, une étude récente utilisant une tâche similaire mais avec des indices tactiles a montré une perturbation de l’apprentissage spatial avec l’inactivation de l’hippocampe23, ce qui devrait être confirmé pour la tâche de récompense cachée VR effectuée dans cette étude.

Figure 1
Figure 1 : Configuration matérielle VR retenue par la tête : écran de projection, roue de roulement et appareil de fixation de la tête. (A) Un schéma de conception 3D de la roue de roulement et de l’écran de projection. (B) Configuration comportementale VR terminée. L’environnement VR est rendu sur (1) un ordinateur monocarte et projeté sur un écran de rétroprojection parabolique (2) (basé sur la conception du laboratoire de Chris Harvey15,16). (3) Assemblage de roues. (4) Titulaire du poste principal. (5) Réservoir d’eau pour la remise de récompenses. (C) Vue de dessus de l’écran de projection et configuration comportementale. (1) Projecteur LED. (2) Miroir pour projeter vers l’arrière le couloir VR sur l’écran incurvé. (3) Roue de roulement. D) Vue arrière de la roue. Les rotations des roues sont traduites par le (1) codeur rotatif et transmises à l’ordinateur monocarte via un (2) microcontrôleur ESP32. (3) Un goniomètre à deux axes est utilisé pour affiner la position de la tête pour l’imagerie optique. E) Réglage au niveau de l’insertion de la souris, montrant (1) l’appareil de fixation de la tête et (2) le placement de l’orifice de léchage sur (3) la surface de la roue en marche. (F) Photographie du (1) port de léchage attaché au (2) bras flexible pour un placement précis du bec de récompense près de la bouche de la souris. Les récompenses sont données via une (3) électrovanne contrôlée par le comportement ESP32 (via le PCB OpenMaze OMwSmall). On peut également voir le codeur rotatif couplé à (4) l’essieu de roue et (5) le goniomètre pour le réglage de l’angle de tête. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 2
Figure 2 : schéma de configuration de l’électronique VR. Ce schéma décrit les connexions les plus pertinentes entre les composants électroniques du système de réalité virtuelle open source pour souris. (A) Les souris sont retenues sur la tête sur un appareil de fixation de la tête imprimé en 3D personnalisé au-dessus d’une roue de roulement en acrylique. (B) La rotation de l’essieu de roue lorsque la souris est en marche est détectée par un codeur rotatif haute résolution connecté à un microcontrôleur (décodeur rotatif ESP32). (C) Les informations de mouvement sont transmises via une connexion série à un ordinateur monocarte exécutant le logiciel graphique HallPassVR et l’environnement 3D, qui met à jour la position dans l’environnement de piste linéaire virtuelle VR en fonction de la locomotion de la souris. (D) L’environnement VR rendu est envoyé au projecteur / écran via la sortie vidéo HDMI #2 de l’ordinateur monocarte (vidéo VR HDMI). (E) Les informations de mouvement du codeur rotatif ESP32 sont également envoyées à un autre microcontrôleur (Behavior ESP32 avec le PCB OpenMaze OMwSmall), qui utilise la position de la souris pour contrôler les événements comportementaux spatiaux non VR (tels que les zones de récompense ou les stimuli olfactifs, tactiles ou auditifs spatiaux) de concert avec l’environnement VR et mesure le léchage de la souris du bec de récompense via la détection tactile capacitive. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 3
Figure 3 : GUI et comportement du logiciel graphique. (A) Interface graphique HallPassVR : Quatre images sont sélectionnées pour carreler chaque motif spatial couvrant un tiers de la longueur de la piste (ou le motif de combinaison précédemment enregistré est chargé) pour trois motifs dans chaque chemin égal à la longueur de la piste. Les images au plafond et au sol sont sélectionnées, puis appuyez sur Démarrer pour initialiser l’environnement VR sur la sortie HDMI (écran de projection) de l’ordinateur monocarte. (B) Exemple de couloir virtuel créé avec les paramètres de l’interface graphique indiqués dans A et utilisé pour une expérience de récompense cachée afin de tester l’apprentissage spatial. (C) Photographie d’une souris retenue à la tête courant sur la roue dans l’environnement virtuel illustré à la partie B. (D) Le panneau supérieur montre le tracé en ligne du comportement animal dans un environnement VR à partir du croquis de traitement inclus pour enregistrer et tracer les données comportementales. Les léchages, les tours et les récompenses sont tracés par bacs de temps de 30 s pour la session de 30 minutes pendant l’apprentissage spatial de récompense caché. Le panneau inférieur affiche la position actuelle de la souris (noir) et l’emplacement des zones de récompense (gris) pendant le comportement. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 4
Figure 4 : Apprentissage spatial à l’aide de l’environnement logiciel graphique. Données de léchage spatial représentatives d’un animal (A) pendant la recherche aléatoire de nourriture avec des indices aléatoires le long de la piste linéaire virtuelle et (B-C) 2 jours d’entraînement avec une zone de récompense cachée statique à 1,5 m avec un seul repère visuel au milieu de la piste. (A) Jour 0 recherche aléatoire de nourriture pour quatre zones de récompense par tour, sélectionnées au hasard parmi huit positions espacées uniformément le long de la piste linéaire virtuelle de 2 m. (Gauche) Le nombre moyen de léchages par bac spatial (5 cm) sur la session de 30 minutes (en haut : couloir VR avec des panneaux de stimulus visuel aléatoires). (À droite) Nombre de léchages dans chaque bac spatial de 5 cm par tour au cours de cette session, représenté par une carte thermique. (B) Jour 1, le premier jour d’entraînement avec une seule zone de récompense à 1,5 m (case rouge sur le diagramme de la piste, en haut) en utilisant une piste virtuelle contenant un seul stimulus à contraste élevé à la position 0,8-1,2 m. (À gauche) Le nombre spatial moyen de léchages au cours de la session, montrant des léchages croissants lorsque l’animal s’approche de la zone de récompense. (À droite) Léchages spatiaux par tour, montrant une sélectivité accrue du léchage dans la région précédant la récompense. (C) Jour 2, à partir de la même tâche de récompense cachée et du même couloir virtuel que le jour 1 et de la même souris. (Gauche) Nombre total de léchages par bac spatial, montrant une diminution des léchages en dehors de la zone de pré-récompense. (À droite) Léchages spatiaux par tour le jour 2, montrant une augmentation du léchage avant la zone de récompense et une diminution du léchage ailleurs, indiquant le développement d’un léchage anticipé spatialement spécifique. Cela montre que cet animal a appris l’emplacement caché (non cuit) de la récompense et a développé une stratégie pour minimiser l’effort (léchage) dans les régions où il ne s’attend pas à ce qu’une récompense soit présente. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Résultats comportementaux Nombre de souris Pourcentage de souris
La souris n’a pas couru / léché 1 14%
Recherche aléatoire de nourriture seulement 2 29%
Récompense cachée apprise 4 57%
Total (N) 7

Tableau 1 : Résultats du pilote comportemental d’apprentissage spatial en RV. Sept souris C57BL/6 des deux sexes à l’âge de 4 mois ont été progressivement entraînées pour effectuer une tâche de récompense cachée spatiale en RV. Parmi ces souris, une souris n’a pas couru / léché après l’entraînement initial (une des sept souris, 14%), tandis que six des souris restantes ont appris à courir sur la roue et à lécher pour des récompenses spatiales aléatoires dans l’étape aléatoire de recherche de nourriture de l’entraînement (six des sept souris, 86%). Quatre des six souris qui ont été capables d’effectuer le comportement aléatoire de recherche de nourriture ont par la suite appris à lécher sélectivement en prévision de la récompense non cuite dans la tâche de récompense cachée (quatre des sept souris, 57% des souris au total, quatre des six souris, 66% des souris butineuses aléatoires), tandis que deux ne l’ont pas fait (deux des sept souris, 29%).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Ce système VR open-source pour souris ne fonctionnera que si les connexions série sont établies correctement entre les microcontrôleurs rotatifs et de comportement ESP32 et l’ordinateur monocarte (étape 2), ce qui peut être confirmé à l’aide du moniteur série IDE (étape 2.4.5). Pour que les résultats comportementaux réussis de ce protocole (étape 4), les souris doivent être habituées à l’appareil et être à l’aise de courir sur la roue pour obtenir des récompenses liquides (étapes 4.3-4.5). Cela nécessite une restriction d’eau suffisante (mais pas excessive), car les souris qui reçoivent de l’eau ad libitum dans la cage domestique ne courront pas et ne lécheront pas pour obtenir des récompenses (c’est-à-dire pour indiquer leur emplacement perçu), et les souris déshydratées peuvent être léthargiques et ne pas courir sur la roue. Il convient également de noter qu’il existe des méthodes alternatives pour motiver le comportement de la souris sans restriction d’eau24; Cependant, nous n’avons pas testé ces méthodes ici. Pour la procédure d’entraînement, les animaux qui ne courent pas initialement peuvent recevoir des récompenses d’eau ad hoc (c’est-à-dire non spatiales) par l’expérimentateur via une pression de bouton optionnelle attachée, ou la roue peut être déplacée doucement pour encourager la locomotion. Pour développer un comportement aléatoire de recherche de nourriture, les souris qui courent mais ne lèchent pas doivent être exécutées avec des récompenses non opérantes (code de comportement ESP32: isOperant = 0;, étape 4.5.1) jusqu’à ce qu’elles courent et léchent pour obtenir des récompenses, et elles peuvent ensuite être exécutées avec des tours alternés de zones de récompense non opérantes et opérantes (altOpt = 1; étape 4.5.2) jusqu’à ce qu’ils commencent à lécher sur des tours opérants avant de passer à des zones de récompense aléatoires entièrement opérantes (étape 4.5.3).

Bien que nous ayons fourni des instructions complètes et des exemples de résultats pour un ensemble d’expériences de base visant à susciter une forme d’apprentissage spatial (léchage conditionné à un emplacement de récompense caché dans l’environnement de piste linéaire virtuelle), la même configuration matérielle et logicielle de base peut également être modifiée pour la livraison d’environnements visuospatiaux plus complexes en utilisant le paquet Python pi3d pour Raspberry Pi. Par exemple, ce système peut intégrer des labyrinthes plus complexes tels que des couloirs de longueurs variables, des motifs multiples et des objets 3D, et des paysages 3D VR naturalistes. En outre, le logiciel comportemental pour la livraison de récompenses d’eau et d’autres stimuli non visuels peut être modifié pour d’autres paradigmes d’entraînement en modifiant les variables clés (présentées au début du code de comportement ESP32) ou en insérant de nouveaux types d’événements spatiaux dans le même code. Nous sommes heureux de conseiller les utilisateurs sur les méthodes de mise en œuvre d’autres types d’expériences comportementales avec cette configuration VR ou dans le dépannage.

Les environnements de RV immersifs se sont révélés un outil polyvalent pour étudier les mécanismes neuronaux sous-jacents de la navigation spatiale 6,7,8, des comportements d’apprentissage de la récompense9 et de la perception visuelle25 à la fois dans les études cliniques et animales. Le principal avantage de cette approche est que l’expérimentateur a un contrôle étroit sur les éléments contextuels tels que les indices visuels et les stimuli spatiaux spécifiques (par exemple, les récompenses et les stimuli olfactifs, auditifs ou tactiles), ce qui n’est pas pratique dans les environnements du monde réel avec des animaux en mouvement libre. Il convient toutefois de noter que des différences peuvent exister dans la manière dont les environnements de RV sont codés par des zones cérébrales telles que l’hippocampe par rapport à l’utilisation d’environnements réels26,27. Avec cette mise en garde, l’utilisation d’environnements VR permet aux expérimentateurs d’effectuer un grand nombre d’essais comportementaux avec des stimuli soigneusement contrôlés, permettant la dissociation des contributions d’éléments sensoriels distincts à la navigation spatiale.

La complexité de la construction de configurations VR personnalisées nécessite souvent une vaste expérience en ingénierie et en programmation informatique, ce qui peut augmenter le temps de configuration et limiter le nombre d’appareils pouvant être construits pour entraîner des souris à l’expérimentation. Les configurations VR sont également disponibles auprès de fournisseurs commerciaux; Cependant, ces solutions peuvent être coûteuses et limitées si l’utilisateur souhaite implémenter de nouvelles fonctionnalités ou étendre la capacité de formation / enregistrement à plus d’une configuration. La fourchette de prix estimée de la configuration VR open-source présentée ici est de < $ 1,000 (USD); cependant, une version simplifiée pour l’entraînement (par exemple, sans goniomètres pour le réglage de l’angle de tête) peut être produite pour < 500 $ (USD), permettant ainsi la construction de plusieurs configurations pour l’entraînement des souris à plus grande échelle. La disposition modulaire des composants permet également l’intégration de la RV avec d’autres systèmes de contrôle comportemental, tels que le système de tapis roulant avec stimuli olfactifs et tactiles spatiaux que nous avons utilisés précédemment20, et, par conséquent, la RV et d’autres modalités de stimulus ne s’excluent pas mutuellement.

Ce système VR open source avec son matériel associé (roue de roulement, écran de projection et appareil de fixation de la tête), sa configuration électronique (ordinateur monocarte et microcontrôleurs ESP32) et son logiciel (interface graphique VR et code de comportement) fournit une configuration peu coûteuse, compacte et facile à utiliser pour fournir des environnements VR immersifs paramétrés aux souris pendant la navigation spatiale restreinte par la tête. Ce comportement peut ensuite être synchronisé avec l’imagerie neuronale ou l’enregistrement électrophysiologique pour examiner l’activité neuronale pendant l’apprentissage spatial (étape 2.3.7). Le spectre des techniques expérimentales compatibles avec la RV est large, allant du comportement d’apprentissage spatial seul à la combinaison avec la photométrie à fibre, l’imagerie miniscope, l’imagerie monophotonique et multiphotonique et les techniques électrophysiologiques (par exemple, les neuropixels ou l’enregistrement intracellulaire). Bien que l’appuie-tête soit nécessaire pour certaines de ces techniques d’enregistrement, la nature extrêmement précise de la présentation du stimulus et la nature stéréotypée du comportement peuvent également être utiles pour d’autres techniques ne nécessitant pas de fixation de la tête, telles que l’imagerie miniscopique et la photométrie à fibre. Il convient toutefois de noter que notre solution capacitive basée sur des capteurs pour détecter les léchages peut introduire un bruit important sur les traces électrophysiologiques. Pour éviter de tels artefacts, optiques ou autres (p. ex., mécaniques), des solutions basées sur des capteurs doivent être mises en œuvre pour la détection des léchages.

Les améliorations futures du système VR seront téléchargées sur la page GitHub du projet (https://github.com/GergelyTuri/HallPassVR), les utilisateurs doivent donc consulter cette page régulièrement pour les mises à jour. Par exemple, nous sommes en train de remplacer les connexions série câblées entre les microcontrôleurs et l’ordinateur monocarte par la fonctionnalité Bluetooth, qui est native aux microcontrôleurs ESP32 déjà utilisés dans cette conception. En outre, nous prévoyons de mettre à niveau l’interface graphique HallPassVR pour permettre la spécification de différents chemins dans chaque session comportementale afin de contenir différentes positions pour les stimuli visuels clés sur différents tours. Cela permettra une plus grande flexibilité pour dissocier l’impact de caractéristiques visuelles et contextuelles spécifiques sur l’encodage neuronal de l’espace pendant l’apprentissage spatial.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Clay Lacefield est le fondateur et le mainteneur de OpenMaze.org, qui fournit gratuitement des conceptions pour le PCB OMwSmall utilisé dans ce protocole.

Acknowledgments

Nous tenons à remercier Noah Pettit du laboratoire Harvey pour la discussion et les suggestions lors de l’élaboration du protocole dans ce manuscrit. Ce travail a été soutenu par une bourse de jeune chercheur BBRF et NIMH 1R21MH122965 (G.F.T.), en plus de NINDS R56NS128177 (R.H., C.L.) et NIMH R01MH068542 (R.H.).

Materials

Name Company Catalog Number Comments
1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

DOWNLOAD MATERIALS LIST

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. Pettit, N., et al. Harvey Lab Mouse VR. , Available from: https://github.com/Harvey/Lab/mouseVR (2021).
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Tags

Neurosciences numéro 193
Un système de réalité virtuelle open-source pour la mesure de l’apprentissage spatial chez des souris retenues par la tête
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Lacefield, C., Cai, H., Ho, H.,More

Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter