Waiting
Login-Verarbeitung ...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Une plate-forme flexible pour la surveillance de l’apprentissage associatif sensoriel dépendant du cervelet

Published: January 19, 2022 doi: 10.3791/63205

Summary

Nous avons développé une plate-forme unique pour suivre le comportement des animaux lors de deux tâches d’apprentissage associative dépendantes des fibres d’escalade. La conception à faible coût permet l’intégration avec des expériences optogénétiques ou d’imagerie orientées vers l’activité cérébelleuse associée aux fibres grimpantes.

Abstract

Les entrées de fibres grimpantes dans les cellules de Purkinje fournissent des signaux instructifs essentiels à l’apprentissage associatif dépendant du cervelet. L’étude de ces signaux chez des souris à tête fixe facilite l’utilisation de méthodes d’imagerie, électrophysiologiques et optogénétiques. Ici, une plate-forme comportementale à faible coût (~ 1000 $) a été développée qui permet de suivre l’apprentissage associatif chez des souris à tête fixe qui se déplacent librement sur une roue de course. La plateforme intègre deux paradigmes d’apprentissage associatifs courants : le conditionnement des sourcils et le conditionnement des sursauts tactiles retardés. Le comportement est suivi à l’aide d’une caméra et le mouvement de la roue par un détecteur. Nous décrivons les composants et la configuration et fournissons un protocole détaillé pour la formation et l’analyse des données. Cette plateforme permet l’incorporation de la stimulation optogénétique et de l’imagerie par fluorescence. La conception permet à un seul ordinateur hôte de contrôler plusieurs plates-formes pour l’entraînement simultané de plusieurs animaux.

Introduction

Le conditionnement pavlovien de l’association subseconde entre les stimuli pour provoquer une réponse conditionnée a longtemps été utilisé pour sonder l’apprentissage cérébelleux-dépendant. Par exemple, dans le conditionnement classique des sourcils à retard (DEC), les animaux apprennent à faire un clignotement protecteur bien synchronisé en réponse à un stimulus conditionnel neutre (CS; par exemple, un éclair de lumière ou un ton auditif) lorsqu’il est associé à plusieurs reprises à un stimulus inconditionnel (US; par exemple, une bouffée d’air appliquée à la cornée) qui provoque toujours un clignement réflexe, et qui arrive à la fin ou près de la fin du CS. La réponse apprise est appelée réponse conditionnée (RC), tandis que la réponse réflexe est appelée réponse inconditionnée (UR). Chez le lapin, les lésions spécifiques au cervelet perturbent cette forme d’apprentissage 1,2,3,4. En outre, les pics du complexe cellulaire de Purkinje, entraînés par leurs entrées de fibre ascendante5, fournissent un signal nécessaire de 6,7 et suffisamment de 8,9 pour l’acquisition de CR correctement chronométrés.

Plus récemment, des paradigmes d’apprentissage associatif dépendant des fibres grimpantes ont été développés pour les souris à tête fixe. DEC a été le premier paradigme d’apprentissage associatif à être adapté à cette configuration10,11. Dec chez les souris à tête fixe a été utilisé pour identifier les régions cérébelleuses 11,12,13,14,15,16,17 et les éléments de circuit 11,1 2,13,14,15,18,19 qui sont nécessaires à l’acquisition et à l’extinction des tâches. Cette approche a également été utilisée pour démontrer comment la représentation physiologique au niveau cellulaire des paramètres de la tâche évolue avec l’apprentissage 13,15,16.

En plus du clin d’œil, le paradigme du conditionnement tactile à sursaut différé (DTSC) a récemment été développé en tant que nouvelle tâche d’apprentissage associatif pour les souris à tête fixe20. Conceptuellement similaire à DEC, DTSC implique la présentation d’un CS neutre avec un US, un tapotement sur le visage suffisamment intense pour engager un réflexe de sursaut21,22 comme UR. Dans le paradigme DTSC, l’UR et le CR sont lus comme une locomotion vers l’arrière sur une roue. DTSC a maintenant été utilisé pour découvrir comment l’apprentissage associatif modifie l’activité cérébelleuse et les modèles d’expression des gènes20.

Dans ce travail, une méthode a été développée pour appliquer de manière flexible DEC ou DTSC dans une seule plate-forme. Les attributs du stimulus et de la plate-forme sont schématisés à la figure 1. La conception intègre la capacité de suivre le comportement des animaux avec une caméra ainsi qu’un codeur rotatif pour suivre la locomotion de la souris sur une roue. Tous les aspects de l’enregistrement des données et de la structure d’essai sont contrôlés par des microcontrôleurs couplés (Arduino) et un ordinateur monocarte (SBC; Raspberry Pi). Ces appareils sont accessibles via une interface utilisateur graphique fournie. Ici, nous présentons un flux de travail pour la configuration, la préparation et l’exécution des expériences, ainsi qu’un pipeline d’analyse personnalisé pour la visualisation des données.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Les protocoles animaux décrits ici ont été approuvés par les comités de soins et d’utilisation des animaux de l’Université de Princeton.

1. Configuration du SBC

  1. Connectez le câble de l’interface série de la caméra (CSI) à la caméra Raspberry NoIR V2 et au port de la caméra sur le SBC.
  2. Téléchargez le système d’exploitation du contrôleur SBC sur l’ordinateur hôte. Écrivez l’image du système d’exploitation sur une carte numérique micro sécurisée (microSD).
    REMARQUE: Des instructions détaillées pour ces procédures pour un Raspberry Pi SBC peuvent être trouvées ailleurs23. Le système a été testé en utilisant les systèmes d’exploitation suivants : Stretch, Buster, Bullseye.
  3. Pour activer la communication shell sécurisée, créez un fichier sans extension appelé « ssh » dans la partition de démarrage de la carte microSD. Une fois cela fait, éjectez la carte microSD de la machine hôte et insérez-la dans l’emplacement pour carte microSD SBC. Alimentez le SBC en branchant son bloc d’alimentation.
  4. Préparez le contrôleur SBC à accepter une connexion filaire à l’hôte.
    1. Connectez un moniteur avec un câble approprié au SBC. Ouvrez un terminal, tapez la commande ifconfig et enregistrez l’adresse IP Ethernet du SBC.
      REMARQUE: Raspberry Pi modèle 3B + a un port d’affichage HDMI, tandis que le modèle 4B a un port micro-HDMI.
    2. Accédez à l’onglet Interface du paramètre de configuration du Raspberry Pi et activez les options Camera, Secure Shell Network Protocol (SSH) et Virtual Network Computing (VNC).
  5. Établissez une connexion câblée entre l’ordinateur hôte et le contrôleur SBC.
    1. Connectez un câble Ethernet au port Ethernet du SBC et à un ordinateur hôte. Connectez l’autre extrémité de ces câbles à un commutateur Ethernet.
    2. Utilisez un client informatique de réseau virtuel tel que VNC Viewer24 et accédez au bureau à l’aide de l’adresse IP SBC et de l’authentification par défaut (utilisateur = « pi », mot de passe = « raspberry »).
  6. Téléchargez les logiciels requis inclus dans les étapes du protocole.
    ATTENTION : Modifiez le nom d’utilisateur et le mot de passe par défaut pour empêcher tout accès non autorisé au contrôleur SBC.
    1. Entrez la commande suivante dans le terminal SBC pour télécharger le logiciel de la plate-forme:
      git clone --depth=1 https://github.com/gerardjb/assocLearnRig
    2. Entrez les commandes suivantes pour télécharger les bibliothèques python nécessaires.
      cd assocLearnRig
      python3 setup.py
    3. Pour permettre un contrôle direct sur le microcontrôleur, connectez-vous au contrôleur SBC et téléchargez l’environnement de développement intégré (IDE) du microcontrôleur en suivant les étapes 1.6.4 à 1.6.7.
    4. Ouvrez le navigateur Web sur le bureau SBC et accédez à https://arduino.cc/en/software. Téléchargez la dernière version Linux ARM 32 bits de l’IDE.
    5. Ouvrez une fenêtre de terminal sur le bureau SBC et accédez au répertoire des téléchargements en tapant cd Downloads/
    6. Pour installer l’IDE, tapez les commandes suivantes dans le terminal :
      tar -xf arduino--linuxarm.tar.xz
      sudo mv arduino- /opt
      sudo /opt/arduino-/install.sh

      (ici est la version de l’IDE téléchargé)
    7. Ouvrez une instance de l’IDE du microcontrôleur sur le bureau SBC. Sélectionnez l’option de menu Outils > Gérer les bibliothèques. Installez la bibliothèque « Encoder » de Paul Stoffregen.
  7. Développez la mémoire intégrée SBC avec une clé USB.
    1. Insérez une clé USB dans un port USB du SBC. Utilisez un port USB 3.0 si disponible.
    2. Tapez dans le terminal ls -l /dev/disk/by-uuid/ pour trouver la clé USB et sa référence unique (UUID). Enregistrez l’UUID.
    3. Pour permettre à l’utilisateur pi d’écrire sur le périphérique USB, tapez les commandes suivantes une par une dans le terminal :
      sudo mkdir /media/usb
      sudo chown -R pi:pi /media/usb
      sudo mount /dev/sda1 /media/usb -o uid=pi,gid=pi
      REMARQUE: La clé USB peut être ajoutée en tant que périphérique qui se monte automatiquement lorsque le SBC redémarre en ajoutant la ligne suivante à la fin du fichier fstab dans /etc/fstab:
      UUID= /media/usb vfat auto,nofail,noatime,users,rw,uid=pi,gid=pi 0 0

2. Câblage du matériel de stimulation et étage d’assemblage

  1. Connectez et préparez les microcontrôleurs.
    1. Connectez le SBC au port de programmation du microcontrôleur (Arduino Due) à l’aide d’un câble micro USB2 type A vers USB2.
      REMARQUE: Utilisez un câble de haute qualité tel que le produit dans la table des matériaux pour assurer un bon fonctionnement.
    2. Localisez « dueAssocLearn.ino » dans le référentiel de projet téléchargé. Ouvrez l’esquisse avec l’IDE du microcontrôleur et téléchargez-la sur le microcontrôleur connecté au SBC.
    3. Téléchargez et installez la version appropriée de l’IDE Arduino sur l’ordinateur hôte.
    4. Connectez l’ordinateur hôte au microcontrôleur (Arduino Uno) à l’aide d’un câble USB2 de type B vers USB2 de type A.
    5. Accédez au référentiel GitHub (https://github.com/gerardjb/assocLearnRig) et téléchargez l’esquisse « DTSC_US.ino » sur l’ordinateur hôte.
    6. Sur l’ordinateur hôte, exécutez l’IDE du microcontrôleur et ouvrez l’esquisse " DTSC_US.ino », puis téléchargez-la sur le microcontrôleur.
  2. Fixez des fils aux microcontrôleurs, à la breadboard, aux LED, au codeur rotatif, au moteur pas à pas avec pilote et à l’électrovanne avec pilote, comme indiqué dans le diagramme de Fritzing de la figure 2.
  3. Alimentez le moteur pas à pas et l’électrovanne.
    1. Câblez correctement un canal d’une alimentation aux broches +V et GND du pilote du moteur pas à pas.
    2. Allumez le bloc d’alimentation et réglez la tension du canal connecté sur 25 V.
      REMARQUE: Si les connexions entre le moteur pas à pas, le pilote et le bloc d’alimentation sont correctement configurées, un voyant vert sur le pilote du moteur pas à pas s’allume.
    3. Câblez correctement le fil positif d’une alimentation à la broche de tension de maintien du pilote de l’électrovanne et l’autre fil positif à la broche de tension de pointe.
    4. Fixez les fils négatifs à un sol partagé avec le signal de commande.
    5. Allumez l’alimentation et réglez le canal connecté à la tension de maintien à environ 2,5 V et le canal connecté à la tension de pointe à environ 12 V.
  4. Connectez une source d’air régulée à une pression d’environ 20 PSI à l’électrovanne à l’aide de l’adaptateur luer.
  5. Vérifiez que tous les composants du stimulus et la caméra fonctionnent correctement.
    1. Ouvrez un terminal sur le SBC et tapez cd ~/assocLearnRig pour accéder au référentiel GitHub cloné.
    2. Dans le terminal, tapez python3 assocLearnRig_app.py pour démarrer l’interface utilisateur graphique du contrôle.
    3. Démarrez le flux de la caméra en appuyant sur le bouton Flux .
    4. Sélectionnez la case d’option DEC , téléchargez-la sur le microcontrôleur et démarrez une session avec les paramètres par défaut en appuyant sur le bouton Démarrer la session .
      REMARQUE: Après cette étape, une impression du journal de données devrait apparaître dans le terminal, le message sur le flux de la caméra devrait disparaître et la LED CS et l’électrovanne US devraient s’allumer et s’éteindre à des moments appropriés pendant chaque essai.
    5. Une fois la session terminée, répétez les étapes précédentes avec la case d’option DTSC sélectionnée.
      REMARQUE: Les esquisses dans le référentiel GitHub (« testStepper.ino », « testRotary.ino » et « testSolenoid.ino ») peuvent être utilisées pour tester des composants individuels si les étapes ci-dessus ne fournissent pas de résultats satisfaisants.
  6. Faites la roue de roulement.
    1. Coupez une roue de 3 » à partir d’un rouleau en mousse. Percez un trou de 1/4 « dans le centre exact de la roue afin que la roue ne vacille pas lorsqu’elle est tournée par la locomotion de la souris.
    2. Insérez un arbre de 1/4 » dans la roue et fixez-le en place à l’aide de moyeux de serrage placés de chaque côté de la roue.
  7. Fixez le codeur rotatif à un canal en aluminium de 4,5 pouces à l’aide d’un boulon M3. Stabilisez le canal en aluminium sur la planche à pain en aluminium à l’aide d’un support à angle droit avec un boulon, un écrou et une rondelle de 1/4 « , comme indiqué.
  8. Fixez la roue et le codeur rotatif à l’aide d’un manchon d’accouplement d’arbre.
  9. Stabilisez le côté libre de l’arbre de roue à l’aide d’un roulement inséré dans une pince d’extrémité à angle droit installée sur un poteau optique monté sur une planche à pain.
    REMARQUE: Assurez-vous que la roue tourne librement sans vaciller lorsqu’elle est tournée à la main.
  10. Positionnez le matériel de stimulation, l’appuie-tête, le réseau de lumière infrarouge et la picamera autour de la roue assemblée.
    1. Positionnez les appuie-tête à l’aide de poteaux optiques et de pinces de poteau à angle droit de manière à ce que les appuie-tête se trouvent à 1,5 cm devant l’essieu de la roue et à 2 cm au-dessus de la surface de la roue. (Les valeurs sont pour une souris de 20 g).
    2. Placez la LED CS et la sortie de l’électrovanne utilisées pour le DEC US à moins de 1 cm de l’œil utilisé pour le DEC.
    3. Montez le moteur pas à pas utilisé pour le DTSC US
    4. Montez la picamera sur un poteau optique à environ 10 cm de l’endroit où se trouvera l’animal.
      REMARQUE: La conception du support picamera peut être effectuée sur une imprimante 3D à partir du fichier dans « RaspPiCamMount1_1.stl » dans le référentiel GitHub.
    5. Placez le réseau de lumière infrarouge légèrement au-dessus et directement face à la position du visage du même côté que la picamera.
    6. Créez un stimulus tactile pour DTSC en collant de la mousse sur le bord d’un morceau d’acrylique monté sur un arbre de 1/4 « à l’aide d’un moyeu de serrage. Fixez le stimulus tactile à l’arbre du moteur pas à pas.
      REMARQUE: La conception de la pièce acrylique peut être découpée au laser en suivant le modèle de « TactileStimDesign.pdf » dans le référentiel GitHub.

3. Préparation et exécution d’expériences comportementales

  1. Implanter la plaque frontale de la souris.
    1. Anesthésiez une souris à l’aide de 2% d’isoflurane et fixez la tête dans un cadre stéréotaxique.
    2. Appliquez une pommade ophtalmique sur les yeux.
    3. Rasez le cuir chevelu à l’eau savonneuse et à un scalpel stérile. Injecter de la lidocaïne directement sous la peau du site d’incision et nettoyer le site chirurgical avec de la povidone.
    4. Faites une incision avec un scalpel le long de la ligne médiane du cuir chevelu du bord arrière des yeux au bord arrière du crâne, en prenant soin de ne pas appuyer trop fort sur le crâne.
    5. Écartez l’incision ouverte et serrez les deux côtés avec des hémostats stériles pour la maintenir ouverte. Retirez doucement le périoste à l’aide d’un coton-tige trempé dans de l’éthanol et laissez sécher la surface du crâne exposé.
    6. Positionnez la plaque frontale au niveau du crâne, en vous assurant de positionner l’avant de la plaque de tête postérieure aux yeux. Utilisez de la colle cyanoacrylate pour fixer la plaque frontale au crâne et permettre à la colle de sécher complètement.
    7. Mélanger la poudre de ciment dentaire (1 cuillère), le solvant (2 gouttes) et le catalyseur (1 goutte) dans un plat mélangeur et appliquer sur toutes les zones de l’os exposé. Ajoutez des couches jusqu’à ce que la surface soit au ras du bord supérieur de la plaque de tête, en vous assurant que la plaque de tête est solidement attachée au crâne.
    8. Suturez la peau fermée derrière et devant la plaque frontale si nécessaire.
    9. Injecter une analgésie postopératoire telle que le carprofène selon les directives institutionnelles tout en permettant à l’animal de récupérer pendant au moins 5 jours.
  2. Préparation aux séances de comportement.
    1. Permettez aux animaux d’essai de s’habituer à la plate-forme en les montant dans l’appuie-tête pendant des séances de 30 minutes pendant les 5 jours précédant les expériences.
      REMARQUE: À la fin des séances d’accoutumance, les animaux doivent courir confortablement sur le volant.
    2. (DEC seulement) Avant les séances, assurez-vous que la sortie de l’électrovanne est centrée sur l’œil cible positionné à >1 cm de distance.
    3. (DEC seulement) Actionnez manuellement une bouffée d’air à l’aide du bouton-poussoir. Assurez-vous que la souris produit rapidement un clignement des yeux sans montrer de signes manifestes de stress, tels que l’adoption d’une posture voûtée ou la saisie de la région périoculaire affectée avec la patte avant ipsilatérale.
    4. (DTSC uniquement) Avant les séances, assurez-vous que le stimulus tactile est centré sur le nez de l’animal positionné à environ 1,5 cm de distance.
      REMARQUE: Lorsqu’une session comportementale DTSC n’est pas en cours d’exécution, le moteur pas à pas est automatiquement désactivé pour permettre le repositionnement manuel.
    5. (DTSC uniquement) Dans le terminal SBC, tapez python3 assocLearnRig_app.py pour démarrer l’interface graphique.
    6. (DTSC uniquement) Exécutez une session de test de trois essais avec les paramètres par défaut en appuyant sur le bouton Démarrer la session dans l’interface graphique.
    7. (DTSC uniquement) Assurez-vous que les données enregistrées qui impriment sur le terminal affichent une déviation de plus de 20 mais moins de 100 étapes enregistrées sur le codeur rotatif suivant les États-Unis à chaque essai.
      ATTENTION: Pour éviter les dommages et réduire le stress de l’animal, commencez le stimulus plus loin de l’animal et rapprochez-le jusqu’à ce que les conditions requises soient remplies.
  3. Exécution de sessions comportementales avec journalisation des données.
    1. Montez une souris sur l’appuie-tête.
    2. Dans le terminal du SBC, tapez python3 assocLearnRig_app.py pour démarrer l’interface graphique.
    3. Pour autoriser les enregistrements de caméra pendant les essais comportementaux, appuyez sur le bouton Stream .
      REMARQUE: Les sessions peuvent être exécutées sans caméra. Dans ce cas, seules les données du codeur rotatif et des horodatages de présentation des stimuli sont enregistrées.
    4. Entrez les informations d’identification de l’animal dans le champ Identification de l’animal et appuyez sur le bouton Définir.
    5. Sélectionnez le DEC ou le DTSC à partir de la case d’option sous l’en-tête Type de session en fonction du paradigme comportemental souhaité.
    6. Entrez les paramètres d’expérience souhaités dans les champs situés sous le champ Animal ID et appuyez sur le bouton Télécharger vers Arduino .
      REMARQUE : Les détails des paramètres d’expérience se trouvent dans la section README du référentiel GitHub.
    7. Appuyez sur le bouton Démarrer la session pour commencer la session.
    8. Lorsqu’une session est initialisée, les données commencent à se connecter dans un nouveau répertoire créé dans « /media/usb » dans le point de montage de la clé USB SBC.

4. Exportation et analyse des données

  1. Pour exporter toutes les sessions enregistrées vers l’ordinateur hôte, ouvrez une invite de commande et entrez la commande pscp -r pi@Pi_IP_address:/media/usb* host_computer_destination, puis authentifiez-vous avec le mot de passe SBC.
    REMARQUE: La commande ci-dessus est pour une machine Windows. Sur les machines Mac et Linux, utilisez le terminal et remplacez « pscp » par « scp ».
  2. Installez Anaconda25 ou un autre gestionnaire de paquets python (PPM) sur l’ordinateur hôte.
  3. Accédez au référentiel GitHub et téléchargez « analyzeSession.py », « summarizeSessions.py », « session2mp4s.py » et « requirementsHost.txt ».
  4. Ouvrez une invite PPM et tapez conda install --file directory_containing_requirementsHostrequirements Host.txt pour vous assurer que l’installation du package Python dispose des bibliothèques python requises.
  5. Dans l’invite, tapez cd directory_containing_analyzeData pour accéder au répertoire contenant « analyzeData.py » et « session2mp4s.py ». Exécutez le programme d’analyse en tapant python analyzeSession.py
    Remarque : Un message d’erreur sera généré si vous utilisez une version de Python 2 en tant que python. Pour vérifier la version, tapez python -V dans l’invite.
  6. Sélectionnez le répertoire contenant les données lorsque vous y êtes invité. Les répertoires comportant plusieurs sous-répertoires seront analysés séquentiellement.
  7. Pour les sessions DEC, pour chaque répertoire de session analysé, sélectionnez une région d’intérêt (ROI) contenant l’œil de la souris à partir d’une image moyenne d’essai.
    REMARQUE : Les fichiers de données d’analyse finale et les graphiques récapitulatifs seront renseignés dans un sous-répertoire de chaque répertoire de session analysé.
  8. Tapez python summarizeSessions.py pour générer des données récapitulatives sur plusieurs sessions.
  9. Tapez le session2mp4s.py python d’invite pour convertir les fichiers de données d’imagerie en fichiers .mp4 visibles.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Flux de travail pour les expériences et l’analyse DEC
Une sélection appropriée des paramètres expérimentaux est importante pour une formation réussie au conditionnement des sourcils (DEC). Pour les données présentées ici, l’interface graphique a été utilisée pour choisir une durée CS de 350 ms et une durée US de 50 ms. Ce couplage se traduit par un intervalle inter-stimulus de 300 ms : assez long pour empêcher la production de CR de faible amplitude10 et assez court pour éviter d’entrer dans le régime d’un mauvais apprentissage ou d’un conditionnement des traces, un processus qui engage des régions cérébrales supplémentaires11. Le temps entre les essais a été fixé en utilisant les champs ITI bas et haut pour être choisis au hasard uniformément dans une plage de 5 à 15 s. La randomisation des intervalles entre les essais rend impossible pour les sujets animaux d’utiliser des indices de synchronisation autres que le CS et les États-Unis eux-mêmes pour l’exécution des tâches.

L’inclusion d’essais qui omettent le CS ou les États-Unis permet d’évaluer la cinématique CR et UR, même chez les animaux dressés. L’utilisateur peut définir la proportion d’essais dans lesquels CS et US sont appariés ou présentés isolément. Dans les données présentées ici, nous avons effectué toutes les sessions à 10% d’essais CS uniquement, les essais appariés constituant le reste et aucun essai uniquement américain. Notez que l’inclusion d’un nombre excessif d’essais non appariés peut avoir un impact négatif sur la formation. Par exemple, les séances avec plus de 50% des essais non appariés sont couramment utilisées pour conduire à l’extinction des CR chez les animaux dressés19,26.

La préparation de la caméra et les conditions d’éclairage sont également essentielles pour l’acquisition de données de haute qualité. La fréquence d’images d’acquisition peut être ajustée dans le logiciel d’acquisition Picamera. Dans les données présentées ici, nous avons défini une fréquence d’images de 120 Hz pour les expériences DEC. Le module Picamera lui-même permet des fréquences d’images allant jusqu’à ~ 200 Hz, mais nous constatons que des fréquences plus faibles empêchent la perte d’images et donnent une résolution temporelle adéquate pour le suivi des paupières. La lumière infrarouge doit être placée pour éclairer uniformément la fourrure périoculaire sans créer de réflexion excessive de la cornée lorsque l’œil est ouvert. La figure 3A montre un exemple d’image d’une session d’enregistrement avec un éclairage acceptable. Le logiciel d’acquisition picamera (picameraStream.py) est conçu pour fournir des paramètres cohérents tout au long d’une session en réglant et en maintenant la balance des blancs et le gain de l’appareil photo en fonction des conditions d’éclairage lors de l’initialisation de l’appareil photo.

Une fois qu’une session comportementale est initialisée, les données de la caméra et des autres composants matériels de la plate-forme sont automatiquement enregistrées. Les journaux de données sont créés dans un répertoire nommé par la date et la valeur saisies dans le champ d’ID de l’animal dans l’interface graphique. Les images de caméra et les horodatages de chaque essai sont stockés dans des fichiers individuels qui sont nommés à l’aide de l’ID de l’animal, de la date de l’expérience et du numéro de l’essai. Les événements de plate-forme pour chaque session, y compris la vitesse de la roue, les démarrages d’essai, les arrêts d’essai et la synchronisation CS et US, sont enregistrés en tant que fichier .txt unique.

Les données transférées vers la machine hôte peuvent ensuite être analysées comme décrit à la section 4 du protocole. L’exécution de analyzeData.py sur un répertoire cible créera un conteneur .npy pour la position des paupières par rapport au temps pour tous les essais dans un tableau basé sur l’analyse des fichiers de la caméra. Ce fichier conteneur est créé dans le répertoire analysé. Une fois que toutes les séances ont été analysées pour un animal donné, toutes les séances peuvent être alignées et concaténées à l’aide de summarizeSessions.py. Les résultats d’un animal dressé pendant 8 séances de DEC sont présentés à la figure 3B. En outre, les essais individuels peuvent être rendus sous forme de fichiers .mp4 visibles à l’aide de l’utilitaire session2mp4s.py. Cet utilitaire imprime un carré dans le coin supérieur gauche du film pour indiquer quand le CS et l’US sont appliqués. Des exemples d’essais DEC préparés de cette manière sont présentés côte à côte sous forme de vidéo supplémentaire 1. Le panneau de gauche montre un essai dans lequel l’animal ferme avec succès l’œil en réponse à la LED CS. Dans le panneau de droite, l’animal ne cligne pas des yeux jusqu’à ce que les États-Unis commencent.

Les animaux dressés sur DEC conformément aux protocoles de la section 3 et enregistrés avec les considérations précédentes doivent présenter des preuves claires de RC bien synchronisés acquis progressivement au cours de plusieurs jours d’entraînement. Des exemples de traces comportementales sans RC chez un animal non dressé et de traces contenant des RC robustes provenant d’un animal dressé sont présentés à la figure 3B. Comme le montrent ces traces, les animaux naïfs ne devraient pas montrer de réponse au CS mais une réponse robuste aux États-Unis. Les CR devraient augmenter progressivement en taille et en fréquence grâce à des séances comportementales effectuées sur plusieurs jours (Figure 3B-D). En revanche, les conditions d’éclairage sous-optimales limitent considérablement la qualité des données acquises. Lorsque le contraste entre l’œil et la fourrure environnante est faible (Figure 3E), de légers changements dans l’image peuvent modifier considérablement la forme enregistrée de l’UR au cours d’une seule session et diminuer le rapport signal/bruit pour détecter la position des paupières (Figure 3F-G).

Pour assurer des enregistrements haute fidélité des paupières, un placement optimal de la source lumineuse est essentiel. La LED d’éclairage doit être entraînée directement sur l’œil enregistré. Si le placement entraîne un éblouissement excessif sur la surface cornéenne, un diffuseur peut être placé sur le réseau de LED pour réduire cet effet.

Flux de travail pour les expériences et l’analyse DTSC
Bon nombre des considérations pour la sélection expérimentale des paramètres sont similaires entre le conditionnement de sursaut tactile à retard (DTSC) et le DEC. Ici, nous allons souligner ceux qui diffèrent. Dans les exemples de données, la durée du DTSC CS a été définie sur 250 ms avec une durée américaine de 50 ms. Cet intervalle inter-stimulus plus court a été choisi pour s’aligner étroitement avec la durée plus courte décrite comme optimale pour l’apprentissage DTSC20. Les autres paramètres de plate-forme définis via l’interface graphique étaient identiques à ceux utilisés pour DEC.

Un bon placement du stimulus tactile est essentiel pour l’apprentissage en DTSC. Nous montons le stimulus tactile de telle sorte que l’extrémité de la mousse soit légèrement centrée au-dessus du nez de l’animal à une distance d’environ 1,5 cm lorsqu’elle est en position neutre. Une fois monté, le stimulus peut être tourné à la main lorsqu’une session n’est pas en cours. Pendant les séances, le moteur pas à pas maintient le stimulus à un endroit précis jusqu’à ce qu’un US soit déclenché. Pour nous assurer que le positionnement est correct, nous organisons une session préparatoire d’environ trois essais. Les événements enregistrés sur le codeur rotatif sont imprimés sur l’écran du terminal, et cette impression peut être utilisée pour surveiller l’amplitude des UR animales en temps réel. Bien que l’amplitude maximale varie d’un essai à l’autre, les animaux ayant un maximum moyen d’environ 40 comptes sur l’encodeur au cours de la courte session devraient bien performer dans la tâche DTSC. Sur la base des réglages de commande du codeur rotatif, cette valeur correspond à 24 cm/s, avec une valeur négative indiquant que l’animal recule sur la roue.

L’organisation et la dénomination des fichiers produits au cours des sessions DTSC sont les mêmes que celles produites dans DEC. L’exécution de analyzeSession.py créera un conteneur .npy pour la vitesse de la roue par rapport au temps pour tous les essais dans un tableau à partir de l’analyse des données enregistrées dans le fichier .csv. Une fois que toutes les séances ont été analysées pour un animal donné, toutes les séances peuvent être alignées et concaténées à l’aide de summarizeSession.py. Les résultats d’un animal dressé pendant 5 séances de DEC sont présentés à la figure 4A. En ce qui concerne DEC, les captures de la caméra à partir de DTSC peuvent être converties en fichiers .mp4 visibles. Des exemples d’essais DTSC sont présentés côte à côte dans la vidéo supplémentaire 2. Le panneau de gauche montre un essai dans lequel l’animal recule avec succès la roue en réponse à la LED CS. Dans le panneau de droite, l’animal ne parvient pas à déplacer la roue jusqu’à ce que le stimulus tactile US soit appliqué.

La trajectoire temporelle et l’amplitude par rapport à l’UR des réponses chez les animaux entraînés sur le paradigme DTSC montrent des similitudes qualitatives avec celles entraînées sur DEC. Les animaux naïfs ne doivent montrer aucune réponse au CS et apprendre à reculer la roue en réponse au CS seulement après des expositions répétées au CS apparié et aux États-Unis. La fréquence et l’amplitude des CR augmentent au fur et à mesure que la formation progresse (Figure 4A,B). Dans le cas du DTSC, nous avons constaté que l’amplitude de l’UR au début de l’entraînement est un bon prédicteur du succès de l’apprentissage. Dans une cohorte d’animaux dressés avec un US qui produisait des UR de faible amplitude (<20 cm/s), aucun animal n’a appris à produire systématiquement des RC après 4 jours de formation (Figure 4C,D).

Différences entre la formation DEC et DTSC
DEC et DTSC diffèrent de manière importante. Tout d’abord, l’apprentissage DTSC sur cette plate-forme se produit plus rapidement, la plupart des animaux atteignant un degré élevé de compétence des tâches au troisième jour de formation et des performances asymptotiques au cinquième jour. L’apprentissage DEC est plus lent pour la plupart des animaux d’au moins 3 jours. Deuxièmement, le système DTSC intègre la détection automatique des CR réussis, qui servent de signal de rétroaction à l’appareil pour diminuer l’amplitude du stimulus tactile. Cette procédure d’entraînement imite le conditionnement des sourcils, dans lequel l’amélioration des performances CR offre une protection partielle contre une bouffée d’air cornéenne aversive. En revanche, les animaux à tête fixe dans le paradigme DTSC sont incapables de se protéger du stimulus tactile par leur seule réponse motrice. En basant l’amplitude américaine sur la présence d’un CR, les animaux ont la possibilité de se protéger du stimulus aversif.

Figure 1
Figure 1: Attributs et conception de la plate-forme. (A) Éléments de plate-forme pour l’enregistrement du comportement animal dans des conditions fixées à la tête. La souris a été adaptée à partir d’une image de Biorender. (B) Moment et stimuli pour le conditionnement DEC et DTSC. Un intervalle inter-stimulus (ISI) défini par l’utilisateur détermine la durée de l’époque CS uniquement. Les époques CS et US sont conçues pour co-se terminer. (C) Image démontrant le placement des éléments clés de la plate-forme. 1) Moteur pas à pas pour le contrôle du DTSC US. 2) Roue de course pour l’animal. 3) Codeur rotatif pour suivre le mouvement de la roue. 4) Mousse collée sur un bras en acrylique qui sert de stimulus tactile DTSC. 5) LED CS. 6) Électrovanne et sortie qui fournit le DEC US. 7) Picamera pour enregistrer le comportement animal. 8) LED infrarouge pour l’éclairage de scène. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 2
Figure 2 : Câblage des éléments matériels de la plate-forme. (A) Schéma de câblage Fritzing du matériel de la plate-forme lorsqu’il est entièrement assemblé. Les fils sont colorés par des modules avec orange = Module de caméra; jaune = module DEC US; bleu = module LED CS; violet = module DTSC US; vert = Module codeur rotatif. Le picamera est exclu mais se fixe à l’interface série de la caméra située à la surface du Raspberry Pi. Les batteries indiquent des alimentations en courant continu à la tension spécifiée. (B-F) Schéma de câblage équivalent pour les modules isolés. Les fils ont été recolorés, de sorte que le rouge et le noir indiquent toujours un rail d’alimentation positif et une terre, respectivement, tandis que d’autres fils sont colorés pour permettre un suivi facile du circuit. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 3
Figure 3 : Résultats représentatifs de la formation DEC. (A) Exemple de cadre de caméra d’une session avec des conditions d’éclairage acceptables. Notez le contraste élevé entre l’œil et la fourrure périoculaire. (B) Performance d’un seul animal pendant les séances effectuées sur plusieurs jours dans le paradigme DEC. Les lignes horizontales indiquent les performances à chaque essai, avec des couleurs chaudes indiquant plus de fermeture des paupières. La ligne verticale noire rouge la plus à gauche indique le début du CS, tandis que la ligne pointillée indique le début des États-Unis. La deuxième ligne continue indique la cessation du CS et des États-Unis. Notez que le nombre d’essais avec des réponses réussies pendant le CS augmente entre les sessions de formation. (C) Performance de l’animal à partir de (B) avec des traces individuelles dérivées de la moyenne de l’essai pour la session chaque jour. La saturation de teinte indique le numéro de session avec une saturation plus élevée pour les sessions ultérieures. (D) Rendement de tous les animaux du groupe DEC (n = 7). Les lignes minces indiquent le pourcentage d’essais avec un RC détectable à chaque session pour chaque animal. Les lignes épaisses indiquent la signification de la session sur tous les animaux. (E) Exemple de cadre de caméra d’une session avec des conditions d’éclairage sous-optimales. (F) Quantification d’essais individuels enregistrés avec un mauvais éclairage. L’UR est détectable mais avec un contraste plus faible et une variabilité plus élevée que dans des conditions d’éclairage optimales. (G) Traces moyennes de session provenant d’essais présentés en (F). Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 4
Figure 4 : Résultats représentatifs de la formation DTSC. (A) Performance d’un seul animal pendant les séances effectuées sur plusieurs jours dans le paradigme DTSC. Les lignes horizontales indiquent les performances à chaque essai, avec des couleurs chaudes indiquant un mouvement de roue vers l’arrière. La ligne verticale noire la plus à gauche indique le début du CS, tandis que la ligne pointillée indique le début des États-Unis. La deuxième ligne continue indique la cessation du CS et des États-Unis. (B) Performance de l’animal à partir de (A) avec des traces individuelles dérivées de la moyenne de l’essai pour la session chaque jour. La saturation de teinte indique le numéro de session avec une saturation plus élevée pour les sessions ultérieures. (C) Performance pour tous les animaux du groupe DTSC (n = 6). Les lignes minces indiquent le pourcentage d’essais avec un RC détectable à chaque session pour chaque animal. Les lignes épaisses indiquent la signification de la session sur tous les animaux. (D) Essais uniques comme dans (A) d’une cohorte où l’intensité américaine a provoqué des UR de faible amplitude. (E) Traces moyennes de session présentées comme en (B) pour les animaux soumis à la faiblesse des États-Unis. (F) Performance pour tous les animaux atteints de DTSC avec des ÉTATS-UNIS faibles (n = 6). Veuillez cliquer ici pour voir une version agrandie de cette figure.

Vidéo supplémentaire 1 : Exemples d’essais DEC hit and miss. Les essais DEC sont comparés dans la vidéo 1. Chaque vidéo montre des essais dans lesquels le sujet fait (à gauche) ou ne parvient pas à faire (à droite) la CR cible synchronisée et lue côte à côte à des fins de comparaison. La LED CS s’allume lorsque le carré bleu apparaît dans le coin supérieur gauche de chaque vidéo. Le signal de contrôle US est actif lorsqu’un carré blanc remplace le carré bleu. Les signaux de contrôle CS et US se terminent conjointement lorsque le carré disparaît. Veuillez cliquer ici pour télécharger cette vidéo.

Vidéo supplémentaire 2 : Exemples d’essais réussis et manqués par DTSC. La vidéo 2 montre la comparaison des essais DTSC. Chaque vidéo montre des essais dans lesquels le sujet fait (à gauche) ou ne parvient pas à faire (à droite) la CR cible synchronisée et lue côte à côte à des fins de comparaison. La LED CS s’allume lorsque le carré bleu apparaît dans le coin supérieur gauche de chaque vidéo. Le signal de contrôle US est actif lorsqu’un carré blanc remplace le carré bleu. Les signaux de contrôle CS et US se terminent conjointement lorsque le carré disparaît. Veuillez cliquer ici pour télécharger cette vidéo.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

La plate-forme avec les protocoles associés décrits ici peut être utilisée pour suivre de manière fiable le comportement animal dans deux tâches d’apprentissage associatif sensoriel. Chaque tâche dépend d’une communication intacte à travers le sentier de fibre d’escalade. Dans la conception décrite ici, nous incorporons des éléments pour faciliter l’apprentissage et l’enregistrement / perturbation de la réponse cérébelleuse. Ceux-ci incluent une roue pour permettre une locomotion libre11,18 ainsi que la fixation de la tête. La molette permet aux sujets de souris de se lomoter librement, ce qui a été observé comme étant critique pour l’acquisition dec18. La fixation de la tête chez la souris permet aux chercheurs de tirer parti d’approches génétiques, électrophysiologiques, d’imagerie et optogénétiques qui sont plus difficiles à utiliser chez d’autres espèces modèles ou dans des conditions de déplacement libre12. Nous avons utilisé notre conception pour chacune de ces applications. Le logiciel exécuté sur les microcontrôleurs peut facilement être adapté pour contrôler les signaux de synchronisation pour l’acquisition multiphotonique ou la synchronisation avec la stimulation optogénétique, les deux avec une précision inférieure à la milliseconde. Il faut veiller à minimiser la perception animale des équipements optogénétiques et d’imagerie lorsque ceux-ci sont combinés à des expériences comportementales. Par exemple, de nombreux systèmes multiphotons émettent un son audible à partir de leurs scanners galvanométriques ou de leurs obturateurs lorsque les acquisitions d’images commencent. Si les acquisitions sont déclenchées par le début des essais, de tels sons peuvent servir de signal involontaire aux sujets animaux qu’un stimulus est à venir.

Le contrôle de l’appareil comportemental est construit autour d’un SBC, qui est utilisé pour générer une interface utilisateur graphique pour gérer l’expérience, la caméra et l’exportation des données. Le SBC envoie également des commandes à deux microcontrôleurs qui gèrent le calendrier des essais et contrôlent directement les composants matériels tels que la présentation du stimulus et le codeur rotatif. Les protocoles détaillés ici ont été testés à l’aide d’un Raspberry Pi 3B+ ou 4B attaché à un Arduino Due to control experiment timing et d’un Arduino Uno pour contrôler la présentation du DTSC US. D’autres implémentations de conception matérielle sont possibles mais n’ont pas été testées avec le logiciel fourni.

Pour faciliter l’utilisation de plusieurs plates-formes en parallèle, nous vous recommandons de faire fonctionner le SBC en mode « sans tête ». Dans cette configuration, un ordinateur hôte est utilisé pour interagir avec le contrôleur SBC. Un commutateur Ethernet permet une connectivité Internet simultanée à la fois à un ordinateur hôte et à SBC. Le commutateur permet également une communication directe entre l’hôte et SBC avec un transfert de données rapide. En conséquence, le commutateur permet un transfert de données facile et la maintenance du package SBC.

Pour faire fonctionner plusieurs plates-formes en parallèle, chaque plate-forme doit être placée dans son propre boîtier spécialisé. Ces enceintes doivent être insonorisées si elles sont placées à proximité les unes des autres. La suppression du son entre les plates-formes adjacentes peut aider à éviter les signaux auditifs involontaires provenant de stimuli produits dans les enceintes voisines.

L’utilisation d’une plate-forme unique pour DEC et DTSC permet aux chercheurs de naviguer de manière flexible dans les forces et les faiblesses de chaque paradigme. DEC bénéficie d’informations dérivées de décennies de recherche sur les régions du cerveau et les éléments spécifiques du circuit cérébelleux impliqués dans l’apprentissage et l’exécution des tâches 1,4,11,13,14,15,19. Cependant, chez la souris, la région du cortex cérébelleux le plus souvent associée au conditionnement des sourcils11,12 est située profondément dans la fissure cérébelleuse primaire (bien que voir 15,17,27 qui démontrent une région associée au DEC de lobule VI superficielle). Un locus profond pour l’apprentissage complique l’accès aux expériences optiques, en particulier l’imagerie multiphotonique de l’activité cellulaire et les expériences de perturbation optogénétique. En revanche, les substrats cérébelleux du DTSC sont situés partiellement dans l’aspect superficiel des lobules IV/V20. Le DTSC présente donc un accès optique comparable à celui du néocortex dorsal, un site populaire pour les recherches en neurosciences des systèmes.

Dans notre conception, le comportement animal est suivi à l’aide d’un codeur rotatif attaché à la roue et d’une caméra. Nous avons sélectionné ces méthodes pour leur faible coût et leur facilité de mise en œuvre. Dans certains cas, d’autres méthodes de suivi peuvent fournir une plus grande précision spatiale et temporelle. Par exemple, la position des paupières dans dec a généralement été suivie à l’aide de capteurs à effet Hall 28,29 ou d’enregistrements électromyogrammes de la région périorbitaire du musculus orbicularis oculi 30,31. De même, le suivi de la locomotion en détectant le mouvement de la roue donne une image moins détaillée du comportement animal que les algorithmes de suivi de pose basés sur des images tels que SLEAP32 et DeepLabCut33. Les enregistrements par caméra permettent l’ajout de telles approches.

Ici, nous avons présenté une plate-forme pour suivre le comportement animal au cours de deux paradigmes d’apprentissage associatif dépendant des fibres d’escalade. Notre plateforme est destinée à augmenter l’accessibilité de ces méthodes tant en termes de coût que de facilité de mise en œuvre.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Les auteurs n’ont aucun conflit d’intérêts à divulguer.

Acknowledgments

Ce travail est soutenu par des subventions des National Institutes of Mental Health NRSA F32 MH120887-03 (à G.J.B.) et R01 NS045193 et R01 MH115750 (à S.S-H.W.). Nous remercions les Drs Bas Koekkoek et Henk-Jan Boele pour leurs discussions utiles pour l’optimisation de la configuration du DEC et les Drs Yue Wang et Xiaoying Chen pour leurs discussions utiles pour optimiser la configuration du DTSC.

Materials

Name Company Catalog Number Comments
"B" Quick Base For C&B METABOND - 10 mL bottle Parkell S398 Dental cement solvent
"C" Universal TBB Catalyst - 0.7 mL Parkell S371 Catalyst
#8 Washers Thorlabs W8S038 Washers
0.250" (1/4") x 8.00" Stainless Steel Precision Shafting Servocity 634172 1/4" shaft
0.250” (0.770") Clamping Hub Servocity 545588 Clamping hub
1/4" to 6 mm Set Screw Shaft Coupler- 5 pack Actobotics 625106 Shaft-coupling sleeve
1/4"-20 Cap Screws, 3/4" Long Thorlabs SH25S075 1/4" bolt
100 pcs 5 mm 395–400 nm UV Ultraviolet LED Light Emitting Diode Clear Round Lens 29 mm Long Lead (DC 3V) LEDs Lights +100 pcs Resistors EDGELEC ‎ED_YT05_U_100Pcs CS LEDs
2 m Micro HDMI to DVI-D Cable - M/M - 2 m Micro HDMI to DVI Cable - 19 pin HDMI (D) Male to DVI-D Male - 1920 x 1200 Video Star-tech ‎HDDDVIMM2M Raspberry Pi4B to monitor cable
256 GB Ultra Fit USB 3.1 Flash Drive SanDisk ‎SDCZ430-256G-G46 USB thumb drive
3.3 V–5 V 4 Channels Logic Level Converter Bi-Directional Shifter Module Amazon B00ZC6B8VM Logic level shifter
32 GB 95 MB/s (U1) microSDHC EVO Select Memory Card Samsung ‎MB-ME32GA/AM microSD card
4.50" Aluminum Channel Servocity 585444 4.5" aluminum channel
48-LED CCTV Ir Infrared Night Vision Illuminator Towallmark SODIAL Infrared light array
4PCS Breadboards Kit Include 2PCS 830 Point 2PCS 400 Point Solderless Breadboards for Proto Shield Distribution Connecting Blocks REXQualis B07DL13RZH Breadboard
5 Port Gigabit Unmanaged Ethernet Network Switch TP-Link ‎TL-SG105 Ethernet switch
5 V 2.5 A Raspberry Pi 3 B+ Power Supply/Adapter Canakit ‎DCAR-RSP-2A5 Power supply for Raspberry Pi 3B+
5-0 ETHILON BLACK 1 x 18" C-3 Ethicon 668G Sutures
6 mm Shaft Encoder 2000 PPR Pushpull Line Driver Universal Output Line Driver Output 5-26 V dc Supply Calt  B01EWER68I Rotary encoder
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 1", 5 Pack Thorlabs TR1-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 2", 5 Pack Thorlabs TR2-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 4", 5 Pack Thorlabs TR4-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 6", 5 Pack Thorlabs TR6-P5 Optical posts
Ø1/2" Post Holder, Spring-Loaded Hex-Locking Thumbscrew, L = 2" Thorlabs PH2 Optical post holder
Adapter-062-M X LUER LOCK-F The Lee Co. TMRA3201950Z Solenoid valve luer adapter
Aeromat Foam Roller Size: 36" Length Aeromat B002H3CMUE Foam roller
Aluminum Breadboard 10" x 12" x 1/2", 1/4"-20 Taps Thorlabs MB1012 Aluminum breadboard
Amazon Basics HDMI to DVI Adapter Cable, Black, 6 Feet, 1-Pack Amazon HL-007347 Raspberry Pi3B+ to monitor cable
Arduino  Uno R3 Arduino A000066 Arduino Uno (microcontroller board)
Arduino Due Arduino ‎A000062 Arduino Due (microcontroller board)
Bench Power Supply, Single, Adjustable, 3 Output, 0 V, 24 V, 0 A, 2 A Tenma 72-8335A Power supply
Clear Scratch- and UV-Resistant Cast Acrylic Sheet, 12" x 24" x 1/8" McMaster Carr 8560K257 Acrylic sheet
CNC Stepper Motor Driver 1.0–4.2 A 20–50 V DC 1/128 Micro-Step Resolutions for Nema 17 and 23 Stepper Motor Stepper Online B06Y5VPSFN Stepper motor driver
Compact Compressed Air Regulator, Inline Relieving, Brass Housing, 1/4 NPT McMaster Carr 6763K13 Air source regulator
Cotton Swab Puritan 806-WC Cotton swab
Dell 1908FP 19" Flat Panel Monitor - 1908FPC Dell 1908FPC Computer monitor
Flex Cable for Raspberry Pi Camera Adafruit 2144 camera serial interface cable
High Torque Nema 17 Bipolar Stepper Motor 92 oz·in/65 N·cm 2.1 A Extruder Motor Stepper Online 17HS24-2104S Stepper motor
Isoflurane Henry Schein 66794001725 Isoflurane
Krazy Maximum Bond Permanent Glue, 0.18 oz. Krazy Glue KG483 Cyanoacrylate glue
Lidocaine HCl VetOne 510212 Lidocaine
Low-Strength Steel Hex Nut, Grade 2, Zinc-Plated, 1/4"-20 Thread Size McMaster Carr 90473A029 Nuts
M3 x 50 mm Partially Threaded Hex Key Socket Cap Head Screws 10 pcs Uxcell A16040100ux1380 M3 bolt
NEMA 17 Stepper Motor Mount ACTOBOTICS 555152 Stepper motor mount
Official Raspberry Pi Power Supply 5.1 V 3 A with USB C - 1.5 m long Adafruit 4298 Power supply for Raspberry Pi 4B
Optixcare Dog & Cat Eye Lube Lubricating Gel, 0.70-oz tube Optixcare 142422 Opthalimic ointment
Precision Stainless Steel Ball Bearing, Shielded, Trade No. R188-2Z, 13000 rpm Maximum Speed McMaster-Carr 3759T57 Bearing
Premium Female/Female Jumper Wires - 40 x 6" Adafruit 266 Wires
Premium Female/Male 'Extension' Jumper Wires - 40 x 6" (150 mm) Adafruit 826 Wires
Premium Male/Male Jumper Wires - 40 x 6" Adafruit 758 Wires
Radiopaque L-Powder for C&B METABOND - 5 g Parkell S396 Dental cement powder
Raspberry Pi (3B+ or 4B) Adafruit 3775 or 4295 Raspberry Pi
Raspberry Pi NoIR Camera Module V2 - 8MP 1080P30 Raspberry Pi Foundation RPI3-NOIR-V2 Raspberry NoIR V2 camera
Right-Angle Bracket, 1/4" (M6) Counterbored Slot, 8-32 Taps Thorlabs AB90E Right-angle bracket
Right-Angle Clamp for Ø1/2" Posts, 3/16" Hex Thorlabs RA90 Right-angle optical post clamp
Right-Angle End Clamp for Ø1/2" Posts, 1/4"-20 Stud and 3/16" Hex Thorlabs RA180 Right-angle end clamp
RJ45 Cat-6 Ethernet Patch Internet Cable Amazon ‎CAT6-7FT-5P-BLUE Ethernet cable
Rotating Clamp for Ø1/2" Posts, 360° Continuously Adjustable, 3/16" Hex Thorlabs SWC Rotating optical post clamps
Spike & Hold Driver-0.1 TO 5 MS The Lee Co. IECX0501350A Solenoid valve driver
Swivel Base Adapter Thorlabs UPHA Post holder adapter
USB 2.0 A-Male to Micro B Cable, 6 feet Amazon ‎7T9MV4 USB2 type A to USB2 micro cable
USB 2.0 Printer Cable - A-Male to B-Male, 6 Feet (1.8 m) Amazon B072L34SZS USB2 type B to USB2 type A cable
VHS-M/SP-12 V The Lee Co. INKX0514900A Solenoid valve
Zinc-Plated Steel 1/4" washer, OD 1.000" McMaster Carr 91090A108 Washers

DOWNLOAD MATERIALS LIST

References

  1. McCormick, D. A., Lavond, D. G., Clark, G. A., Kettner, R. E., Rising, C. E., Thompson, R. F. The engram found? Role of the cerebellum in classical conditioning of nictitating membrane and eyelid responses. Bulletin of the Psychonomic Society. 18 (3), 103-105 (1981).
  2. McCormick, D. A., Clark, G. A., Lavond, D. G., Thompson, R. F. Initial localization of the memory trace for a basic form of learning. Proceedings of the National Academy of Sciences of the United States of America. 79 (8), 2731-2735 (1982).
  3. McCormick, D. A., Thompson, R. F. Cerebellum: essential involvement in the classically conditioned eyelid response. Science. 223 (4633), New York, N.Y. 296-299 (1984).
  4. Krupa, D. J., Thompson, J. K., Thompson, R. F. Localization of a memory trace in the mammalian brain. Science. 260 (5110), New York, N.Y. 989-991 (1993).
  5. Llinás, R., Sugimori, M. Electrophysiological properties of in vitro Purkinje cell dendrites in mammalian cerebellar slices. The Journal of Physiology. 305, 197-213 (1980).
  6. Mintz, M., Lavond, D. G., Zhang, A. A., Yun, Y., Thompson, R. F. Unilateral inferior olive NMDA lesion leads to unilateral deficit in acquisition and retention of eyelid classical conditioning. Behavioral and Neural Biology. 61 (3), 218-224 (1994).
  7. Welsh, J. P., Harvey, J. A. Cerebellar lesions and the nictitating membrane reflex: performance deficits of the conditioned and unconditioned response. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 9 (1), 299-311 (1989).
  8. Mauk, M. D., Steinmetz, J. E., Thompson, R. F. Classical conditioning using stimulation of the inferior olive as the unconditioned stimulus. Proceedings of the National Academy of Sciences of the United States of America. 83 (14), 5349-5353 (1986).
  9. Steinmetz, J. E., Lavond, D. G., Thompson, R. F. Classical conditioning in rabbits using pontine nucleus stimulation as a conditioned stimulus and inferior olive stimulation as an unconditioned stimulus. Synapse. 3 (3), New York, N.Y. 225-233 (1989).
  10. Chettih, S. N., McDougle, S. D., Ruffolo, L. I., Medina, J. F. Adaptive timing of motor output in the mouse: The role of movement oscillations in eyelid conditioning. Frontiers in Integrative Neuroscience. 5, 72 (2011).
  11. Heiney, S. A., Wohl, M. P., Chettih, S. N., Ruffolo, L. I., Medina, J. F. Cerebellar-dependent expression of motor learning during eyeblink conditioning in head-fixed mice. The Journal of Neuroscience. 34 (45), 14845-14853 (2014).
  12. Heiney, S. A., Kim, J., Augustine, G. J., Medina, J. F. Precise control of movement kinematics by optogenetic inhibition of purkinje cell activity. Journal of Neuroscience. 34 (6), 2321-2330 (2014).
  13. Ten Brinke, M. M., et al. Evolving models of pavlovian conditioning: Cerebellar cortical dynamics in awake behaving mice. Cell Reports. 13 (9), 1977-1988 (2015).
  14. Gao, Z., et al. Excitatory cerebellar nucleocortical circuit provides internal amplification during associative conditioning. Neuron. 89 (3), 645-657 (2016).
  15. Giovannucci, A., et al. Cerebellar granule cells acquire a widespread predictive feedback signal during motor learning. Nature Neuroscience. 20 (5), 727-734 (2017).
  16. Ten Brinke, M. M., et al. Dynamic modulation of activity in cerebellar nuclei neurons during pavlovian eyeblink conditioning in mice. eLife. 6, 28132 (2017).
  17. Wang, X., Yu, S., Ren, Z., De Zeeuw, C. I., Gao, Z. A FN-MdV pathway and its role in cerebellar multimodular control of sensorimotor behavior. Nature Communications. 11 (1), 6050 (2020).
  18. Albergaria, C., Silva, N. T., Pritchett, D. L., Carey, M. R. Locomotor activity modulates associative learning in mouse cerebellum. Nature Neuroscience. 21 (5), 725-735 (2018).
  19. Kim, O. A., Ohmae, S., Medina, J. F. A cerebello-olivary signal for negative prediction error is sufficient to cause extinction of associative motor learning. Nature Neuroscience. 23 (12), 1550-1554 (2020).
  20. Yamada, T., et al. Sensory experience remodels genome architecture in neural circuit to drive motor learning. Nature. 569 (7758), 708-713 (2019).
  21. Horlington, M. Startle response circadian rhythm in rats: lack of correlation with motor activity. Physiology & Behavior. 5 (1), 49-53 (1970).
  22. Yeomans, J. S., Li, L., Scott, B. W., Frankland, P. W. Tactile, acoustic and vestibular systems sum to elicit the startle reflex. Neuroscience and Biobehavioral Reviews. 26 (1), 1-11 (2002).
  23. Raspberry Pi Operating system images. , Available from: https://www.raspberrypi.com/software/operationg-systems/ (2021).
  24. VNC Server. VNC® Connect. , Available from: https://www.realvnc.com/en/connect/download/vnc/ (2021).
  25. Anaconda: The world's most popular data science platform. , Available from: https://xddebuganaconda.xdlab.co/ (2021).
  26. De Zeeuw, C. I., Ten Brinke, M. M. Motor learning and the cerebellum. Cold Spring Harbor Perspectives in Biology. 7 (9), 021683 (2015).
  27. Badura, A., et al. Normal cognitive and social development require posterior cerebellar activity. eLife. 7, 36401 (2018).
  28. Koekkoek, S. K. E., Den Ouden, W. L., Perry, G., Highstein, S. M., De Zeeuw, C. I. Monitoring kinetic and frequency-domain properties of eyelid responses in mice with magnetic distance measurement technique. Journal of Neurophysiology. 88 (4), 2124-2133 (2002).
  29. Kloth, A. D., et al. Cerebellar associative sensory learning defects in five mouse autism models. eLife. 4, 06085 (2015).
  30. Boele, H. -J., Koekkoek, S. K. E., De Zeeuw, C. I. Cerebellar and extracerebellar involvement in mouse eyeblink conditioning: the ACDC model. Frontiers in Cellular Neuroscience. 3, (2010).
  31. Lin, C., Disterhoft, J., Weiss, C. Whisker-signaled eyeblink classical conditioning in head-fixed Mice. Journal of Visualized Experiments: JoVE. (109), e53310 (2016).
  32. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  33. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).

Tags

Neurosciences numéro 179 cervelet apprentissage moteur associatif conditionnement des sourcils à retard conditionnement des stimuli tactiles à retard
Une plate-forme flexible pour la surveillance de l’apprentissage associatif sensoriel dépendant du cervelet
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Broussard, G. J., Kislin, M., Jung,More

Broussard, G. J., Kislin, M., Jung, C., Wang, S. S. H. A Flexible Platform for Monitoring Cerebellum-Dependent Sensory Associative Learning. J. Vis. Exp. (179), e63205, doi:10.3791/63205 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter