Waiting
Login-Verarbeitung ...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Een flexibel platform voor het monitoren van cerebellum-afhankelijk sensorisch associatief leren

Published: January 19, 2022 doi: 10.3791/63205

Summary

We hebben één platform ontwikkeld om het gedrag van dieren te volgen tijdens twee klimmende vezelafhankelijke associatieve leertaken. Het goedkope ontwerp maakt integratie mogelijk met optogenetische of beeldvormingsexperimenten gericht op het beklimmen van vezelgerelateerde cerebellaire activiteit.

Abstract

Klimmende vezelingangen naar Purkinje-cellen bieden instructieve signalen die cruciaal zijn voor cerebellum-afhankelijk associatief leren. Het bestuderen van deze signalen in hoofd-gefixeerde muizen vergemakkelijkt het gebruik van beeldvormings-, elektrofysiologische en optogenetische methoden. Hier werd een goedkoop gedragsplatform (~ $ 1000) ontwikkeld dat het mogelijk maakt om associatief leren te volgen in hoofd-vaste muizen die vrij bewegen op een loopwiel. Het platform bevat twee gemeenschappelijke associatieve leerparadigma's: eyeblinkconditionering en vertraagde tactiele schrikconditionering. Gedrag wordt gevolgd met behulp van een camera en de wielbeweging door een detector. We beschrijven de componenten en setup en bieden een gedetailleerd protocol voor training en data-analyse. Dit platform maakt de integratie van optogenetische stimulatie en fluorescentiebeeldvorming mogelijk. Het ontwerp stelt een enkele hostcomputer in staat om meerdere platforms te besturen voor het tegelijkertijd trainen van meerdere dieren.

Introduction

Pavloviaanse conditionering van subseconde associatie tussen stimuli om een geconditioneerde reactie uit te lokken, wordt al lang gebruikt om cerebellair-afhankelijk leren te onderzoeken. Bij klassieke delay eyeblink conditioning (DEC) leren dieren bijvoorbeeld om een goed getimede beschermende knipper te maken als reactie op een neutrale voorwaardelijke stimulus (CS; bijvoorbeeld een lichtflits of auditieve toon) wanneer deze herhaaldelijk gepaard gaat met een onvoorwaardelijke stimulus (VS; bijvoorbeeld een trekje lucht dat op het hoornvlies wordt aangebracht) dat altijd een reflex knippert, en die op of nabij het einde van de CS komt. De aangeleerde respons wordt een geconditioneerde respons (CR) genoemd, terwijl de reflexrespons de ongeconditioneerde respons (UR) wordt genoemd. Bij konijnen verstoren cerebellum-specifieke laesies deze vorm van leren 1,2,3,4. Verder leveren Purkinje-celcomplexpieken, aangedreven door hun klimmende vezelingangen5, een noodzakelijk 6,7 en voldoende 8,9-signaal voor de verwerving van correct getimede CER's.

Meer recent zijn klimmende vezelafhankelijke associatieve leerparadigma's ontwikkeld voor hoofd-gefixeerde muizen. DEC was het eerste associatieve leerparadigma dat aan deze configuratie werd aangepast10,11. DEC in head-fixed muizen is gebruikt om cerebellaire gebieden 11,12,13,14,15,16,17 en circuitelementen 11,1 2,13,14,15,18,19 te identificeren die nodig zijn voor taakverwerving en uitsterven. Deze benadering is ook gebruikt om aan te tonen hoe de fysiologische representatie van taakparameters op cellulair niveau evolueert met leren 13,15,16.

Naast eyeblink werd onlangs het vertraagde schrik tactiele conditionering (DTSC) paradigma ontwikkeld als een nieuwe associatieve leertaak voor hoofd-gefixeerde muizen20. Conceptueel vergelijkbaar met DEC, omvat DTSC de presentatie van een neutrale CS met een US, een tik op het gezicht die voldoende in intensiteit is om een schrikreflex21,22 als de UR te activeren. In het DTSC-paradigma worden zowel de UR als de CR uitgelezen als achterwaartse voortbeweging op een wiel. DTSC is nu gebruikt om te ontdekken hoe associatief leren cerebellaire activiteit en patronen van genexpressie verandert20.

In dit werk is een methode ontwikkeld om DEC of DTSC flexibel toe te passen in één platform. De stimulus- en platformattributen zijn geschematiseerd in figuur 1. Het ontwerp bevat de capaciteit om het gedrag van dieren te volgen met een camera en een roterende encoder om de voortbeweging van de muis op een wiel te volgen. Alle aspecten van datalogging en proefstructuur worden bestuurd door gepaarde microcontrollers (Arduino) en een single-board computer (SBC; Raspberry Pi). Deze apparaten zijn toegankelijk via een meegeleverde grafische gebruikersinterface. Hier presenteren we een workflow voor installatie, experimentvoorbereiding en -uitvoering en een aangepaste analysepijplijn voor gegevensvisualisatie.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

De hier beschreven dierprotocollen zijn goedgekeurd door de Animal Care and Use Committees van Princeton University.

1. De SBC instellen

  1. Sluit de CSI-kabel (Serial Interface) van de camera aan op de Raspberry NoIR V2-camera en de camerapoort op de SBC.
  2. Download het besturingssysteem voor de SBC naar de hostcomputer. Schrijf de afbeelding van het besturingssysteem naar een microveilige digitale (microSD)-kaart.
    OPMERKING: Gedetailleerde instructies voor deze procedures voor een Raspberry Pi SBC vindt u elders23. Het systeem is getest met behulp van de volgende besturingssystemen: Stretch, Buster, Bullseye.
  3. Om beveiligde shell-communicatie mogelijk te maken, maakt u een extensieloos bestand met de naam "ssh" in de opstartpartitie van de microSD-kaart. Zodra dit is gebeurd, werpt u de microSD-kaart uit het hostapparaat en plaatst u deze in de SBC microSD-kaartsleuf. Voed de SBC door de voeding aan te sluiten.
  4. Bereid de SBC voor op het accepteren van een bekabelde verbinding met de host.
    1. Sluit een monitor met een geschikte kabel aan op de SBC. Open een terminal, typ de opdracht ifconfig en noteer het ethernet-IP-adres van de SBC.
      OPMERKING: Raspberry Pi model 3B + heeft een HDMI-displaypoort, terwijl model 4B een micro-HDMI-poort heeft.
    2. Ga naar het tabblad Interface van de Configuratie-instelling Raspberry Pi en schakel de opties voor Camera, secure shell network protocol (SSH) en Virtual Network Computing (VNC) in.
  5. Breng een bekabelde verbinding tot stand tussen de hostcomputer en de SBC.
    1. Sluit een ethernetkabel aan op de ethernetpoort van de SBC en een hostcomputer. Sluit het andere uiteinde van deze kabels aan op een ethernetswitch.
    2. Gebruik een virtuele netwerkcomputerclient zoals VNC viewer24 en krijg toegang tot het bureaublad met behulp van het SBC IP-adres en de standaardverificatie (gebruiker = "pi", wachtwoord = "raspberry").
  6. Download de vereiste software die is opgenomen in de protocolstappen.
    LET OP: Wijzig de standaard gebruikersnaam en het standaardwachtwoord om onbevoegde toegang tot de SBC te voorkomen.
    1. Voer de volgende opdracht in de SBC-terminal in om de rig-software te downloaden:
      git kloon --depth=1 https://github.com/gerardjb/assocLearnRig
    2. Voer de volgende opdrachten in om de benodigde python-bibliotheken te downloaden.
      cd assocLearnRig
      python3 setup.py
    3. Om directe controle over de microcontroller mogelijk te maken, maakt u verbinding met de SBC en downloadt u de microcontroller integrated development environment (IDE) volgens de stappen 1.6.4-1.6.7.
    4. Open de webbrowser op het bureaublad van SBC en navigeer naar https://arduino.cc/en/software. Download de nieuwste Linux ARM 32 bit versie van de IDE.
    5. Open een terminalvenster op het SBC-bureaublad en navigeer naar de downloadmap door cd Downloads/ te typen
    6. Als u de IDE wilt installeren, typt u de volgende opdrachten in de terminal:
      tar -xf arduino--linuxarm.tar.xz
      sudo mv arduino- /opt
      sudo /opt/arduino-/install.sh

      (hier is de versie van de gedownloade IDE)
    7. Open een instantie van de microcontroller-IDE op het SBC-bureaublad. Selecteer de menuoptie Extra > Bibliotheken beheren. Installeer de "Encoder" bibliotheek van Paul Stoffregen.
  7. Breid het SBC-geheugen aan boord uit met een USB-stick.
    1. Plaats een USB-stick in een USB-poort op de SBC. Gebruik een USB 3.0-poort indien beschikbaar.
    2. Typ de terminal ls -l /dev/disk/by-uuid/ om de USB-stick en de unieke referentie (UUID) te vinden. Neem de UUID op.
    3. Als u de pi-gebruiker wilt toestaan naar het USB-apparaat te schrijven, typt u de volgende opdrachten één voor één in de terminal:
      sudo mkdir / media / usb
      sudo chown -R pi: pi / media / usb
      sudo mount /dev/sda1 /media/usb -o uid=pi,gid=pi
      OPMERKING: De USB-stick kan worden toegevoegd als een apparaat dat automatisch wordt geactiveerd wanneer de SBC opnieuw wordt opgestart door de volgende regel toe te voegen aan het einde van het fstab-bestand op /etc/fstab:
      UUID= /media/usb vfat auto,nofail,noatime,users,rw,uid=pi,gid=pi 0 0

2. Bedrading stimulus hardware en montage fase

  1. Sluit microcontrollers aan en bereid ze voor.
    1. Sluit de SBC aan op de programmeerpoort van de microcontroller (Arduino Due) met een USB2 type A naar USB2 microkabel.
      OPMERKING: Gebruik een kabel van hoge kwaliteit, zoals het product in de materiaaltabel, om een goede werking te garanderen.
    2. Zoek "dueAssocLearn.ino" in de gedownloade projectrepository. Open de schets met de microcontroller IDE en upload deze naar de microcontroller die is aangesloten op de SBC.
    3. Download en installeer de juiste versie van de Arduino IDE op de hostcomputer.
    4. Sluit de hostcomputer aan op de microcontroller (Arduino Uno) met een USB2 type B naar USB2 type A kabel.
    5. Ga naar de GitHub-repository (https://github.com/gerardjb/assocLearnRig) en download de schets "DTSC_US.ino" naar de hostcomputer.
    6. Voer op de hostcomputer de microcontroller IDE uit en open de schets "DTSC_US.ino" en upload deze vervolgens naar de microcontroller.
  2. Bevestig draden aan de microcontrollers, breadboard, LED's, roterende encoder, stappenmotor met driver en magneetventiel met driver zoals aangegeven in het Fritzing-diagram in figuur 2.
  3. Voed de stappenmotor en magneetventiel.
    1. Sluit op de juiste manier één kanaal van een voeding aan op de +V- en GND-pinnen van de stuurprogramma van de stappenmotor.
    2. Schakel de voeding in en stel de aangesloten kanaalspanning in op 25 V.
      OPMERKING: Als de verbindingen tussen de stappenmotor, de driver en de voeding correct zijn geconfigureerd, wordt een groene indicatie-LED op de bestuurder van de stappenmotor ingeschakeld.
    3. Bedraad de positieve kabel van een voeding naar de magneetklepdriver vastspanningspen en de andere positieve kabel naar de spikespanningspen.
    4. Bevestig de negatieve leidingen aan een grond die wordt gedeeld met het stuursignaal.
    5. Schakel de voeding in en stel het kanaal dat is aangesloten op de hold-spanning in op ongeveer 2,5 V en het kanaal dat is aangesloten op spikespanning op ongeveer 12 V.
  4. Sluit een luchtbron die is geregeld op een druk van ~ 20 PSI aan op de magneetklep met behulp van de lueradapter.
  5. Test of alle stimuluscomponenten en camera goed functioneren.
    1. Open een terminal op de SBC en typ cd ~/assocLearnRig om naar de gekloonde GitHub-repository te navigeren.
    2. Typ python3 in de terminal assocLearnRig_app.py om de grafische gebruikersinterface van het besturingselement te starten.
    3. Start de camerastream door op de knop Stream te drukken.
    4. Selecteer het DEC keuzerondje , upload naar de microcontroller en start een sessie met standaardparameters door op de knop Sessie starten te drukken.
      OPMERKING: Na deze stap moet een afdruk van het gegevenslogboek in de terminal verschijnen, het bericht op de camerastream moet verdwijnen en de LED CS en magneetklep US moeten op de juiste momenten tijdens elke proef worden in- en uitgeschakeld.
    5. Nadat de sessie is beëindigd, herhaalt u de vorige stappen met het DTSC-keuzerondje geselecteerd.
      OPMERKING: Schetsen in de GitHub-repository ("testStepper.ino", "testRotary.ino" en "testSolenoid.ino") kunnen worden gebruikt om afzonderlijke componenten te testen als de bovenstaande stappen geen bevredigende resultaten opleveren.
  6. Maak het loopwiel.
    1. Knip een 3"-wiel uit een foamroller. Boor een gat van 1/4" in het exacte wielcentrum, zodat het wiel niet wiebelt wanneer het wordt gedraaid door de voortbeweging van de muis.
    2. Steek een 1/4"-as in het wiel en bevestig deze op zijn plaats met behulp van klemnaven aan elke kant van het wiel.
  7. Bevestig de roterende encoder op een 4,5"-aluminium kanaal met behulp van een M3-bout. Stabiliseer het aluminium kanaal op het aluminium breadboard met behulp van een haakse beugel met een 1/4 "bout, moer en ring zoals getoond.
  8. Bevestig het wiel en de roterende encoder met behulp van een askoppelingshuls.
  9. Stabiliseer de vrije zijde van de wielas met een lager dat is geplaatst in een haakse eindklem die is geïnstalleerd op een op de breadboard gemonteerde optische paal.
    OPMERKING: Zorg ervoor dat het wiel vrij draait zonder te wiebelen wanneer het met de hand wordt gedraaid.
  10. Plaats de stimulushardware, hoofdsteun, infraroodlichtarray en picamera rond het geassembleerde wiel.
    1. Plaats de hoofdsteunen met behulp van optische palen en haakse paalklemmen zodat de kopstijlen zich 1,5 cm voor de wielas en 2 cm boven het wieloppervlak bevinden. (Waarden zijn voor een muis van 20 g).
    2. Plaats de CS LED- en magneetventieluitlaat die voor de DEC US wordt gebruikt op minder dan 1 cm van het oog dat voor DEC wordt gebruikt.
    3. Monteer de stappenmotor die wordt gebruikt voor de DTSC US
    4. Monteer de picamera op een optische paal ~ 10 cm van waar het dier zich zal bevinden.
      OPMERKING: Het ontwerp voor de picamera-mount kan worden gemaakt op een 3D-printer vanuit het bestand in "RaspPiCamMount1_1.stl" in de GitHub-repository.
    5. Plaats de infrarood lichtarray iets boven en direct naar de positie van het gezicht aan dezelfde kant als de picamera.
    6. Maak een tactiele stimulus voor DTSC door schuim aan de rand van een stuk acryl te plakken dat met behulp van een klemnaaf op een 1/4"-as is gemonteerd. Bevestig de tactiele stimulus aan de as van de stappenmotor.
      OPMERKING: Het ontwerp voor het acrylstuk kan met een laser worden gesneden volgens het patroon in "TactileStimDesign.pdf" in de GitHub-repository.

3. Gedragsexperimenten voorbereiden en uitvoeren

  1. Implanteren van muis headplate.
    1. Anesthetiseer een muis met behulp van 2% isofluraan en head fix in een stereotactisch frame.
    2. Breng een oogheelkundige zalf aan op de ogen.
    3. Scheer de hoofdhuid met een sopje en een steriel scalpel. Injecteer lidocaïne direct onder de huid van de incisieplaats en reinig de operatieplaats met povidon.
    4. Maak een incisie met een scalpel langs de middellijn van de hoofdhuid van de achterrand van de ogen naar de achterrand van de schedel, waarbij u voorzichtig bent om niet te hard op de schedel te drukken.
    5. Spreid de incisie open en klem beide zijden vast met steriele hemostaten om deze open te houden. Verwijder het botvlies voorzichtig met een wattenstaafje gedompeld met ethanol en laat het oppervlak van de blootgestelde schedel drogen.
    6. Plaats de hoofdplaat op het niveau van de schedel en zorg ervoor dat u de voorkant van de hoofdplaat achter de ogen plaatst. Gebruik cyanoacrylaatlijm om de kopplaat aan de schedel te bevestigen en de lijm volledig te laten drogen.
    7. Meng het tandcementpoeder (1 schep), oplosmiddel (2 druppels) en katalysator (1 druppel) in een mengschaal en breng aan op alle gebieden van het blootgestelde bot. Voeg lagen toe totdat het oppervlak gelijk is met de bovenrand van de kopplaat en zorg ervoor dat de kopplaat stevig aan de schedel is bevestigd.
    8. Hecht de huid indien nodig achter en voor de kopplaat dicht.
    9. Injecteer postoperatieve analgesie zoals carprofen volgens de institutionele richtlijnen terwijl het dier gedurende ten minste 5 dagen kan herstellen.
  2. Voorbereiden op gedragssessies.
    1. Laat de proefdieren wennen aan het platform door ze gedurende 5 dagen voorafgaand aan de experimenten gedurende sessies van 30 minuten in de hoofdsteun te monteren.
      OPMERKING: Aan het einde van de gewenningssessies moeten dieren comfortabel op het wiel rennen.
    2. (Alleen DEC) Zorg er voorafgaand aan de sessies voor dat de uitlaat van de magneetklep is gecentreerd op het doeloog op >1 cm afstand.
    3. (Alleen DEC) Activeer een luchtwolk handmatig met behulp van de drukknop. Zorg ervoor dat de muis onmiddellijk knippert zonder openlijke tekenen van stress te vertonen, zoals het aannemen van een gebogen houding of het grijpen van het aangetaste perioculaire gebied met de ipsilaterale voorepaw.
    4. (Alleen DTSC) Zorg er voorafgaand aan de sessies voor dat de tactiele stimulus is gecentreerd op de neus van het dier op ~ 1,5 cm afstand.
      OPMERKING: Wanneer een DTSC-gedragssessie niet wordt uitgevoerd, wordt de stappenmotor automatisch geïnactiveerd om handmatige herpositionering mogelijk te maken.
    5. (Alleen DTSC) Typ python3 in de SBC-terminal assocLearnRig_app.py om de GUI te starten.
    6. (Alleen DTSC) Voer een testsessie van drie proefversies uit met de standaardparameters door op de knop Sessie starten in de GUI te drukken.
    7. (Alleen DTSC) Zorg ervoor dat de geregistreerde gegevens die naar de terminal worden afgedrukt, een doorbuiging vertonen van meer dan 20 maar minder dan 100 stappen die zijn vastgelegd op de roterende encoder na de VS bij elke proef.
      LET OP: Om schade te voorkomen en stress voor het dier te verminderen, start u de stimulus verder van het dier en verplaatst u deze dichter totdat aan de vereiste voorwaarden is voldaan.
  3. Gedragssessies uitvoeren met datalogging.
    1. Monteer een muis op de hoofdsteun.
    2. Typ python3 in de terminal van de SBC assocLearnRig_app.py om de GUI te starten.
    3. Om camera-opnames toe te staan tijdens de gedragsproeven, drukt u op de knop Streamen .
      OPMERKING: Sessies kunnen zonder camera worden uitgevoerd. In dit geval worden alleen gegevens van de roterende encoder en stimuluspresentatietijdstempels geregistreerd.
    4. Voer identificerende informatie voor het dier in het veld Dier-ID in en druk op de knop Instellen .
    5. Selecteer de DEC of DTSC in het keuzerondje onder de kop Sessietype , afhankelijk van welk gedragsparadigma gewenst is.
    6. Voer de gewenste experimentparameters in de velden onder het veld Dier-ID in en druk op de knop Uploaden naar Arduino .
      OPMERKING: Details van de experimentparameters zijn te vinden in de Leesmij-sectie van de GitHub-opslagplaats.
    7. Druk op de knop Sessie starten om de sessie te starten.
    8. Wanneer een sessie wordt geïnitialiseerd, beginnen de gegevens zich aan te melden in een nieuwe map die is gemaakt in "/media/usb" in het bevestigingspunt van de SBC-stick.

4. Gegevens exporteren en analyseren

  1. Als u alle opgenomen sessies naar de hostcomputer wilt exporteren, opent u een opdrachtprompt en voert u de opdracht pscp -r pi@Pi_IP_address:/media/usb* host_computer_destination in en verifieert u vervolgens met het SBC-wachtwoord.
    OPMERKING: De bovenstaande opdracht is voor een Windows-machine. Gebruik op Mac- en Linux-machines terminal en vervang "pscp" door "scp".
  2. Installeer Anaconda25 of een andere python package manager (PPM) op de hostcomputer.
  3. Ga naar de GitHub-repository en download "analyzeSession.py", "summarizeSessions.py", "session2mp4s.py" en "requirementsHost.txt".
  4. Open een PPM-prompt en typ conda install --file directory_containing_requirementsHostrequirements Host.txt om ervoor te zorgen dat de installatie van het Python-pakket de vereiste python-bibliotheken heeft.
  5. Typ in de prompt cd directory_containing_analyzeData om naar de map met "analyzeData.py" en "session2mp4s.py" te navigeren. Voer het analyseprogramma uit door python analyzeSession.py te typen
    OPMERKING: Er wordt een foutbericht gegenereerd als u een Python 2-versie als python gebruikt. Als u de versie wilt controleren, typt u python -V in de prompt.
  6. Selecteer de map met de gegevens wanneer daarom wordt gevraagd. Mappen met meerdere submappen worden achtereenvolgens geanalyseerd.
  7. Voor DEC-sessies selecteert u voor elke geanalyseerde sessiemap een interessegebied (ROI) met het oog van de muis uit een gemiddelde afbeelding van de proef.
    OPMERKING: Gegevensbestanden en samenvattingsgrafieken voor de eindanalyse worden gevuld in een submap van elke geanalyseerde sessiemap.
  8. Typ python summarizeSessions.py om overzichtsgegevens over meerdere sessies te genereren.
  9. Typ in de prompt python session2mp4s.py om imaging-gegevensbestanden om te zetten in zichtbare .mp4-bestanden.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Workflow voor DEC experimenten en analyse
Een goede experimentele parameterselectie is belangrijk voor een succesvolle delay eyeblink conditioning (DEC) training. Voor de hier gepresenteerde gegevens werd de GUI gebruikt om een CS-duur van 350 ms en een Amerikaanse duur van 50 ms te kiezen. Deze koppeling resulteert in een interstimulusinterval van 300 ms: lang genoeg om cr-productie met lage amplitude10 te voorkomen en kort genoeg om te voorkomen dat u in het regime van slecht leren of sporenconditionering terechtkomt, een proces dat extra hersengebiedenbetrekt 11. De tijd tussen proeven werd ingesteld met behulp van de ITI lage en hoge velden om willekeurig uniform te worden gekozen uit een bereik van 5-15 s. De randomisatie van de interproperts maakt het voor proefpersonen onmogelijk om andere timingsignalen dan de CS en de VS zelf te gebruiken voor taakuitvoering.

Het opnemen van proeven die de CS of de VS weglaten, maakt beoordeling van de CR- en UR-kinematica mogelijk, zelfs bij getrainde dieren. De gebruiker kan het aandeel onderzoeken definiëren waarin CS en US afzonderlijk worden gekoppeld of gepresenteerd. In de hier gepresenteerde gegevens hebben we alle sessies uitgevoerd op 10% CS-only studies met gepaarde onderzoeken die de rest vormen en geen alleen amerikaanse onderzoeken. Merk op dat het opnemen van buitensporige aantallen ongepaarde onderzoeken een negatieve invloed kan hebben op de training. Sessies met meer dan 50% van de proeven ongepaard worden bijvoorbeeld vaak gebruikt om het uitsterven van CER's bij getrainde dieren te stimuleren19,26.

Cameravoorbereiding en lichtomstandigheden zijn ook van cruciaal belang voor het verkrijgen van gegevens van hoge kwaliteit. De framesnelheid van acquisitie kan worden aangepast in de Picamera-acquisitiesoftware. In de hier gepresenteerde gegevens hebben we een framesnelheid van 120 Hz ingesteld voor DEC-experimenten. De Picamera-module zelf maakt framesnelheden tot ~ 200 Hz mogelijk, maar we vinden dat lagere snelheden frameverlies voorkomen en voldoende temporele resolutie bieden voor het volgen van oogleden. Het infraroodlicht moet worden geplaatst om de perioculaire vacht gelijkmatig te verlichten zonder overmatige reflectie van het hoornvlies te creëren wanneer het oog open is. Figuur 3A toont een voorbeeldbeeld van een opnamesessie met acceptabele verlichting. De picamera-acquisitiesoftware (picameraStream.py) is ontworpen om consistente instellingen te bieden gedurende een sessie door de witbalans en versterking van de camera in te stellen en vast te houden op basis van de verlichtingsomstandigheden wanneer de camera wordt geïnitialiseerd.

Zodra een gedragssessie is geïnitialiseerd, worden gegevens van de camera en andere hardwarecomponenten van het platform automatisch geregistreerd. Gegevenslogboeken worden gemaakt in een map met de naam datum en waardeinvoer voor het dier-id-veld in de GUI. Cameraframes en tijdstempels voor elke proef worden opgeslagen in afzonderlijke bestanden die worden benoemd met behulp van de dier-ID, experimentdatum en proefnummer. Platformgebeurtenissen voor elke sessie, waaronder wielsnelheid, proefstarts, proefstops en CS- en VS-timing, worden opgeslagen als één .txt bestand.

Gegevens die naar de hostmachine worden overgebracht, kunnen vervolgens worden geanalyseerd zoals beschreven in sectie 4 van het protocol. Als u analyzeData.py uitvoert op een doelmap, wordt een .npy-container gemaakt voor ooglidpositie versus tijd voor alle proeven in een array op basis van analyse van de camerabestanden. Dit containerbestand wordt gemaakt in de map die wordt geanalyseerd. Zodra alle sessies voor een bepaald dier zijn geanalyseerd, kunnen alle sessies worden uitgelijnd en samengevoegd met behulp van summarizeSessions.py. De resultaten van een dier dat gedurende 8 sessies DEC is getraind, zijn weergegeven in figuur 3B. Bovendien kunnen afzonderlijke proefversies worden weergegeven als zichtbaar .mp4 bestanden met behulp van het hulpprogramma session2mp4s.py. Dit hulpprogramma drukt een vierkant in de linkerbovenhoek van de film om aan te geven wanneer de CS en US worden toegepast. Voorbeeld DEC-onderzoeken die op deze manier zijn voorbereid, worden naast elkaar gepresenteerd als aanvullende video 1. Het linkerpaneel toont een proef waarbij het dier met succes zijn oog sluit als reactie op de LED CS. In het rechterdeelvenster knippert het dier niet totdat de VS begint.

Dieren die volgens de protocollen in punt 3 op DEC zijn getraind en met de voorgaande overwegingen zijn geregistreerd, moeten duidelijke aanwijzingen vertonen van goed getimede CER's die geleidelijk gedurende meerdere trainingsdagen zijn verkregen. Voorbeelden van gedragssporen zonder CER's bij een ongetraind dier en sporen met robuuste CER's van een getraind dier zijn weergegeven in figuur 3B. Zoals deze sporen laten zien, zouden naïeve dieren geen reactie op de CS moeten vertonen, maar een robuuste reactie op de VS. CER's moeten geleidelijk toenemen in zowel grootte als frequentie door middel van gedragssessies die gedurende dagen worden uitgevoerd (figuur 3B-D). Suboptimale lichtomstandigheden daarentegen beperken de kwaliteit van de verkregen gegevens ernstig. Wanneer het contrast tussen het oog en de omringende vacht laag is (figuur 3E), kunnen kleine veranderingen in het beeld de opgenomen vorm van de UR gedurende één sessie aanzienlijk veranderen en de signaal-ruisverhouding voor het detecteren van de ooglidpositie verminderen (figuur 3F-G).

Om hifi-ooglidopnamen te garanderen, is een optimale plaatsing van de lichtbron van cruciaal belang. De verlichtings-LED moet direct op het opgenomen oog worden getraind. Als plaatsing resulteert in overmatige verblinding op het hoornvliesoppervlak, kan een diffuser over de LED-array worden geplaatst om dit effect te verminderen.

Workflow voor DTSC-experimenten en -analyse
Veel van de overwegingen voor experimentele parameterselectie zijn vergelijkbaar tussen delay tactile shockle conditioning (DTSC) en DEC. Hier zullen we wijzen op degenen die verschillen. In de voorbeeldgegevens werd de DTSC CS-duur ingesteld op 250 ms met een Amerikaanse duur van 50 ms. Dit kortere inter-stimulus interval werd gekozen om nauw aan te sluiten bij de kortere duur die wordt beschreven als optimaal voor DTSC-leren20. Andere platformparameters die via de GUI werden ingesteld, waren identiek aan die voor DEC.

Een goede plaatsing van de tactiele stimulus is van cruciaal belang voor het leren in DTSC. We monteren de tactiele stimulus zodanig dat het schuimuiteinde iets boven de neus van het dier is gecentreerd op een afstand van ongeveer 1,5 cm in de neutrale positie. Eenmaal gemonteerd, kan de stimulus met de hand worden gedraaid wanneer een sessie niet wordt uitgevoerd. Tijdens sessies houdt de stappenmotor de stimulus op een precieze locatie vast totdat een VS wordt geactiveerd. Om ervoor te zorgen dat de positionering correct is, houden we een voorbereidende sessie van ongeveer drie proeven. Gebeurtenissen die op de roterende encoder zijn geregistreerd, worden afgedrukt op het terminalscherm en deze afdruk kan worden gebruikt om de amplitude van dierlijke URs in realtime te bewaken. Hoewel de maximale amplitude van proef tot proef zal variëren, moeten dieren met een gemiddeld maximum van ~ 40 tellen op de encoder gedurende de korte sessie goed presteren in de DTSC-taak. Op basis van de instellingen van de roterende encoderregeling komt deze waarde overeen met 24 cm/s, waarbij een negatieve waarde aangeeft dat het dier achteruit beweegt op het wiel.

De organisatie en naamgeving van bestanden die in de loop van DTSC-sessies worden geproduceerd, zijn dezelfde als die geproduceerd in DEC. Running analyzeSession.py maakt een .npy-container voor wielsnelheid versus tijd voor alle proeven in een array van analyse van de gegevens die zijn vastgelegd in het .csv bestand. Zodra alle sessies voor een bepaald dier zijn geanalyseerd, kunnen alle sessies worden uitgelijnd en samengevoegd met behulp van summarizeSession.py. Resultaten van een dier getraind voor 5 sessies DEC zijn weergegeven in figuur 4A. Wat DEC betreft, kunnen de camera-opnamen van DTSC worden geconverteerd naar zichtbare .mp4 bestanden. Voorbeeld DTSC-onderzoeken worden naast elkaar getoond in Aanvullende video 2. Het linkerpaneel toont een proef waarbij het dier met succes het wiel terugdraait als reactie op de LED CS. In het rechterdeelvenster slaagt het dier er niet in om het wiel te bewegen totdat de tactiele stimulus US is toegepast.

Het tijdsverloop en de amplitude ten opzichte van de UR van reacties bij dieren die getraind zijn op het DTSC-paradigma vertonen kwalitatieve overeenkomsten met die getraind op DEC. Naïeve dieren mogen geen reactie op de CS vertonen en leren het wiel naar achteren te bewegen als reactie op de CS alleen na herhaalde blootstelling aan de gepaarde CS en US. De frequentie en amplitude van CER's nemen toe naarmate de training vordert (figuur 4A,B). In het geval van DTSC hebben we ontdekt dat UR-amplitude vroeg in de training een goede voorspeller is van het succes van leren. In een cohort van dieren getraind met een VS die lage amplitude URs produceerde (<20 cm / s), leerde geen enkel dier om consequent CER's te produceren na 4 dagen training (Figuur 4C, D).

Verschillen tussen DEC- en DTSC-training
DEC en DTSC verschillen op belangrijke punten. Ten eerste vindt DTSC-leren op dit platform sneller plaats, waarbij de meeste dieren een hoge mate van taakvaardigheid bereiken op de derde dag van training en asymptotische prestaties op dag vijf. DEC leren gaat voor de meeste dieren minstens 3 dagen langzamer. Ten tweede bevat het DTSC-systeem automatische detectie van succesvolle CER's, die dienen als een feedbacksignaal naar het apparaat om de amplitude van de tactiele stimulus te verminderen. Deze trainingsprocedure bootst eyeblink-conditionering na, waarbij verbeterde CR-prestaties gedeeltelijke bescherming bieden tegen een aversieve hoornvliesluchtwolk. Daarentegen zijn hoofdgefixeerde dieren in het DTSC-paradigma niet in staat om zichzelf te beschermen tegen de tactiele stimulus door hun motorische respons alleen. Door de Amerikaanse amplitude te baseren op de aanwezigheid van een CR, hebben dieren de mogelijkheid om zichzelf te beschermen tegen de aversieve stimulus.

Figure 1
Figuur 1: Platformattributen en -ontwerp. (A) Platformelementen voor het registreren van diergedrag onder hoofdvaste omstandigheden. De muis is aangepast van een Biorender-afbeelding. (B) Timing en stimuli voor DEC- en DTSC-conditionering. Een door de gebruiker gedefinieerd inter-stimulusinterval (ISI) bepaalt hoe lang het CS-tijdperk duurt. CS- en US-tijdperken zijn ontworpen om samen te eindigen. (C) Afbeelding die de plaatsing van belangrijke platformelementen demonstreert. 1) Stappenmotor voor de controle van de DTSC US. 2) Loopwiel voor het dier. 3) Roterende encoder voor het volgen van wielbewegingen. 4) Schuim geplakt over een acrylarm die dient als de DTSC tactiele stimulus. 5) LED CS. 6) Magneetventiel en uitlaat die de DEC US biedt. 7) Picamera voor het registreren van dierlijk gedrag. 8) Infrarood LED voor podiumverlichting. Klik hier om een grotere versie van deze figuur te bekijken.

Figure 2
Figuur 2: Bedrading van platformhardware-elementen. (A) Fritzing bedradingsschema van platform hardware wanneer volledig geassembleerd. Draden worden gekleurd door modules met oranje = Camera module; geel = DEC US module; blauw = LED CS module; paars = DTSC US module; groen = Roterende encodermodule. De picamera is uitgesloten, maar wordt bevestigd aan de seriële interface van de camera op het oppervlak van de Raspberry Pi. Batterijen geven gelijkstroomvoedingen aan bij de opgegeven spanning. (B-F) Gelijkwaardig bedradingsschema voor geïsoleerde modules. Draden zijn opnieuw gekleurd, zodat rood en zwart altijd respectievelijk positieve voedingsrail en aarde aangeven, terwijl andere draden zijn gekleurd om het circuit gemakkelijk te kunnen volgen. Klik hier om een grotere versie van deze figuur te bekijken.

Figure 3
Figuur 3: Representatieve resultaten van DEC-training. (A) Voorbeeld cameraframe van een sessie met acceptabele lichtomstandigheden. Let op het hoge contrast tussen het oog en de perioculaire vacht. (B) Prestaties van een enkel dier tijdens sessies die gedurende dagen in het DEC-paradigma werden uitgevoerd. Horizontale lijnen geven de prestaties op elke proef aan, met warme kleuren die meer ooglidsluiting aangeven. De meest linkse roodzwarte verticale lijn geeft het begin van de CS aan, terwijl de stippellijn de initiatie van de VS aangeeft. De tweede ononderbroken lijn duidt op stopzetting van de CS en DE VS. Merk op dat het aantal onderzoeken met succesvolle reacties tijdens de CS toeneemt tijdens trainingssessies. (C) Dierprestaties van (B) met individuele sporen afgeleid van het onderzoeksgemiddelde voor de sessie per dag. De tintverzadiging geeft het sessienummer aan met een hogere verzadiging voor latere sessies. (D) Prestaties voor alle dieren in de DEC-groep (n = 7). De dunne lijnen geven het percentage proeven met een detecteerbare CR van elke sessie voor elk dier aan. De dikke lijnen geven het sessiemiddel aan voor alle dieren. (E) Voorbeeldcameraframe van een sessie met suboptimale verlichtingsomstandigheden. (F) Kwantificering van afzonderlijke proeven die met slechte verlichting zijn geregistreerd. De UR is detecteerbaar, maar met een lager contrast en een hogere variabiliteit dan onder optimale lichtomstandigheden. (G) Sessiegemiddelde sporen van proeven gepresenteerd in (F). Klik hier om een grotere versie van deze figuur te bekijken.

Figure 4
Figuur 4: Representatieve resultaten van DTSC-training. (A) Prestaties van een enkel dier tijdens sessies die gedurende dagen in het DTSC-paradigma werden uitgevoerd. Horizontale lijnen geven de prestaties van elke proef aan, met warme kleuren die de achterwaartse wielbeweging aangeven. De meest linkse zwarte verticale lijn geeft het begin van de CS aan, terwijl de stippellijn de initiatie van de VS aangeeft. De tweede ononderbroken lijn duidt op stopzetting van de CS en DE VS. (B) Dierprestaties van (A) met individuele sporen die zijn afgeleid van het onderzoeksgemiddelde voor de sessie per dag. De tintverzadiging geeft het sessienummer aan met een hogere verzadiging voor latere sessies. (C) Prestaties voor alle dieren in de DTSC-groep (n = 6). De dunne lijnen geven het percentage proeven met een detecteerbare CR van elke sessie voor elk dier aan. De dikke lijnen geven het sessiemiddel aan voor alle dieren. (D) Enkele studies zoals in (A) van een cohort waarbij de Amerikaanse intensiteit lage amplitude-URs uitlokte. (E) Sessiegemiddelde sporen gepresenteerd als in (B) voor de dieren die aan de zwakke VS zijn onderworpen. (F) Prestaties voor alle dieren in DTSC met zwakke VS (n = 6). Klik hier om een grotere versie van deze figuur te bekijken.

Aanvullende video 1: Voorbeeld DEC hit and miss trials. DEC-onderzoeken worden vergeleken in video 1. Elke video toont proeven waarin het onderwerp (links) of niet maakt (rechts) de doel-CR gesynchroniseerd en naast elkaar afspeelt ter vergelijking. De LED CS gaat branden wanneer het blauwe vierkant in de linkerbovenhoek van elke video verschijnt. Het Amerikaanse stuursignaal is actief wanneer een wit vierkant het blauwe vierkant vervangt. CS- en US-besturingssignalen eindigen samen wanneer het vierkant verdwijnt. Klik hier om deze video te downloaden.

Aanvullende video 2: Sample DTSC hit and miss trials. Video 2 toont DTSC trial vergelijking. Elke video toont proeven waarin het onderwerp (links) of niet maakt (rechts) de doel-CR gesynchroniseerd en naast elkaar afspeelt ter vergelijking. De LED CS gaat branden wanneer het blauwe vierkant in de linkerbovenhoek van elke video verschijnt. Het Amerikaanse stuursignaal is actief wanneer een wit vierkant het blauwe vierkant vervangt. CS- en US-besturingssignalen eindigen samen wanneer het vierkant verdwijnt. Klik hier om deze video te downloaden.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Het platform met bijbehorende protocollen dat hier wordt beschreven, kan worden gebruikt om het gedrag van dieren betrouwbaar te volgen in twee sensorische associatieve leertaken. Elke taak is afhankelijk van intacte communicatie via het klimvezelpad. In het hier beschreven ontwerp nemen we elementen op om het leren en vastleggen /verstoren van de cerebellaire respons te vergemakkelijken. Deze omvatten een wiel om vrije voortbeweging11,18 mogelijk te maken, evenals hoofdfixatie. Het wiel laat muisonderwerpen vrij bewegen, wat van cruciaal belang is gebleken voor DEC-acquisitie18. Hoofdfixatie bij muizen stelt onderzoekers in staat om te profiteren van genetische, elektrofysiologische, beeldvormings- en optogenetische benaderingen die moeilijker te gebruiken zijn in andere modelsoorten of onder vrij bewegende omstandigheden12. Voor elk van deze toepassingen hebben we ons ontwerp gebruikt. De software die op de microcontrollers wordt uitgevoerd, kan eenvoudig worden aangepast om timingsignalen te regelen voor multifotonenacquisitie of synchronisatie met optogenetische stimulatie, beide met precisie van minder dan een milliseconde. Er moet voor worden gezorgd dat de dierlijke perceptie van optogenetische en beeldvormingsapparatuur wordt geminimaliseerd wanneer deze worden gecombineerd met gedragsexperimenten. Veel multifoton-systemen zenden bijvoorbeeld een hoorbaar geluid uit hun galvanometrische scanners of rolluiken wanneer de beeldvorming begint. Als de overnames worden geactiveerd door proefstarts, kunnen dergelijke geluiden dienen als een onbedoelde aanwijzing voor dierlijke proefpersonen dat er een stimulans op komst is.

De besturing van het gedragsapparaat is gebouwd rond een SBC, die wordt gebruikt om een grafische gebruikersinterface te genereren voor het beheren van het experiment, de camera en gegevensexport. De SBC stuurt ook opdrachten naar twee microcontrollers die de timing van proeven afhandelen en hardwarecomponenten zoals stimuluspresentatie en de roterende encoder rechtstreeks besturen. De protocollen die hier worden beschreven, zijn getest met behulp van een Raspberry Pi 3B + of 4B aangesloten op een Arduino Vanwege de timing van het besturingsexperiment en een Arduino Uno om de presentatie van de DTSC US te regelen. Andere hardware-ontwerpimplementaties zijn mogelijk, maar zijn niet getest met de meegeleverde software.

Om het gebruik van meerdere rigs parallel te vergemakkelijken, raden we aan om de SBC in de "headless" -modus te gebruiken. In deze configuratie wordt een hostcomputer gebruikt voor interactie met de SBC. Een ethernet-switch maakt gelijktijdige internetverbinding mogelijk met zowel een hostcomputer als SBC. De switch zorgt ook voor directe communicatie tussen de host en SBC met snelle gegevensoverdracht. Als gevolg hiervan zorgt de switch voor eenvoudige gegevensoverdracht en SBC-pakketonderhoud.

Voor het parallel laten lopen van meerdere rigs, moet elke rig in zijn eigen gespecialiseerde behuizing worden geplaatst. Deze leefruimten moeten voorzien zijn van geluidsisolatie indien zij dicht bij elkaar worden geplaatst. Het onderdrukken van geluid tussen aangrenzende rigs kan helpen om onbedoelde auditieve signalen van stimuli geproduceerd in naburige behuizingen te voorkomen.

Het gebruik van een enkel platform voor DEC en DTSC stelt onderzoekers in staat om flexibel te navigeren door de sterke en zwakke punten van elk paradigma. DEC heeft inzicht dat is afgeleid van tientallen jaren onderzoek naar welke hersengebieden en specifieke cerebellaire circuitelementen betrokken zijn bij het leren en uitvoeren van taken 1,4,11,13,14,15,19. Bij muizen bevindt het gebied van de cerebellaire cortex zich echter het vaakst geassocieerd met eyeblink-conditionering11,12 diep in de primaire cerebellaire fissuur (zie 15,17,27 die een DEC-geassocieerd gebied van oppervlakkige lobule VI aantonen). Een diepe locus voor leren bemoeilijkt de toegang voor optische experimenten, met name multifoton beeldvorming van celactiviteit en optogenetische perturbatie-experimenten. Daarentegen bevinden de cerebellaire substraten van DTSC zich gedeeltelijk in het oppervlakkige aspect van lobules IV / V20. DTSC presenteert daarom optische toegang vergelijkbaar met die van de dorsale neocortex, een populaire site voor systeemneurowetenschappelijk onderzoek.

In ons ontwerp wordt het gedrag van dieren gevolgd met behulp van een roterende encoder die aan het wiel en een camera is bevestigd. We hebben deze methoden geselecteerd voor lage kosten en eenvoudige implementatie. In sommige gevallen kunnen andere trackingmethoden meer ruimtelijke en temporele nauwkeurigheid bieden. De ooglidpositie in DEC is bijvoorbeeld vaak gevolgd met behulp van Hall-effectsensoren28,29 of elektromyogramopnamen van het periorbitale gebied van de musculus orbicularis oculi30,31. Evenzo geeft het volgen van voortbeweging door het detecteren van wielbewegingen een minder gedetailleerd beeld van het gedrag van dieren dan op afbeeldingen gebaseerde posevolgalgoritmen zoals SLEAP32 en DeepLabCut33. Camera-gebaseerde opnames maken de toevoeging van dergelijke benaderingen mogelijk.

Hier hebben we een platform gepresenteerd voor het volgen van dierlijk gedrag tijdens twee klimmende vezelafhankelijke associatieve leerparadigma's. Ons platform is bedoeld om de toegankelijkheid van deze methoden te vergroten, zowel in termen van kosten als gebruiksgemak.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

De auteurs hebben geen belangenconflicten te onthullen.

Acknowledgments

Dit werk wordt ondersteund door subsidies van de National Institutes of Mental Health NRSA F32 MH120887-03 (aan G.J.B.) en R01 NS045193 en R01 MH115750 (aan S.S-H.W.). Wij danken Drs. Bas Koekkoek en Henk-Jan Boele voor nuttige discussies voor het optimaliseren van de DEC setup en Drs. Yue Wang en Xiaoying Chen voor nuttige discussies voor het optimaliseren van de DTSC setup.

Materials

Name Company Catalog Number Comments
"B" Quick Base For C&B METABOND - 10 mL bottle Parkell S398 Dental cement solvent
"C" Universal TBB Catalyst - 0.7 mL Parkell S371 Catalyst
#8 Washers Thorlabs W8S038 Washers
0.250" (1/4") x 8.00" Stainless Steel Precision Shafting Servocity 634172 1/4" shaft
0.250” (0.770") Clamping Hub Servocity 545588 Clamping hub
1/4" to 6 mm Set Screw Shaft Coupler- 5 pack Actobotics 625106 Shaft-coupling sleeve
1/4"-20 Cap Screws, 3/4" Long Thorlabs SH25S075 1/4" bolt
100 pcs 5 mm 395–400 nm UV Ultraviolet LED Light Emitting Diode Clear Round Lens 29 mm Long Lead (DC 3V) LEDs Lights +100 pcs Resistors EDGELEC ‎ED_YT05_U_100Pcs CS LEDs
2 m Micro HDMI to DVI-D Cable - M/M - 2 m Micro HDMI to DVI Cable - 19 pin HDMI (D) Male to DVI-D Male - 1920 x 1200 Video Star-tech ‎HDDDVIMM2M Raspberry Pi4B to monitor cable
256 GB Ultra Fit USB 3.1 Flash Drive SanDisk ‎SDCZ430-256G-G46 USB thumb drive
3.3 V–5 V 4 Channels Logic Level Converter Bi-Directional Shifter Module Amazon B00ZC6B8VM Logic level shifter
32 GB 95 MB/s (U1) microSDHC EVO Select Memory Card Samsung ‎MB-ME32GA/AM microSD card
4.50" Aluminum Channel Servocity 585444 4.5" aluminum channel
48-LED CCTV Ir Infrared Night Vision Illuminator Towallmark SODIAL Infrared light array
4PCS Breadboards Kit Include 2PCS 830 Point 2PCS 400 Point Solderless Breadboards for Proto Shield Distribution Connecting Blocks REXQualis B07DL13RZH Breadboard
5 Port Gigabit Unmanaged Ethernet Network Switch TP-Link ‎TL-SG105 Ethernet switch
5 V 2.5 A Raspberry Pi 3 B+ Power Supply/Adapter Canakit ‎DCAR-RSP-2A5 Power supply for Raspberry Pi 3B+
5-0 ETHILON BLACK 1 x 18" C-3 Ethicon 668G Sutures
6 mm Shaft Encoder 2000 PPR Pushpull Line Driver Universal Output Line Driver Output 5-26 V dc Supply Calt  B01EWER68I Rotary encoder
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 1", 5 Pack Thorlabs TR1-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 2", 5 Pack Thorlabs TR2-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 4", 5 Pack Thorlabs TR4-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 6", 5 Pack Thorlabs TR6-P5 Optical posts
Ø1/2" Post Holder, Spring-Loaded Hex-Locking Thumbscrew, L = 2" Thorlabs PH2 Optical post holder
Adapter-062-M X LUER LOCK-F The Lee Co. TMRA3201950Z Solenoid valve luer adapter
Aeromat Foam Roller Size: 36" Length Aeromat B002H3CMUE Foam roller
Aluminum Breadboard 10" x 12" x 1/2", 1/4"-20 Taps Thorlabs MB1012 Aluminum breadboard
Amazon Basics HDMI to DVI Adapter Cable, Black, 6 Feet, 1-Pack Amazon HL-007347 Raspberry Pi3B+ to monitor cable
Arduino  Uno R3 Arduino A000066 Arduino Uno (microcontroller board)
Arduino Due Arduino ‎A000062 Arduino Due (microcontroller board)
Bench Power Supply, Single, Adjustable, 3 Output, 0 V, 24 V, 0 A, 2 A Tenma 72-8335A Power supply
Clear Scratch- and UV-Resistant Cast Acrylic Sheet, 12" x 24" x 1/8" McMaster Carr 8560K257 Acrylic sheet
CNC Stepper Motor Driver 1.0–4.2 A 20–50 V DC 1/128 Micro-Step Resolutions for Nema 17 and 23 Stepper Motor Stepper Online B06Y5VPSFN Stepper motor driver
Compact Compressed Air Regulator, Inline Relieving, Brass Housing, 1/4 NPT McMaster Carr 6763K13 Air source regulator
Cotton Swab Puritan 806-WC Cotton swab
Dell 1908FP 19" Flat Panel Monitor - 1908FPC Dell 1908FPC Computer monitor
Flex Cable for Raspberry Pi Camera Adafruit 2144 camera serial interface cable
High Torque Nema 17 Bipolar Stepper Motor 92 oz·in/65 N·cm 2.1 A Extruder Motor Stepper Online 17HS24-2104S Stepper motor
Isoflurane Henry Schein 66794001725 Isoflurane
Krazy Maximum Bond Permanent Glue, 0.18 oz. Krazy Glue KG483 Cyanoacrylate glue
Lidocaine HCl VetOne 510212 Lidocaine
Low-Strength Steel Hex Nut, Grade 2, Zinc-Plated, 1/4"-20 Thread Size McMaster Carr 90473A029 Nuts
M3 x 50 mm Partially Threaded Hex Key Socket Cap Head Screws 10 pcs Uxcell A16040100ux1380 M3 bolt
NEMA 17 Stepper Motor Mount ACTOBOTICS 555152 Stepper motor mount
Official Raspberry Pi Power Supply 5.1 V 3 A with USB C - 1.5 m long Adafruit 4298 Power supply for Raspberry Pi 4B
Optixcare Dog & Cat Eye Lube Lubricating Gel, 0.70-oz tube Optixcare 142422 Opthalimic ointment
Precision Stainless Steel Ball Bearing, Shielded, Trade No. R188-2Z, 13000 rpm Maximum Speed McMaster-Carr 3759T57 Bearing
Premium Female/Female Jumper Wires - 40 x 6" Adafruit 266 Wires
Premium Female/Male 'Extension' Jumper Wires - 40 x 6" (150 mm) Adafruit 826 Wires
Premium Male/Male Jumper Wires - 40 x 6" Adafruit 758 Wires
Radiopaque L-Powder for C&B METABOND - 5 g Parkell S396 Dental cement powder
Raspberry Pi (3B+ or 4B) Adafruit 3775 or 4295 Raspberry Pi
Raspberry Pi NoIR Camera Module V2 - 8MP 1080P30 Raspberry Pi Foundation RPI3-NOIR-V2 Raspberry NoIR V2 camera
Right-Angle Bracket, 1/4" (M6) Counterbored Slot, 8-32 Taps Thorlabs AB90E Right-angle bracket
Right-Angle Clamp for Ø1/2" Posts, 3/16" Hex Thorlabs RA90 Right-angle optical post clamp
Right-Angle End Clamp for Ø1/2" Posts, 1/4"-20 Stud and 3/16" Hex Thorlabs RA180 Right-angle end clamp
RJ45 Cat-6 Ethernet Patch Internet Cable Amazon ‎CAT6-7FT-5P-BLUE Ethernet cable
Rotating Clamp for Ø1/2" Posts, 360° Continuously Adjustable, 3/16" Hex Thorlabs SWC Rotating optical post clamps
Spike & Hold Driver-0.1 TO 5 MS The Lee Co. IECX0501350A Solenoid valve driver
Swivel Base Adapter Thorlabs UPHA Post holder adapter
USB 2.0 A-Male to Micro B Cable, 6 feet Amazon ‎7T9MV4 USB2 type A to USB2 micro cable
USB 2.0 Printer Cable - A-Male to B-Male, 6 Feet (1.8 m) Amazon B072L34SZS USB2 type B to USB2 type A cable
VHS-M/SP-12 V The Lee Co. INKX0514900A Solenoid valve
Zinc-Plated Steel 1/4" washer, OD 1.000" McMaster Carr 91090A108 Washers

DOWNLOAD MATERIALS LIST

References

  1. McCormick, D. A., Lavond, D. G., Clark, G. A., Kettner, R. E., Rising, C. E., Thompson, R. F. The engram found? Role of the cerebellum in classical conditioning of nictitating membrane and eyelid responses. Bulletin of the Psychonomic Society. 18 (3), 103-105 (1981).
  2. McCormick, D. A., Clark, G. A., Lavond, D. G., Thompson, R. F. Initial localization of the memory trace for a basic form of learning. Proceedings of the National Academy of Sciences of the United States of America. 79 (8), 2731-2735 (1982).
  3. McCormick, D. A., Thompson, R. F. Cerebellum: essential involvement in the classically conditioned eyelid response. Science. 223 (4633), New York, N.Y. 296-299 (1984).
  4. Krupa, D. J., Thompson, J. K., Thompson, R. F. Localization of a memory trace in the mammalian brain. Science. 260 (5110), New York, N.Y. 989-991 (1993).
  5. Llinás, R., Sugimori, M. Electrophysiological properties of in vitro Purkinje cell dendrites in mammalian cerebellar slices. The Journal of Physiology. 305, 197-213 (1980).
  6. Mintz, M., Lavond, D. G., Zhang, A. A., Yun, Y., Thompson, R. F. Unilateral inferior olive NMDA lesion leads to unilateral deficit in acquisition and retention of eyelid classical conditioning. Behavioral and Neural Biology. 61 (3), 218-224 (1994).
  7. Welsh, J. P., Harvey, J. A. Cerebellar lesions and the nictitating membrane reflex: performance deficits of the conditioned and unconditioned response. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 9 (1), 299-311 (1989).
  8. Mauk, M. D., Steinmetz, J. E., Thompson, R. F. Classical conditioning using stimulation of the inferior olive as the unconditioned stimulus. Proceedings of the National Academy of Sciences of the United States of America. 83 (14), 5349-5353 (1986).
  9. Steinmetz, J. E., Lavond, D. G., Thompson, R. F. Classical conditioning in rabbits using pontine nucleus stimulation as a conditioned stimulus and inferior olive stimulation as an unconditioned stimulus. Synapse. 3 (3), New York, N.Y. 225-233 (1989).
  10. Chettih, S. N., McDougle, S. D., Ruffolo, L. I., Medina, J. F. Adaptive timing of motor output in the mouse: The role of movement oscillations in eyelid conditioning. Frontiers in Integrative Neuroscience. 5, 72 (2011).
  11. Heiney, S. A., Wohl, M. P., Chettih, S. N., Ruffolo, L. I., Medina, J. F. Cerebellar-dependent expression of motor learning during eyeblink conditioning in head-fixed mice. The Journal of Neuroscience. 34 (45), 14845-14853 (2014).
  12. Heiney, S. A., Kim, J., Augustine, G. J., Medina, J. F. Precise control of movement kinematics by optogenetic inhibition of purkinje cell activity. Journal of Neuroscience. 34 (6), 2321-2330 (2014).
  13. Ten Brinke, M. M., et al. Evolving models of pavlovian conditioning: Cerebellar cortical dynamics in awake behaving mice. Cell Reports. 13 (9), 1977-1988 (2015).
  14. Gao, Z., et al. Excitatory cerebellar nucleocortical circuit provides internal amplification during associative conditioning. Neuron. 89 (3), 645-657 (2016).
  15. Giovannucci, A., et al. Cerebellar granule cells acquire a widespread predictive feedback signal during motor learning. Nature Neuroscience. 20 (5), 727-734 (2017).
  16. Ten Brinke, M. M., et al. Dynamic modulation of activity in cerebellar nuclei neurons during pavlovian eyeblink conditioning in mice. eLife. 6, 28132 (2017).
  17. Wang, X., Yu, S., Ren, Z., De Zeeuw, C. I., Gao, Z. A FN-MdV pathway and its role in cerebellar multimodular control of sensorimotor behavior. Nature Communications. 11 (1), 6050 (2020).
  18. Albergaria, C., Silva, N. T., Pritchett, D. L., Carey, M. R. Locomotor activity modulates associative learning in mouse cerebellum. Nature Neuroscience. 21 (5), 725-735 (2018).
  19. Kim, O. A., Ohmae, S., Medina, J. F. A cerebello-olivary signal for negative prediction error is sufficient to cause extinction of associative motor learning. Nature Neuroscience. 23 (12), 1550-1554 (2020).
  20. Yamada, T., et al. Sensory experience remodels genome architecture in neural circuit to drive motor learning. Nature. 569 (7758), 708-713 (2019).
  21. Horlington, M. Startle response circadian rhythm in rats: lack of correlation with motor activity. Physiology & Behavior. 5 (1), 49-53 (1970).
  22. Yeomans, J. S., Li, L., Scott, B. W., Frankland, P. W. Tactile, acoustic and vestibular systems sum to elicit the startle reflex. Neuroscience and Biobehavioral Reviews. 26 (1), 1-11 (2002).
  23. Raspberry Pi Operating system images. , Available from: https://www.raspberrypi.com/software/operationg-systems/ (2021).
  24. VNC Server. VNC® Connect. , Available from: https://www.realvnc.com/en/connect/download/vnc/ (2021).
  25. Anaconda: The world's most popular data science platform. , Available from: https://xddebuganaconda.xdlab.co/ (2021).
  26. De Zeeuw, C. I., Ten Brinke, M. M. Motor learning and the cerebellum. Cold Spring Harbor Perspectives in Biology. 7 (9), 021683 (2015).
  27. Badura, A., et al. Normal cognitive and social development require posterior cerebellar activity. eLife. 7, 36401 (2018).
  28. Koekkoek, S. K. E., Den Ouden, W. L., Perry, G., Highstein, S. M., De Zeeuw, C. I. Monitoring kinetic and frequency-domain properties of eyelid responses in mice with magnetic distance measurement technique. Journal of Neurophysiology. 88 (4), 2124-2133 (2002).
  29. Kloth, A. D., et al. Cerebellar associative sensory learning defects in five mouse autism models. eLife. 4, 06085 (2015).
  30. Boele, H. -J., Koekkoek, S. K. E., De Zeeuw, C. I. Cerebellar and extracerebellar involvement in mouse eyeblink conditioning: the ACDC model. Frontiers in Cellular Neuroscience. 3, (2010).
  31. Lin, C., Disterhoft, J., Weiss, C. Whisker-signaled eyeblink classical conditioning in head-fixed Mice. Journal of Visualized Experiments: JoVE. (109), e53310 (2016).
  32. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  33. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).

Tags

Neurowetenschappen Nummer 179 cerebellum associatief motorisch leren vertraging eyeblink conditionering vertraging tactiele stimulus conditionering
Een flexibel platform voor het monitoren van cerebellum-afhankelijk sensorisch associatief leren
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Broussard, G. J., Kislin, M., Jung,More

Broussard, G. J., Kislin, M., Jung, C., Wang, S. S. H. A Flexible Platform for Monitoring Cerebellum-Dependent Sensory Associative Learning. J. Vis. Exp. (179), e63205, doi:10.3791/63205 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter