Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

En flexibel plattform för övervakning av cerebellumberoende sensorisk associativt lärande

Published: January 19, 2022 doi: 10.3791/63205

Summary

Vi har utvecklat en enda plattform för att spåra djurs beteende under två klättringsfiberberoende associativa inlärningsuppgifter. Den billiga designen möjliggör integration med optogenetiska eller bildbehandlingsexperiment riktade mot klättring av fiberassocierad cerebellär aktivitet.

Abstract

Klättringsfiberingångar till Purkinje-celler ger lärorika signaler som är kritiska för cerebellumberoende associativt lärande. Att studera dessa signaler hos huvudfasta möss underlättar användningen av bildbehandling, elektrofysiologiska och optogenetiska metoder. Här utvecklades en billig beteendeplattform (~ $ 1000) som möjliggör spårning av associativt lärande hos huvudfästa möss som lokomote fritt på ett löphjul. Plattformen innehåller två vanliga associativa inlärningsparadigmer: eyeblink-konditionering och fördröjd taktil skrämseln konditionering. Beteendet spåras med hjälp av en kamera och hjulrörelsen av en detektor. Vi beskriver komponenterna och installationen och tillhandahåller ett detaljerat protokoll för träning och dataanalys. Denna plattform möjliggör införlivande av optogenetisk stimulering och fluorescensavbildning. Designen gör det möjligt för en enda värddator att styra flera plattformar för träning av flera djur samtidigt.

Introduction

Pavlovian konditionering av sub-sekunds association mellan stimuli för att framkalla ett konditionerat svar har länge använts för att undersöka cerebellärberoende lärande. Till exempel, i klassisk fördröjning eyeblink konditionering (DEC), lär sig djur att göra en vältad skyddande blinkning som svar på en neutral villkorlig stimulans (CS; t.ex. en blixt av ljus eller hörselton) när den paras upprepade gånger med en ovillkorlig stimulans (US; t.ex. en luftpuff applicerad på hornhinnan) som alltid framkallar en reflexblinkning, och som kommer vid eller nära slutet av CS. Det inlärda svaret kallas ett konditionerat svar (CR), medan reflexsvaret kallas det okonditionerade svaret (UR). Hos kaniner stör cerebellumspecifika lesioner denna form avlärande 1,2,3,4. Vidare ger Purkinje-cellkomplexspikar, drivna av deras klättringsfiberingångar5, en nödvändig 6,7 och tillräcklig 8,9-signal för förvärv av korrekt tidsinsatta CR.

På senare tid har klättrande fiberberoende associativa inlärningsparadigmer utvecklats för huvud fixerade möss. DEC var det första associativa inlärningsparadigmet som anpassades till denna konfiguration10,11. DEC hos huvudbestämda möss har använts för att identifiera cerebellära regioner 11,12,13,14,15,16,17 och kretselement 11,1 2,13,14,15,18,19 som krävs för förvärv och utrotning av uppgifter. Detta tillvägagångssätt har också använts för att visa hur den fysiologiska representationen av uppgiftsparametrar på cellulär nivå utvecklas med inlärning 13,15,16.

Förutom eyeblink utvecklades det fördröjda DTSC-paradigmet (delayle tactile conditioning) nyligen som en ny associativ inlärningsuppgift för huvudbundna möss20. Konceptuellt liknar DEC, DTSC innebär presentationen av en neutral CS med en US, en kran mot ansiktet som är tillräcklig i intensitet för att engagera en skrämsloreflex21,22 som UR. I DTSC-paradigmet läses både UR och CR ut som bakåtrörelse på ett hjul. DTSC har nu använts för att avslöja hur associativt lärande förändrar cerebellär aktivitet och mönster för genuttryck20.

I detta arbete utvecklades en metod för flexibel tillämpning av DEC eller DTSC i en enda plattform. Stimulus- och plattformsattributen schematiseras i figur 1. Designen innehåller förmågan att spåra djurbeteende med en kamera samt en roterande kodare för att spåra musrörelse på ett hjul. Alla aspekter av dataloggning och försöksstruktur styrs av parade mikrokontroller (Arduino) och en enkortsdator (SBC; Hallon Pi). Dessa enheter kan nås via ett medföljande grafiskt användargränssnitt. Här presenterar vi ett arbetsflöde för installation, förberedelse och körning av experiment samt en anpassad analyspipeline för datavisualisering.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Djurprotokollen som beskrivs här har godkänts av djurvårds- och användningskommittéerna vid Princeton University.

1. Ställa in SBC

  1. Anslut CSI-kabeln (Camera Serial Interface) till Raspberry NoIR V2-kameran och kameraporten på SBC.
  2. Ladda ned operativsystemet för SBC till värddatorn. Skriv operativsystemavbildningen till ett mikrosäkert digitalt kort (microSD).
    OBS: Detaljerade instruktioner för dessa procedurer för en Raspberry Pi SBC finns någon annanstans23. Systemet har testats med följande operativsystem: Stretch, Buster, Bullseye.
  3. För att möjliggöra säker skalkommunikation, skapa en förlängningslös fil som heter "ssh" i startpartitionen på microSD-kortet. När detta är gjort matar du ut microSD-kortet från värdmaskinen och sätter in det i SBC microSD-kortplatsen. Slå på SBC genom att ansluta strömförsörjningen.
  4. Förbered SBC för att acceptera en trådbunden anslutning till värden.
    1. Anslut en bildskärm med en lämplig kabel till SBC. Öppna en terminal, skriv kommandot ifconfig och registrera Ethernet IP-adressen för SBC.
      OBS: Raspberry Pi-modell 3B + har en HDMI-skärmport, medan modell 4B har en mikro-HDMI-port.
    2. Gå till fliken Gränssnitt i konfigurationsinställningen för Raspberry Pi och aktivera alternativen för Kamera, SSH (Secure Shell Network Protocol) och Virtual Network Computing (VNC).
  5. Upprätta en trådbunden anslutning mellan värddatorn och SBC.
    1. Anslut en Ethernet-kabel till Ethernet-porten på SBC och en värddator. Anslut den andra änden av dessa kablar till en Ethernet-switch.
    2. Använd en klient för beräkning av virtuella nätverk, till exempel VNC Viewer24 , och få åtkomst till skrivbordet med SBC-IP-adressen och standardautentiseringen (user = "pi", password = "raspberry").
  6. Ladda ner nödvändig programvara som ingår i protokollstegen.
    VARNING: Ändra standardanvändarnamnet och lösenordet för att förhindra obehörig åtkomst till SBC.
    1. Ange följande kommando i SBC-terminalen för att ladda ned riggprogramvaran:
      git-klon --djup=1 https://github.com/gerardjb/assocLearnRig
    2. Ange följande kommandon för att ladda ned nödvändiga python-bibliotek.
      cd assocLearnRig
      python3 setup.py
    3. Om du vill tillåta direkt kontroll över mikrokontrollern ansluter du till SBC och laddar ned mikrokontrollerns integrerade utvecklingsmiljö (IDE) enligt steg 1.6.4-1.6.7.
    4. Öppna webbläsaren på SBC-skrivbordet och navigera till https://arduino.cc/en/software. Ladda ned den senaste Linux ARM 32-bitarsversionen av IDE.
    5. Öppna ett terminalfönster på SBC-skrivbordet och navigera till nedladdningskatalogen genom att skriva cd Downloads/
    6. Om du vill installera IDE skriver du följande kommandon i terminalen:
      tar -xf arduino--linuxarm.tar.xz
      sudo mv arduino- /opt
      sudo /opt/arduino-/install.sh

      (här är versionen av den nedladdade IDE)
    7. Öppna en instans av mikrokontrollerns IDE på SBC-skrivbordet. Välj menyalternativet Verktyg > Hantera bibliotek. Installera biblioteket "Encoder" från Paul Stoffregen.
  7. Utöka SBC-inbyggt minne med en USB-minne.
    1. Sätt i en tummenhet i en USB-port på SBC. Använd en USB 3.0-port om tillgänglig.
    2. Skriv in terminalen ls -l / dev / disk / by-uuid / för att hitta tummenheten och dess unika referens (UUID). Spela in UUID.
    3. Om du vill att pi-användaren ska kunna skriva till USB-enheten skriver du följande kommandon ett efter ett i terminalen:
      sudo mkdir /media/usb
      sudo chown -R pi:pi /media/usb
      sudo mount /dev/sda1 /media/usb -o uid=pi,gid=pi
      OBS: TUMMENheten kan läggas till som en enhet som automatiskt monteras när SBC startas om genom att lägga till följande rad i slutet av fstab-filen på /etc/fstab:
      UUID= /media/usb vfat auto,nofail,noatime,users,rw,uid=pi,gid=pi 0 0

2. Kabelstimulanshårdvara och monteringssteg

  1. Anslut och förbered mikrokontroller.
    1. Anslut SBC till programmeringsporten på mikrokontrollern (Arduino Due) med en USB2 typ A till USB2 mikrokabel.
      OBS: Använd en högkvalitativ kabel som produkten i materialförteckningen för att säkerställa korrekt drift.
    2. Leta reda på "dueAssocLearn.ino" på den nedladdade projektdatabasen. Öppna skissen med mikrokontrollern IDE och ladda upp den till mikrokontrollern som är ansluten till SBC.
    3. Ladda ner och installera lämplig version av Arduino IDE på värddatorn.
    4. Anslut värddatorn till mikrokontrollern (Arduino Uno) med en USB2 typ B till USB2 typ A-kabel.
    5. Gå till GitHub-lagringsplatsen (https://github.com/gerardjb/assocLearnRig) och ladda ned skissen "DTSC_US.ino" till värddatorn.
    6. Kör mikrokontrollernS IDE på värddatorn och öppna skissen "DTSC_US.ino" och ladda sedan upp den till mikrokontrollern.
  2. Fäst ledningar på mikrokontroller, breadboard, lysdioder, roterande kodare, stegmotor med drivrutin och magnetventil med drivrutin som anges i Fritzing-diagrammet i figur 2.
  3. Driv stegmotorn och magnetventilen.
    1. Koppla en kanal i en strömförsörjning korrekt till +V- och GND-stiften på stegmotordrivrutinen.
    2. Slå på strömförsörjningen och ställ in den anslutna kanalspänningen till 25 V.
      OBS: Om anslutningarna mellan stegmotorn, föraren och strömförsörjningen är korrekt konfigurerade tänds en grön indikatorlampa på stegmotordrivrutinen.
    3. Koppla korrekt den positiva ledningen för en strömförsörjning till magnetventildrivrutinens hållspänningsstift och den andra positiva ledningen till spikspänningsstiftet.
    4. Fäst de negativa ledningarna till en mark som delas med styrsignalen.
    5. Slå på strömförsörjningen och ställ in kanalen ansluten till hållspänningen till ca 2,5 V och kanalen ansluten till spikspänning till ca 12 V.
  4. Anslut en luftkälla reglerad till ett tryck på ~ 20 PSI till magnetventilen med hjälp av lueradaptern.
  5. Testa att alla stimuluskomponenter och kamera fungerar som de ska.
    1. Öppna en terminal på SBC och skriv cd ~/assocLearnRig för att navigera till den klonade GitHub lagringsplatsen.
    2. I terminalen skriver du python3 assocLearnRig_app.py för att starta det grafiska användargränssnittet för kontroll.
    3. Starta kameraströmmen genom att trycka på Stream knapp.
    4. Välj DEC-alternativknappen , ladda upp till mikrokontrollern och starta en session med standardparametrar genom att trycka på Starta session knapp.
      OBS: Efter detta steg ska en utskrift av dataloggen visas i terminalen, meddelandet på kameraströmmen ska försvinna och LED CS och magnetventil US ska slås på och av vid lämpliga tidpunkter under varje försök.
    5. När sessionen är slut upprepar du föregående steg med DTSC-alternativknappen vald.
      OBS: Skisser i GitHub-databasen ("testStepper.ino", "testRotary.ino" och "testSolenoid.ino") kan användas för att testa enskilda komponenter om ovanstående steg inte ger tillfredsställande resultat.
  6. Gör löphjulet.
    1. Skär ett 3" hjul från en skumrulle. Borra ett 1/4 "hål i det exakta hjulcentret så att hjulet inte vinglar när det vrids av musens rörelse.
    2. Sätt in en 1/4 "axel i hjulet och fixera den på plats med hjälp av klämmnav placerade på varje sida av hjulet.
  7. Fäst den roterande kodaren på en 4,5" aluminiumkanal med en M3-bult. Stabilisera aluminiumkanalen på aluminiumbrödskivan med en rät vinkelfäste med en 1/4 "bult, mutter och bricka som visas.
  8. Fäst hjulet och den roterande kodaren med en axelkopplingshylsa.
  9. Stabilisera hjulaxelns fria sida med ett lager infört i en rätvinklämma installerad på en breadboardmonterad optisk stolpe.
    OBS: Se till att hjulet snurrar fritt utan att vingla när det roteras för hand.
  10. Placera stimulanshårdvaran, nackstödet, det infraröda ljuset och picamera runt det monterade hjulet.
    1. Placera nackstöden med optiska stolpar och rätvinklämmor så att huvudstolparna är 1,5 cm framför hjulaxeln och 2 cm över hjulytan. (Värdena är för en 20 g mus).
    2. Placera CS LED och magnetventilutlopp som används för DEC US mindre än 1 cm från ögat som används för DEC.
    3. Montera stegmotorn som används för DTSC US
    4. Montera picamera på en optisk stolpe ~ 10 cm från där djuret kommer att vara.
      OBS: Designen för picamera-fästet kan göras på en 3D-skrivare från filen i "RaspPiCamMount1_1.stl" i GitHub-förvaret.
    5. Placera den infraröda ljusuppsättningen något ovanför och direkt vänd mot ansiktets position på samma sida som picamera.
    6. Gör en taktil stimulans för DTSC genom att tejpa skum på kanten av en bit akryl monterad på en 1/4 "axel med hjälp av ett klämmnav. Fäst den taktila stimulansen på stegmotoraxeln.
      OBS: Designen för akrylbiten kan laserskäras enligt mönstret i "TactileStimDesign.pdf" i GitHub-förvaret.

3. Förbereda och köra beteendeexperiment

  1. Implantering av mushuvudplatta.
    1. Bedöva en mus med 2% isofluran och huvudfix i en stereotaktisk ram.
    2. Applicera en oftalmisk salva på ögonen.
    3. Raka hårbotten med tvålvatten och en steril skalpell. Injicera lidokain direkt under huden på snittstället och rengör operationsstället med povidon.
    4. Gör ett snitt med en skalpell längs hårbottens mittlinje från ögonens bakkant till bakkanten av skallen, var försiktig så att du inte trycker för hårt på skallen.
    5. Sprid snittet öppet och kläm fast båda sidor med sterila hemostater för att hålla det öppet. Ta försiktigt bort periosteumet med en bomullspinne doppad med etanol och låt ytan på den exponerade skallen torka.
    6. Placera huvudplattans nivå på skallen och se till att placera framsidan av huvudplattan bakom ögonen. Använd cyanoakrylatlim för att fästa huvudplattan på skallen och låt limet torka helt.
    7. Blanda tandcementpulver (1 skopa), lösningsmedel (2 droppar) och katalysator (1 droppe) i en blandningsskål och applicera på alla områden av exponerat ben. Lägg till lager tills ytan är i linje med huvudplattans övre kant, se till att huvudplattan är ordentligt fastsatt på skallen.
    8. Suturera huden stängd bakom och framför strålkastaren om det behövs.
    9. Injicera postoperativ analgesi såsom karprofen enligt institutionella riktlinjer samtidigt som djuret kan återhämta sig i minst 5 dagar.
  2. Förberedelser för beteendesessioner.
    1. Låt försöksdjuren vanor till plattformen genom att montera dem i nackstödet under 30-minuters sessioner i 5 dagar före experiment.
      OBS: I slutet av tillvänjningssessionerna bör djuren springa bekvämt på hjulet.
    2. (Endast DEC) Före sessioner, se till att magnetventilens utlopp är centrerat på målögat placerat >1 cm bort.
    3. (Endast DEC) Aktivera en luftpuff manuellt med tryckknappen. Se till att musen omedelbart producerar en blinkning utan att visa några tecken på stress som att anta en böjd hållning eller ta tag i den drabbade periokulära regionen med den ipsilaterala framtassen.
    4. (Endast DTSC) Före sessioner, se till att den taktila stimulansen är centrerad på djurets näsa placerad ~ 1,5 cm bort.
      OBS: När en DTSC-beteendesession inte körs inaktiveras stegmotorn automatiskt för att möjliggöra manuell ompositionering.
    5. (Endast DTSC) I SBC-terminalen skriver du python3 assocLearnRig_app.py för att starta gui gui.t.
    6. (Endast DTSC) Kör en testsession med tre utvärderingsversioner med standardparametrarna genom att trycka på knappen Starta session i det grafiska användargränssnittet.
    7. (Endast DTSC) Se till att loggade data som skrivs ut till terminalen visar en avböjning på mer än 20 men mindre än 100 steg som loggats på den roterande kodaren efter USA vid varje utvärderingsversion.
      VARNING: För att undvika skada och minska stress för djuret, starta stimulansen längre från djuret och flytta den närmare tills de nödvändiga villkoren är uppfyllda.
  3. Köra beteendesessioner med dataloggning.
    1. Montera en mus på nackstödet.
    2. I terminalen på SBC skriver du python3 assocLearnRig_app.py för att starta gui gui..
    3. För att tillåta kamerainspelningar under beteendeförsöken, tryck på Stream knapp.
      OBS: Sessioner kan köras utan kamera. I det här fallet loggas endast data från tidsstämplar för roterande kodare och stimuluspresentation.
    4. Mata in identifierande information för djuret i fältet Djur-ID och tryck på knappen Ställ in .
    5. Välj antingen DEC eller DTSC från alternativknappen under rubriken Sessionstyp beroende på vilket beteendeparadigm som önskas.
    6. Ange önskade experimentparametrar i fälten under fältet Djur-ID och tryck på knappen Ladda upp till Arduino .
      Information om experimentparametrarna finns i GitHub lagringsplatsens README-avsnitt.
    7. Tryck på Starta session för att starta sessionen.
    8. När en session initieras börjar data logga in i en ny katalog som skapats i "/media/usb" i monteringspunkten för SBC-tummenhet.

4. Exportera och analysera data

  1. Om du vill exportera alla inspelade sessioner till värddatorn öppnar du en kommandotolk och anger kommandot pscp -r pi@Pi_IP_address:/media/usb* host_computer_destination och autentiserar sedan med SBC-lösenordet.
    Ovanstående kommando är för en Windows-dator. På Mac- och Linux-maskiner använder du terminal och ersätter "pscp" med "scp".
  2. Installera Anaconda25 eller en annan python-pakethanterare (PPM) på värddatorn.
  3. Gå till GitHub-lagringsplatsen och ladda ned "analyzeSession.py", "summarizeSessions.py", "session2mp4s.py" och "requirementsHost.txt".
  4. Öppna en PPM-prompt och skriv conda install --file directory_containing_requirementsHostrequirements Host.txt för att säkerställa att Python-paketinstallationen har de python-bibliotek som krävs.
  5. I prompten skriver du cd-directory_containing_analyzeData för att navigera till katalogen som innehåller "analyzeData.py" och "session2mp4s.py". Kör analysprogrammet genom att skriva python analyzeSession.py
    Ett felmeddelande genereras om du använder en Python 2-version som python. Om du vill kontrollera versionen skriver du python -V i prompten.
  6. Välj katalogen som innehåller data när du uppmanas till det. Kataloger med flera underkataloger analyseras sekventiellt.
  7. För DEC-sessioner väljer du för varje analyserad sessionskatalog en region av intresse (ROI) som innehåller musens öga från en genomsnittlig testbild.
    Obs!: Datafiler för slutlig analys och sammanfattningsdiagram fylls i i en underkatalog för varje analyserad sessionskatalog.
  8. Skriv python summarizeSessions.py för att generera sammanfattningsdata över flera sessioner.
  9. Skriv in prompten python session2mp4s.py för att konvertera bilddatafiler till visningsbara .mp4 filer.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Arbetsflöde för DEC-experiment och analys
Korrekt experimentellt parameterval är viktigt för framgångsrik dec-träning (delay eyeblink conditioning). För de data som presenteras här användes GUI för att välja en CS-varaktighet på 350 ms och en amerikansk varaktighet på 50 ms. Denna parning resulterar i ett interstimulansintervall på 300 ms: tillräckligt länge för att förhindra CR-produktion med låg amplitud10 och tillräckligt kort för att undvika att komma in i regimen med dålig inlärning eller spårkonditionering, en process som engagerar ytterligare hjärnregioner11. Tiden mellan försöken sattes med hjälp av ITI-låg- och högfälten för att slumpmässigt väljas enhetligt från ett intervall på 5-15 s. Randomiseringen av intervallen mellan försöksversionerna gör det omöjligt för djurförsökspersoner att använda andra tidssignaler än CS och USA själva för uppgiftsprestanda.

Inklusive försök som utelämnar antingen CS eller US tillåter bedömning av CR- och UR-kinematiken även hos utbildade djur. Användaren kan definiera andelen försök där CS och US paras ihop eller presenteras isolerat. I de data som presenteras här körde vi alla sessioner vid 10% CS-endast försök med parade försök som utgjorde resten och inga amerikanska försök. Observera att om du inkluderar ett alltför stort antal oparade utvärderingsversioner kan det påverka träningen negativt. Till exempel används sessioner med mer än 50% av försöken oparade ofta för att driva utrotningen av ER hos utbildade djur19,26.

Kameraförberedelser och ljusförhållanden är också avgörande för att få högkvalitativa data. Bildfrekvensen för förvärv kan justeras i Picamera-förvärvsprogramvaran. I de data som presenteras här ställer vi in en bildhastighet på 120 Hz för DEC-experiment. Picamera-modulen i sig tillåter bildhastigheter på upp till ~ 200 Hz, men vi finner att lägre hastigheter förhindrar bildförlust och ger tillräcklig tidsupplösning för ögonlocksspårning. Det infraröda ljuset måste placeras för att belysa den periokulära pälsen jämnt utan att skapa överdriven reflektion från hornhinnan när ögat är öppet. Figur 3A visar en exempelbild från en inspelningssession med acceptabel belysning. Programvaran picamera acquisition (picameraStream.py) är utformad för att ge konsekventa inställningar under en session genom att ställa in och hålla kamerans vitbalans och förstärkning baserat på belysningsförhållandena när kameran initieras.

När en beteendesession har initierats loggas data från kameran och andra plattformshårdvarukomponenter automatiskt. Dataloggar skapas i en katalog med namnet efter datum- och värdeindata till fältet djur-ID i det grafiska användargränssnittet. Kameraramar och tidsstämplar för varje försök lagras i enskilda filer som namnges med hjälp av djur-ID, experimentdatum och försöksnummer. Plattformshändelser för varje session, inklusive hjulhastighet, teststarter, utvärderingsstopp och CS- och USA-timing, sparas som en enda .txt fil.

Data som överförs till värddatorn kan sedan analyseras enligt beskrivningen i avsnitt 4 i protokollet. Om du kör analyzeData.py i en målkatalog skapas en .npy-behållare för ögonlockets position jämfört med tiden för alla försök i en matris baserat på analys av kamerafilerna. Den här containerfilen skapas i katalogen som analyseras. När alla sessioner har analyserats för ett visst djur kan alla sessioner justeras och sammanfogas med hjälp av summarizeSessions.py. Resultat från ett djur som tränats för 8 sessioner av DEC visas i figur 3B. Dessutom kan enskilda försök återges som visningsbara .mp4 filer med hjälp av verktyget session2mp4s.py. Det här verktyget präglar en fyrkant i filmens övre vänstra hörn för att indikera när CS och US tillämpas. Exempel på DEC-försök som utarbetats på detta sätt presenteras sida vid sida som kompletterande video 1. Den vänstra panelen visar en studie där djuret framgångsrikt stänger ögat som svar på LED CS. I den högra panelen blinkar djuret inte förrän USA börjar.

Djur som tränats på DEC i enlighet med protokollen i avsnitt 3 och registrerats med föregående överväganden bör visa tydliga tecken på vältad REKOMMENDATIONER som förvärvats gradvis under flera utbildningsdagar. Exempel på beteendespår utan KR hos ett otränat djur och spår som innehåller robusta REKOMMENDATIONER från ett tränat djur presenteras i figur 3B. Som dessa spår visar bör naiva djur inte visa något svar på CS utan ett robust svar på USA. CRs bör öka gradvis i både storlek och frekvens genom beteendesessioner som utförs över dagar (figur 3B-D). Däremot begränsar suboptimala ljusförhållanden allvarligt kvaliteten på de inhättade uppgifterna. När kontrasten mellan ögat och den omgivande pälsen är låg (figur 3E) kan små förändringar i bilden väsentligt ändra ur:s inspelade form under en enda session och minska signal-brusförhållandet för att detektera ögonlockets position (figur 3F-G).

För att säkerställa högkvalitativa ögonlocksinspelningar är optimal placering av ljuskällan avgörande. Belysningslampan ska tränas direkt på det inspelade ögat. Om placering resulterar i överdriven bländning på hornhinnans yta kan en diffusor placeras över LED-matrisen för att minska denna effekt.

Arbetsflöde för DTSC-experiment och analys
Många av övervägandena för experimentellt parameterval liknar varandra mellan fördröj taktil skrämselkonditionering (DTSC) och DEC. Här kommer vi att påpeka de som skiljer sig åt. I exempeldata har DTSC CS-varaktigheten angetts till 250 ms med en amerikansk varaktighet på 50 ms. Detta kortare interstimulansintervall valdes för att nära anpassa sig till den kortare varaktigheten som beskrivs som optimal för DTSC-inlärning20. Andra plattformsparametrar som ställdes in via GUI var identiska med de som användes för DEC.

Korrekt placering av den taktila stimulansen är avgörande för lärande i DTSC. Vi monterar den taktila stimulansen så att skumänden är centrerad något ovanför djurets näsa på ett avstånd av ca 1,5 cm när den är i neutralt läge. När den är monterad kan stimulansen vridas för hand när en session inte körs. Under sessioner håller stegmotorn stimulansen på en exakt plats tills en USA utlöses. För att säkerställa att positioneringen är korrekt kör vi en förberedande session med cirka tre försök. Händelser som loggas på den roterande kodaren skrivs ut på terminalskärmen, och denna utskrift kan användas för att övervaka amplituden för djur-OR i realtid. Medan den maximala amplituden varierar från försök till försök, bör djur med ett genomsnittligt maximalt ~ 40 räkningar på kodaren under den korta sessionen prestera bra i DTSC-uppgiften. Baserat på inställningarna för rotationskodarens kontroll motsvarar detta värde 24 cm/s, med ett negativt värde som indikerar att djuret rör sig bakåt på hjulet.

Organisationen och namngivningen av filer som produceras under DTSC-sessioner är desamma som de som produceras i DEC. Körning analyzeSession.py skapar en .npy-behållare för hjulhastighet kontra tid för alla försök i en matris från analys av data som loggats i .csv-filen. När alla sessioner har analyserats för ett visst djur kan alla sessioner justeras och sammanfogas med hjälp av summarizeSession.py. Resultat från ett djur som tränats för 5 sessioner av DEC presenteras i figur 4A. När det gäller DEC kan kamerainspelningarna från DTSC konverteras till visningsbara .mp4 filer. Exempel på DTSC-försök visas sida vid sida i kompletterande video 2. Den vänstra panelen visar ett försök där djuret framgångsrikt backar hjulet som svar på LED CS. I den högra panelen misslyckas djuret med att flytta hjulet tills den taktila stimulansen US appliceras.

Tidsförloppet och amplituden i förhållande till UR för svar hos djur som tränats på DTSC-paradigmet visar kvalitativa likheter med de som tränats på DEC. Naiva djur bör inte visa något svar på CS och lära sig att flytta hjulet bakåt som svar på CS först efter upprepade exponeringar för den parade CS och US. Frekvensen och amplituden för ER ökar när träningen fortskrider (figur 4A,B). När det gäller DTSC har vi funnit att UR-amplitud tidigt i träningen är en bra prediktor för framgången med lärandet. I en kohort av djur som tränats med ett USA som producerade låg amplitud-OR (<20 cm / s) lärde sig inget djur att konsekvent producera CRs efter 4 dagars träning (Figur 4C, D).

Skillnader mellan DEC- och DTSC-utbildning
DEC och DTSC skiljer sig åt på viktiga sätt. För det första sker DTSC-lärande på denna plattform snabbare, med de flesta djur som uppnår en hög grad av uppgiftsförmåga vid den tredje träningsdagen och asymptotisk prestanda vid dag fem. DEC-inlärning är långsammare för de flesta djur med minst 3 dagar. För det andra innehåller DTSC-systemet automatisk detektering av framgångsrika CT, som fungerar som en återkopplingssignal till apparaten för att minska amplituden för den taktila stimulansen. Denna träningsprocedur efterliknar eyeblink-konditionering, där förbättrad CR-prestanda ger partiellt skydd mot en aversiv hornhinneluftpuff. Däremot kan huvudbesörda djur i DTSC-paradigmet inte skydda sig mot den taktila stimulansen genom sitt motoriska svar ensamt. Genom att basera amerikansk amplitud på närvaron av en CR har djur möjlighet att skydda sig från den aversiva stimulansen.

Figure 1
Figur 1: Plattformsattribut och utformning. (A) Plattformselement för registrering av djurbeteende under huvudbestämda förhållanden. Musen anpassades från en Biorender-bild. (B) Timing och stimuli för DEC- och DTSC-konditionering. Ett användardefinierat interstimulansintervall (ISI) avgör hur länge CS only-epoken varar. CS och amerikanska epoker är utformade för att samsluta. (C) Bild som visar placeringen av viktiga plattformselement. 1) Stegmotor för styrning av DTSC US. 2) Löphjul för djuret. 3) Roterande kodare för spårning av hjulrörelser. 4) Skum tejpat över en akrylarm som fungerar som DTSC-taktil stimulans. 5) LED CS. 6) Magnetventil och utlopp som ger DEC US. 7) Picamera för registrering av djurbeteende. 8) Infraröd LED för scenbelysning. Klicka här för att se en större version av denna figur.

Figure 2
Figur 2: Ledningar av plattformshårdvaruelement. (A) Fritzing kopplingsschema över plattformshårdvara när den är helt monterad. Ledningar är färgade av moduler med orange = Kameramodul; gul = DEC US-modul; blå = LED CS-modul; lila = DTSC US-modul; grön = Roterande kodarmodul. Picamera är utesluten men fästs på kamerans seriella gränssnitt som ligger på ytan av Raspberry Pi. Batterier indikerar likströmsströmförsörjning vid den angivna spänningen. (B-F) Ekvivalent ledningsschema för isolerade moduler. Ledningar har färgats om, så att rött och svart alltid indikerar positiv matningsskena respektive jord, medan andra ledningar är färgade för att möjliggöra enkel följd av kretsen. Klicka här för att se en större version av denna figur.

Figure 3
Figur 3: Representativa resultat av DEC-träning. (A) Exempel på kameraram från ett träningspass med acceptabla belysningsförhållanden. Observera den höga kontrasten mellan ögat och periokulär päls. (B) Prestanda hos ett enda djur under sessioner som utförs över dagar i DEC-paradigmet. Horisontella linjer indikerar prestanda vid varje försök, med varma färger som indikerar mer ögonlocksstängning. Den vänstra röda svarta vertikala linjen indikerar början av CS, medan den prickade linjen indikerar initieringen av USA. Den andra heldragna linjen indikerar upphörande av CS och USA. Observera att antalet utvärderingsversioner med lyckade svar under CS ökar mellan utbildningsmötena. (C) Djurprestanda från (B) med individuella spår som härrör från försöksmedelvärdet för sessionen varje dag. Nyansmättnaden anger sessionsnummer med högre mättnad för senare sessioner. D) Prestanda för alla djur i DEC-gruppen (n = 7). De tunna linjerna anger procentandelen av försöken med en detekterbar CR från varje session för varje djur. De tjocka linjerna indikerar sessionen betyder över alla djur. (E) Exempel på kameraram från en session med suboptimala belysningsförhållanden. (F) Kvantifiering av enskilda försök som registrerats med dålig belysning. UR är detekterbar men med lägre kontrast och högre variabilitet än under optimala ljusförhållanden. (G) Genomsnittliga spår från sessioner från försök som presenteras i (F). Klicka här för att se en större version av denna figur.

Figure 4
Figur 4: Representativa resultat av DTSC-träning. (A) Prestanda hos ett enda djur under sessioner som utförs över dagar i DTSC-paradigmet. Horisontella linjer indikerar prestanda vid varje försök, med varma färger som indikerar bakåthjulsrörelse. Den vänstra svarta vertikala linjen indikerar början av CS, medan den prickade linjen indikerar initieringen av USA. Den andra heldragna linjen indikerar upphörande av CS och USA. (B) Djurprestanda från (A) med individuella spår härledda från försöksmedelvärdet för sessionen varje dag. Nyansmättnaden anger sessionsnummer med högre mättnad för senare sessioner. C) Prestanda för alla djur i DTSC-gruppen (n = 6). De tunna linjerna anger procentandelen av försöken med en detekterbar CR från varje session för varje djur. De tjocka linjerna indikerar sessionen betyder över alla djur. (D) Enstaka studier som i (A) från en kohort där den amerikanska intensiteten framkallade låga amplitud-OR. (E) Genomsnittliga spår från sessionen som presenteras som i (B) för de djur som utsätts för det svaga USA. F) Prestanda för alla djur i DTSC med svag US (n = 6). Klicka här för att se en större version av denna figur.

Kompletterande video 1: Exempel på DEC-träff och missade försök. DEC-försök jämförs i video 1. Varje video visar försök där försökspersonen gör (vänster) eller misslyckas med att göra (höger) mål-CR synkroniserad och spelad sida vid sida för jämförelse. LED CS tänds när den blå fyrkanten visas i det övre vänstra hörnet av varje video. Den amerikanska styrsignalen är aktiv när en vit fyrkant ersätter den blå fyrkanten. CS och amerikanska styrsignaler samavsluts när torget försvinner. Klicka här för att ladda ner den här videon.

Kompletterande video 2: Exempel på DTSC-träff- och missförsök. Video 2 visar jämförelse av DTSC-försök. Varje video visar försök där försökspersonen gör (vänster) eller misslyckas med att göra (höger) mål-CR synkroniserad och spelad sida vid sida för jämförelse. LED CS tänds när den blå fyrkanten visas i det övre vänstra hörnet av varje video. Den amerikanska styrsignalen är aktiv när en vit fyrkant ersätter den blå fyrkanten. CS och amerikanska styrsignaler samavsluts när torget försvinner. Klicka här för att ladda ner den här videon.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Plattformen med tillhörande protokoll som beskrivs här kan användas för att på ett tillförlitligt sätt spåra djurbeteende i två sensoriska associativa inlärningsuppgifter. Varje uppgift beror på intakt kommunikation genom klättringsfibervägen. I designen som beskrivs här införlivar vi element för att underlätta inlärning och inspelning / störning av cerebellär respons. Dessa inkluderar ett hjul för att möjliggöra fri rörelse11,18 samt huvudfixering. Hjulet tillåter muspersoner att lokomote fritt, vilket har observerats vara kritiskt för DEC-förvärv18. Huvudfixering hos möss gör det möjligt för forskare att dra nytta av genetiska, elektrofysiologiska, avbildnings- och optogenetiska metoder som är svårare att använda i andra modellarter eller under fritt rörliga förhållanden12. Vi har använt vår design för var och en av dessa applikationer. Programvaran som körs på mikrokontrollerna kan enkelt anpassas för att styra tidssignaler för multifotonförvärv eller synkronisering med optogenetisk stimulering, båda med precision under millisekund. Försiktighet måste vidtas för att minimera djurens uppfattning om optogenetisk och bildutrustning när dessa kombineras med beteendeexperiment. Till exempel avger många multifotonsystem ett hörbart ljud från sina galvanometriska skannrar eller slutare när bildförvärv startar. Om förvärven utlöses av försöksstarter kan sådana ljud fungera som en oavsiktlig ledtråd till djurförsökspersoner att en stimulans kommer.

Kontroll av beteendeapparaten är uppbyggd kring en SBC, som används för att generera ett grafiskt användargränssnitt för att hantera experimentet, kameran och dataexporten. SBC skickar också kommandon till två mikrokontroller som hanterar tidpunkten för försök och direkt styr hårdvarukomponenter som stimulanspresentation och den roterande kodaren. Protokollen som beskrivs här testades med antingen en Raspberry Pi 3B + eller 4B ansluten till en Arduino På grund av kontrollexperimenttid och en Arduino Uno för att styra presentationen av DTSC US. Andra implementeringar av hårdvarudesign är möjliga men har inte testats med den medföljande programvaran.

För att underlätta användningen av flera riggar parallellt rekommenderar vi att du använder SBC i "headless"-läge. I den här konfigurationen används en värddator för att interagera med SBC. En Ethernet-switch möjliggör samtidig internetanslutning till både en värddator och SBC. Omkopplaren möjliggör också direkt kommunikation mellan värden och SBC med snabb dataöverföring. Som ett resultat möjliggör omkopplaren enkel dataöverföring och SBC-paketunderhåll.

För att köra flera riggar parallellt bör varje rigg placeras i sitt eget specialiserade hölje. Dessa kapslingar måste vara ljudisolerade om de placeras i närheten av varandra. Att undertrycka ljud mellan intilliggande riggar kan hjälpa till att undvika oavsiktliga hörselsignaler från stimuli som produceras i angränsande höljen.

Användning av en enda plattform för DEC och DTSC gör det möjligt för utredare att flexibelt navigera i varje paradigms styrkor och svagheter. DEC har insikt som härrör från årtionden av forskning om vilka hjärnregioner och specifika cerebellära kretselement som är involverade i uppgiftsinlärning och utförande 1,4,11,13,14,15,19. Hos möss är emellertid regionen i cerebellär cortex oftast associerad med eyeblink konditionering11,12 belägen djupt inne i den primära cerebellära sprickan (även om se 15,17,27 som visar en DEC-associerad region av ytlig lobule VI). En djup plats för inlärning komplicerar tillgången för optiska experiment, särskilt multifotonavbildning av cellaktivitet och optogenetiska störningsexperiment. Däremot är de cerebellära substraten för DTSC delvis belägna i den ytliga aspekten av lobuler IV / V20. DTSC presenterar därför optisk åtkomst jämförbar med den dorsala neocortex, en populär plats för systemneurovetenskapliga undersökningar.

I vår design spåras djurens beteende med hjälp av en roterande kodare fäst vid hjulet och en kamera. Vi valde dessa metoder för låg kostnad och enkel implementering. I vissa fall kan andra spårningsmetoder ge mer rumslig och tidsmässig noggrannhet. Till exempel har ögonlockets position i DEC vanligtvis spårats med hjälp av Hall-effektsensorer 28,29 eller elektromyograminspelningar av periorbitalområdet i musculus orbicularis oculi 30,31. På samma sätt ger spårning av rörelse genom att detektera hjulrörelser en mindre detaljerad bild av djurbeteende än bildbaserade poseringsspårningsalgoritmer som SLEAP32 och DeepLabCut33. Kamerabaserade inspelningar gör det möjligt att lägga till sådana tillvägagångssätt.

Här har vi presenterat en plattform för att spåra djurs beteende under två klättrande fiberberoende associativa inlärningsparadigmer. Vår plattform är avsedd att öka tillgängligheten för dessa metoder både när det gäller kostnad och enkel implementering.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Författarna har inga intressekonflikter att avslöja.

Acknowledgments

Detta arbete stöds av bidrag från National Institutes of Mental Health NRSA F32 MH120887-03 (till G.J.B.) och R01 NS045193 och R01 MH115750 (till S.S-H.W.). Vi tackar Drs. Bas Koekkoek och Henk-Jan Boele för hjälpsamma diskussioner för att optimera DEC-installationen och Drs. Yue Wang och Xiaoying Chen för hjälpsamma diskussioner för att optimera DTSC-installationen.

Materials

Name Company Catalog Number Comments
"B" Quick Base For C&B METABOND - 10 mL bottle Parkell S398 Dental cement solvent
"C" Universal TBB Catalyst - 0.7 mL Parkell S371 Catalyst
#8 Washers Thorlabs W8S038 Washers
0.250" (1/4") x 8.00" Stainless Steel Precision Shafting Servocity 634172 1/4" shaft
0.250” (0.770") Clamping Hub Servocity 545588 Clamping hub
1/4" to 6 mm Set Screw Shaft Coupler- 5 pack Actobotics 625106 Shaft-coupling sleeve
1/4"-20 Cap Screws, 3/4" Long Thorlabs SH25S075 1/4" bolt
100 pcs 5 mm 395–400 nm UV Ultraviolet LED Light Emitting Diode Clear Round Lens 29 mm Long Lead (DC 3V) LEDs Lights +100 pcs Resistors EDGELEC ‎ED_YT05_U_100Pcs CS LEDs
2 m Micro HDMI to DVI-D Cable - M/M - 2 m Micro HDMI to DVI Cable - 19 pin HDMI (D) Male to DVI-D Male - 1920 x 1200 Video Star-tech ‎HDDDVIMM2M Raspberry Pi4B to monitor cable
256 GB Ultra Fit USB 3.1 Flash Drive SanDisk ‎SDCZ430-256G-G46 USB thumb drive
3.3 V–5 V 4 Channels Logic Level Converter Bi-Directional Shifter Module Amazon B00ZC6B8VM Logic level shifter
32 GB 95 MB/s (U1) microSDHC EVO Select Memory Card Samsung ‎MB-ME32GA/AM microSD card
4.50" Aluminum Channel Servocity 585444 4.5" aluminum channel
48-LED CCTV Ir Infrared Night Vision Illuminator Towallmark SODIAL Infrared light array
4PCS Breadboards Kit Include 2PCS 830 Point 2PCS 400 Point Solderless Breadboards for Proto Shield Distribution Connecting Blocks REXQualis B07DL13RZH Breadboard
5 Port Gigabit Unmanaged Ethernet Network Switch TP-Link ‎TL-SG105 Ethernet switch
5 V 2.5 A Raspberry Pi 3 B+ Power Supply/Adapter Canakit ‎DCAR-RSP-2A5 Power supply for Raspberry Pi 3B+
5-0 ETHILON BLACK 1 x 18" C-3 Ethicon 668G Sutures
6 mm Shaft Encoder 2000 PPR Pushpull Line Driver Universal Output Line Driver Output 5-26 V dc Supply Calt  B01EWER68I Rotary encoder
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 1", 5 Pack Thorlabs TR1-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 2", 5 Pack Thorlabs TR2-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 4", 5 Pack Thorlabs TR4-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 6", 5 Pack Thorlabs TR6-P5 Optical posts
Ø1/2" Post Holder, Spring-Loaded Hex-Locking Thumbscrew, L = 2" Thorlabs PH2 Optical post holder
Adapter-062-M X LUER LOCK-F The Lee Co. TMRA3201950Z Solenoid valve luer adapter
Aeromat Foam Roller Size: 36" Length Aeromat B002H3CMUE Foam roller
Aluminum Breadboard 10" x 12" x 1/2", 1/4"-20 Taps Thorlabs MB1012 Aluminum breadboard
Amazon Basics HDMI to DVI Adapter Cable, Black, 6 Feet, 1-Pack Amazon HL-007347 Raspberry Pi3B+ to monitor cable
Arduino  Uno R3 Arduino A000066 Arduino Uno (microcontroller board)
Arduino Due Arduino ‎A000062 Arduino Due (microcontroller board)
Bench Power Supply, Single, Adjustable, 3 Output, 0 V, 24 V, 0 A, 2 A Tenma 72-8335A Power supply
Clear Scratch- and UV-Resistant Cast Acrylic Sheet, 12" x 24" x 1/8" McMaster Carr 8560K257 Acrylic sheet
CNC Stepper Motor Driver 1.0–4.2 A 20–50 V DC 1/128 Micro-Step Resolutions for Nema 17 and 23 Stepper Motor Stepper Online B06Y5VPSFN Stepper motor driver
Compact Compressed Air Regulator, Inline Relieving, Brass Housing, 1/4 NPT McMaster Carr 6763K13 Air source regulator
Cotton Swab Puritan 806-WC Cotton swab
Dell 1908FP 19" Flat Panel Monitor - 1908FPC Dell 1908FPC Computer monitor
Flex Cable for Raspberry Pi Camera Adafruit 2144 camera serial interface cable
High Torque Nema 17 Bipolar Stepper Motor 92 oz·in/65 N·cm 2.1 A Extruder Motor Stepper Online 17HS24-2104S Stepper motor
Isoflurane Henry Schein 66794001725 Isoflurane
Krazy Maximum Bond Permanent Glue, 0.18 oz. Krazy Glue KG483 Cyanoacrylate glue
Lidocaine HCl VetOne 510212 Lidocaine
Low-Strength Steel Hex Nut, Grade 2, Zinc-Plated, 1/4"-20 Thread Size McMaster Carr 90473A029 Nuts
M3 x 50 mm Partially Threaded Hex Key Socket Cap Head Screws 10 pcs Uxcell A16040100ux1380 M3 bolt
NEMA 17 Stepper Motor Mount ACTOBOTICS 555152 Stepper motor mount
Official Raspberry Pi Power Supply 5.1 V 3 A with USB C - 1.5 m long Adafruit 4298 Power supply for Raspberry Pi 4B
Optixcare Dog & Cat Eye Lube Lubricating Gel, 0.70-oz tube Optixcare 142422 Opthalimic ointment
Precision Stainless Steel Ball Bearing, Shielded, Trade No. R188-2Z, 13000 rpm Maximum Speed McMaster-Carr 3759T57 Bearing
Premium Female/Female Jumper Wires - 40 x 6" Adafruit 266 Wires
Premium Female/Male 'Extension' Jumper Wires - 40 x 6" (150 mm) Adafruit 826 Wires
Premium Male/Male Jumper Wires - 40 x 6" Adafruit 758 Wires
Radiopaque L-Powder for C&B METABOND - 5 g Parkell S396 Dental cement powder
Raspberry Pi (3B+ or 4B) Adafruit 3775 or 4295 Raspberry Pi
Raspberry Pi NoIR Camera Module V2 - 8MP 1080P30 Raspberry Pi Foundation RPI3-NOIR-V2 Raspberry NoIR V2 camera
Right-Angle Bracket, 1/4" (M6) Counterbored Slot, 8-32 Taps Thorlabs AB90E Right-angle bracket
Right-Angle Clamp for Ø1/2" Posts, 3/16" Hex Thorlabs RA90 Right-angle optical post clamp
Right-Angle End Clamp for Ø1/2" Posts, 1/4"-20 Stud and 3/16" Hex Thorlabs RA180 Right-angle end clamp
RJ45 Cat-6 Ethernet Patch Internet Cable Amazon ‎CAT6-7FT-5P-BLUE Ethernet cable
Rotating Clamp for Ø1/2" Posts, 360° Continuously Adjustable, 3/16" Hex Thorlabs SWC Rotating optical post clamps
Spike & Hold Driver-0.1 TO 5 MS The Lee Co. IECX0501350A Solenoid valve driver
Swivel Base Adapter Thorlabs UPHA Post holder adapter
USB 2.0 A-Male to Micro B Cable, 6 feet Amazon ‎7T9MV4 USB2 type A to USB2 micro cable
USB 2.0 Printer Cable - A-Male to B-Male, 6 Feet (1.8 m) Amazon B072L34SZS USB2 type B to USB2 type A cable
VHS-M/SP-12 V The Lee Co. INKX0514900A Solenoid valve
Zinc-Plated Steel 1/4" washer, OD 1.000" McMaster Carr 91090A108 Washers

DOWNLOAD MATERIALS LIST

References

  1. McCormick, D. A., Lavond, D. G., Clark, G. A., Kettner, R. E., Rising, C. E., Thompson, R. F. The engram found? Role of the cerebellum in classical conditioning of nictitating membrane and eyelid responses. Bulletin of the Psychonomic Society. 18 (3), 103-105 (1981).
  2. McCormick, D. A., Clark, G. A., Lavond, D. G., Thompson, R. F. Initial localization of the memory trace for a basic form of learning. Proceedings of the National Academy of Sciences of the United States of America. 79 (8), 2731-2735 (1982).
  3. McCormick, D. A., Thompson, R. F. Cerebellum: essential involvement in the classically conditioned eyelid response. Science. 223 (4633), New York, N.Y. 296-299 (1984).
  4. Krupa, D. J., Thompson, J. K., Thompson, R. F. Localization of a memory trace in the mammalian brain. Science. 260 (5110), New York, N.Y. 989-991 (1993).
  5. Llinás, R., Sugimori, M. Electrophysiological properties of in vitro Purkinje cell dendrites in mammalian cerebellar slices. The Journal of Physiology. 305, 197-213 (1980).
  6. Mintz, M., Lavond, D. G., Zhang, A. A., Yun, Y., Thompson, R. F. Unilateral inferior olive NMDA lesion leads to unilateral deficit in acquisition and retention of eyelid classical conditioning. Behavioral and Neural Biology. 61 (3), 218-224 (1994).
  7. Welsh, J. P., Harvey, J. A. Cerebellar lesions and the nictitating membrane reflex: performance deficits of the conditioned and unconditioned response. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 9 (1), 299-311 (1989).
  8. Mauk, M. D., Steinmetz, J. E., Thompson, R. F. Classical conditioning using stimulation of the inferior olive as the unconditioned stimulus. Proceedings of the National Academy of Sciences of the United States of America. 83 (14), 5349-5353 (1986).
  9. Steinmetz, J. E., Lavond, D. G., Thompson, R. F. Classical conditioning in rabbits using pontine nucleus stimulation as a conditioned stimulus and inferior olive stimulation as an unconditioned stimulus. Synapse. 3 (3), New York, N.Y. 225-233 (1989).
  10. Chettih, S. N., McDougle, S. D., Ruffolo, L. I., Medina, J. F. Adaptive timing of motor output in the mouse: The role of movement oscillations in eyelid conditioning. Frontiers in Integrative Neuroscience. 5, 72 (2011).
  11. Heiney, S. A., Wohl, M. P., Chettih, S. N., Ruffolo, L. I., Medina, J. F. Cerebellar-dependent expression of motor learning during eyeblink conditioning in head-fixed mice. The Journal of Neuroscience. 34 (45), 14845-14853 (2014).
  12. Heiney, S. A., Kim, J., Augustine, G. J., Medina, J. F. Precise control of movement kinematics by optogenetic inhibition of purkinje cell activity. Journal of Neuroscience. 34 (6), 2321-2330 (2014).
  13. Ten Brinke, M. M., et al. Evolving models of pavlovian conditioning: Cerebellar cortical dynamics in awake behaving mice. Cell Reports. 13 (9), 1977-1988 (2015).
  14. Gao, Z., et al. Excitatory cerebellar nucleocortical circuit provides internal amplification during associative conditioning. Neuron. 89 (3), 645-657 (2016).
  15. Giovannucci, A., et al. Cerebellar granule cells acquire a widespread predictive feedback signal during motor learning. Nature Neuroscience. 20 (5), 727-734 (2017).
  16. Ten Brinke, M. M., et al. Dynamic modulation of activity in cerebellar nuclei neurons during pavlovian eyeblink conditioning in mice. eLife. 6, 28132 (2017).
  17. Wang, X., Yu, S., Ren, Z., De Zeeuw, C. I., Gao, Z. A FN-MdV pathway and its role in cerebellar multimodular control of sensorimotor behavior. Nature Communications. 11 (1), 6050 (2020).
  18. Albergaria, C., Silva, N. T., Pritchett, D. L., Carey, M. R. Locomotor activity modulates associative learning in mouse cerebellum. Nature Neuroscience. 21 (5), 725-735 (2018).
  19. Kim, O. A., Ohmae, S., Medina, J. F. A cerebello-olivary signal for negative prediction error is sufficient to cause extinction of associative motor learning. Nature Neuroscience. 23 (12), 1550-1554 (2020).
  20. Yamada, T., et al. Sensory experience remodels genome architecture in neural circuit to drive motor learning. Nature. 569 (7758), 708-713 (2019).
  21. Horlington, M. Startle response circadian rhythm in rats: lack of correlation with motor activity. Physiology & Behavior. 5 (1), 49-53 (1970).
  22. Yeomans, J. S., Li, L., Scott, B. W., Frankland, P. W. Tactile, acoustic and vestibular systems sum to elicit the startle reflex. Neuroscience and Biobehavioral Reviews. 26 (1), 1-11 (2002).
  23. Raspberry Pi Operating system images. , Available from: https://www.raspberrypi.com/software/operationg-systems/ (2021).
  24. VNC Server. VNC® Connect. , Available from: https://www.realvnc.com/en/connect/download/vnc/ (2021).
  25. Anaconda: The world's most popular data science platform. , Available from: https://xddebuganaconda.xdlab.co/ (2021).
  26. De Zeeuw, C. I., Ten Brinke, M. M. Motor learning and the cerebellum. Cold Spring Harbor Perspectives in Biology. 7 (9), 021683 (2015).
  27. Badura, A., et al. Normal cognitive and social development require posterior cerebellar activity. eLife. 7, 36401 (2018).
  28. Koekkoek, S. K. E., Den Ouden, W. L., Perry, G., Highstein, S. M., De Zeeuw, C. I. Monitoring kinetic and frequency-domain properties of eyelid responses in mice with magnetic distance measurement technique. Journal of Neurophysiology. 88 (4), 2124-2133 (2002).
  29. Kloth, A. D., et al. Cerebellar associative sensory learning defects in five mouse autism models. eLife. 4, 06085 (2015).
  30. Boele, H. -J., Koekkoek, S. K. E., De Zeeuw, C. I. Cerebellar and extracerebellar involvement in mouse eyeblink conditioning: the ACDC model. Frontiers in Cellular Neuroscience. 3, (2010).
  31. Lin, C., Disterhoft, J., Weiss, C. Whisker-signaled eyeblink classical conditioning in head-fixed Mice. Journal of Visualized Experiments: JoVE. (109), e53310 (2016).
  32. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  33. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).

Tags

Neurovetenskap utgåva 179 cerebellum associativ motorisk inlärning fördröja ögonblinkkonditionering fördröja taktil stimulanskonditionering
En flexibel plattform för övervakning av cerebellumberoende sensorisk associativt lärande
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Broussard, G. J., Kislin, M., Jung,More

Broussard, G. J., Kislin, M., Jung, C., Wang, S. S. H. A Flexible Platform for Monitoring Cerebellum-Dependent Sensory Associative Learning. J. Vis. Exp. (179), e63205, doi:10.3791/63205 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter