Waiting
Elaborazione accesso...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Una piattaforma flessibile per il monitoraggio dell'apprendimento associativo sensoriale dipendente dal cervelletto

Published: January 19, 2022 doi: 10.3791/63205

Summary

Abbiamo sviluppato un'unica piattaforma per tracciare il comportamento degli animali durante due attività di apprendimento associativo dipendenti dalla fibra di arrampicata. Il design a basso costo consente l'integrazione con esperimenti optogenetici o di imaging diretti verso l'arrampicata dell'attività cerebellare associata alle fibre.

Abstract

Gli input di fibre rampicanti alle cellule di Purkinje forniscono segnali istruttivi critici per l'apprendimento associativo dipendente dal cervelletto. Lo studio di questi segnali in topi fissi facilita l'uso di metodi di imaging, elettrofisiologici e optogenetici. Qui, è stata sviluppata una piattaforma comportamentale a basso costo (~ $ 1000) che consente il monitoraggio dell'apprendimento associativo in topi fissi a testa che locomotano liberamente su una ruota da corsa. La piattaforma incorpora due paradigmi di apprendimento associativo comuni: il condizionamento dell'eyeblink e il condizionamento dello startle tattile ritardato. Il comportamento viene monitorato utilizzando una telecamera e il movimento della ruota da un rilevatore. Descriviamo i componenti e la configurazione e forniamo un protocollo dettagliato per la formazione e l'analisi dei dati. Questa piattaforma consente l'incorporazione della stimolazione optogenetica e dell'imaging a fluorescenza. Il design consente a un singolo computer host di controllare più piattaforme per addestrare più animali contemporaneamente.

Introduction

Il condizionamento pavloviano dell'associazione sub-seconda tra stimoli per suscitare una risposta condizionata è stato a lungo utilizzato per sondare l'apprendimento cerebellare-dipendente. Ad esempio, nel classico condizionamento ritardato dell'occhio (DEC), gli animali imparano a fare un battito di ciglia protettivo tempestivo in risposta a uno stimolo condizionale neutro (CS; ad esempio, un lampo di luce o un tono uditivo) quando è accoppiato ripetutamente con uno stimolo incondizionato (US; ad esempio, un soffio d'aria applicato alla cornea) che provoca sempre un battito di ciglia riflesso, e che arriva alla fine o vicino alla fine del CS. La risposta appresa è indicata come risposta condizionata (CR), mentre la risposta riflessa è indicata come risposta incondizionata (UR). Nei conigli, le lesioni specifiche del cervelletto interrompono questa forma di apprendimento 1,2,3,4. Inoltre, i picchi complessi di cellule di Purkinje, guidati dai loro ingressi in fibra rampicante5, forniscono un segnale 6,7 necessario e sufficiente 8,9 per l'acquisizione di CR correttamente temporizzati.

Più recentemente, sono stati sviluppati paradigmi di apprendimento associativo dipendenti dalla fibra rampicante per topi fissi a testa. DEC è stato il primo paradigma di apprendimento associativo ad essere adattato a questa configurazione10,11. Dec in topi fissi è stato utilizzato per identificare le regioni cerebellari 11,12,13,14,15,16,17 e gli elementi circuitali 11,1 2,13,14,15,18,19 che sono necessari per l'acquisizione e l'estinzione delle attività. Questo approccio è stato utilizzato anche per dimostrare come la rappresentazione fisiologica a livello cellulare dei parametri del compito si evolve con l'apprendimento 13,15,16.

Oltre all'eyeblink, il paradigma del condizionamento tattile dello startle ritardato (DTSC) è stato recentemente sviluppato come un nuovo compito di apprendimento associativo per topi fissi a testa20. Concettualmente simile al DEC, DTSC prevede la presentazione di un CS neutro con un US, un tap to the face di intensità sufficiente per innestare un riflesso di startle21,22 come UR. Nel paradigma DTSC, sia l'UR che il CR vengono letti come locomozione all'indietro su una ruota. DTSC è stato ora utilizzato per scoprire come l'apprendimento associativo altera l'attività cerebellare e i modelli di espressione genica20.

In questo lavoro, è stato sviluppato un metodo per applicare in modo flessibile DEC o DTSC in un'unica piattaforma. Gli attributi di stimolo e piattaforma sono schematizzati nella Figura 1. Il design incorpora la capacità di tracciare il comportamento degli animali con una telecamera e un encoder rotativo per tracciare la locomozione del mouse su una ruota. Tutti gli aspetti della registrazione dei dati e della struttura di prova sono controllati da microcontrollori accoppiati (Arduino) e da un computer a scheda singola (SBC; Raspberry Pi). È possibile accedere a questi dispositivi tramite un'interfaccia utente grafica fornita. Qui presentiamo un flusso di lavoro per l'installazione, la preparazione e l'esecuzione degli esperimenti e una pipeline di analisi personalizzata per la visualizzazione dei dati.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

I protocolli sugli animali qui descritti sono stati approvati dai comitati per la cura e l'uso degli animali dell'Università di Princeton.

1. Impostazione del CFS

  1. Collegare il cavo CSI (Camera Serial Interface) alla telecamera Raspberry NoIR V2 e alla porta della telecamera sull'SBC.
  2. Scaricare il sistema operativo per l'SBC sul computer host. Scrivere l'immagine del sistema operativo su una scheda micro secure digital (microSD).
    NOTA: le istruzioni dettagliate per queste procedure per un SBC Raspberry Pi sono disponibili altrove23. Il sistema è stato testato utilizzando i seguenti sistemi operativi: Stretch, Buster, Bullseye.
  3. Per abilitare la comunicazione sicura della shell, creare un file senza estensione chiamato "ssh" nella partizione di avvio della scheda microSD. Una volta fatto questo, espellere la scheda microSD dalla macchina host e inserirla nello slot per schede microSD SBC. Alimenta l'SBC collegando il suo alimentatore.
  4. Preparare l'SBC per accettare una connessione cablata all'host.
    1. Collegare un monitor con un cavo appropriato all'SBC. Aprire un terminale, digitare il comando ifconfig e registrare l'indirizzo IP ethernet dell'SBC.
      NOTA: Raspberry Pi modello 3B+ ha una porta display HDMI, mentre il modello 4B ha una porta micro-HDMI.
    2. Vai alla scheda Interfaccia dell'impostazione di configurazione di Raspberry Pi e abilita le opzioni per Fotocamera, SSH (Secure Shell Network Protocol) e VNC (Virtual Network Computing).
  5. Stabilire una connessione cablata tra il computer host e l'SBC.
    1. Collegare un cavo Ethernet alla porta Ethernet dell'SBC e di un computer host. Collegare l'altra estremità di questi cavi a uno switch Ethernet.
    2. Utilizzare un client di elaborazione di rete virtuale come VNC viewer24 e accedere al desktop utilizzando l'indirizzo IP SBC e l'autenticazione predefinita (user = "pi", password = "raspberry").
  6. Scarica il software richiesto incluso nei passaggi del protocollo.
    ATTENZIONE: modificare il nome utente e la password predefiniti per impedire l'accesso non autorizzato all'SBC.
    1. Immettere il seguente comando nel terminale SBC per scaricare il software rig:
      git clone --depth=1 https://github.com/gerardjb/assocLearnRig
    2. Immettere i seguenti comandi per scaricare le librerie python necessarie.
      cd assocLearnRig
      setup.py python3
    3. Per consentire il controllo diretto sul microcontrollore, connettersi all'SBC e scaricare l'ambiente di sviluppo integrato (IDE) del microcontroller seguendo i passaggi 1.6.4-1.6.7.
    4. Aprire il browser Web sul desktop SBC e passare a https://arduino.cc/en/software. Scarica l'ultima versione linux ARM a 32 bit dell'IDE.
    5. Aprire una finestra del terminale sul desktop SBC e passare alla directory dei download digitando cd Downloads/
    6. Per installare l'IDE, digitare i seguenti comandi nel terminale:
      tar -xf arduino--linuxarm.tar.xz
      sudo mv arduino- /opt
      sudo /opt/arduino-/install.sh

      (qui è la versione dell'IDE scaricato)
    7. Aprire un'istanza dell'IDE del microcontroller sul desktop SBC. Selezionare l'opzione di menu Strumenti > Gestisci librerie. Installare la libreria "Encoder" di Paul Stoffregen.
  7. Espandi la memoria SBC integrata con una chiavetta USB.
    1. Inserire una chiavetta USB in una porta USB dell'SBC. Utilizzare una porta USB 3.0, se disponibile.
    2. Digitare il terminale ls -l /dev/disk/by-uuid/ per trovare la chiavetta USB e il suo riferimento univoco (UUID). Registrare l'UUID.
    3. Per consentire all'utente pi di scrivere sul dispositivo USB, digitare i seguenti comandi uno per uno nel terminale:
      sudo mkdir /media/usb
      sudo chown -R pi:pi /media/usb
      sudo mount /dev/sda1 /media/usb -o uid=pi,gid=pi
      NOTA: la chiavetta USB può essere aggiunta come dispositivo che si monterà automaticamente al riavvio dell'SBC aggiungendo la seguente riga alla fine del file fstab in /etc/fstab:
      UUID= /media/usb vfat auto,nofail,noatime,users,rw,uid=pi,gid=pi 0 0

2. Cablaggio dell'hardware di stimolo e fase di assemblaggio

  1. Collegare e preparare i microcontrollori.
    1. Collegare l'SBC alla porta di programmazione del microcontrollore (Arduino Due) con un cavo micro da USB2 tipo A a USB2.
      NOTA: utilizzare un cavo di alta qualità come il prodotto nella Tabella dei materiali per garantire il corretto funzionamento.
    2. Individuare "dueAssocLearn.ino" nel repository del progetto scaricato. Aprire lo sketch con l'IDE del microcontrollore e caricarlo sul microcontrollore collegato all'SBC.
    3. Scaricare e installare la versione appropriata dell'IDE Arduino sul computer host.
    4. Collegare il computer host al microcontrollore (Arduino Uno) con un cavo da USB2 di tipo B a USB2 di tipo A.
    5. Vai al repository GitHub (https://github.com/gerardjb/assocLearnRig) e scarica lo sketch "DTSC_US.ino" sul computer host.
    6. Sul computer host, eseguire l'IDE del microcontroller e aprire lo sketch "DTSC_US.ino", quindi caricarlo nel microcontroller.
  2. Collegare i fili ai microcontrollori, alla breadboard, ai LED, all'encoder rotativo, al motore passo-passo con driver e all'elettrovalvola con driver, come indicato nello schema di Fritzing nella Figura 2.
  3. Alimentare il motore passo-passo e l'elettrovalvola.
    1. Collegare correttamente un canale di un alimentatore ai pin +V e GND del driver del motore passo-passo.
    2. Accendere l'alimentatore e impostare la tensione del canale collegato su 25 V.
      NOTA: se le connessioni tra il motore passo-passo, il driver e l'alimentatore sono configurate correttamente, si accenderà un LED indicatore verde sul driver del motore passo-passo.
    3. Collegare correttamente il cavo positivo di un alimentatore al pin di tensione di mantenimento del driver dell'elettrovalvola e l'altro cavo positivo al pin di tensione di picco.
    4. Collegare i cavi negativi a un terreno condiviso con il segnale di controllo.
    5. Accendere l'alimentatore e impostare il canale collegato alla tensione di attesa a circa 2,5 V e il canale collegato alla tensione di picco a circa 12 V.
  4. Collegare una sorgente d'aria regolata a una pressione di ~ 20 PSI all'elettrovalvola utilizzando l'adattatore luer.
  5. Verificare che tutti i componenti dello stimolo e la fotocamera funzionino correttamente.
    1. Aprire un terminale sull'SBC e digitare cd ~/assocLearnRig per passare al repository GitHub clonato.
    2. Nel terminale, digitare python3 assocLearnRig_app.py per avviare l'interfaccia utente grafica di controllo.
    3. Avvia il flusso della videocamera premendo il pulsante Stream .
    4. Selezionare il pulsante di opzione DEC , caricarlo sul microcontrollore e avviare una sessione con i parametri predefiniti premendo il pulsante Avvia sessione .
      NOTA: dopo questo passaggio, nel terminale dovrebbe apparire una stampa del registro dati, il messaggio sul flusso della telecamera dovrebbe scomparire e il LED CS e l'elettrovalvola US dovrebbero accendersi e spegnersi nei momenti appropriati durante ogni prova.
    5. Al termine della sessione, ripetere i passaggi precedenti con il pulsante di opzione DTSC selezionato.
      NOTA: gli schizzi nel repository GitHub ("testStepper.ino", "testRotary.ino" e "testSolenoid.ino") possono essere utilizzati per testare singoli componenti se i passaggi precedenti non forniscono risultati soddisfacenti.
  6. Fai la ruota da corsa.
    1. Tagliare una ruota da 3 "da un rullo di schiuma. Praticare un foro da 1/4 "nel centro esatto della ruota in modo che la ruota non oscilli quando viene ruotata dalla locomozione del mouse.
    2. Inserire un albero da 1/4 " nella ruota e fissarlo in posizione utilizzando mozzi di serraggio posizionati su ciascun lato della ruota.
  7. Fissare l'encoder rotativo su un canale in alluminio da 4,5" utilizzando un bullone M3. Stabilizzare il canale in alluminio sulla breadboard in alluminio utilizzando una staffa ad angolo retto con un bullone, un dado e una rondella da 1/4 "come mostrato.
  8. Fissare la ruota e l'encoder rotativo utilizzando un manicotto di accoppiamento dell'albero.
  9. Stabilizzare il lato libero dell'albero della ruota con un cuscinetto inserito in un morsetto ad angolo retto installato su un montante ottico montato su breadboard.
    NOTA: assicurarsi che la ruota giri liberamente senza oscillare quando ruotata a mano.
  10. Posiziona l'hardware di stimolo, il poggiatesta, l'array di luce a infrarossi e il picamera attorno alla ruota assemblata.
    1. Posizionare i poggiatesta utilizzando montanti ottici e morsetti ad angolo retto in modo che i montanti della testa si trovino 1,5 cm davanti all'asse della ruota e 2 cm sopra la superficie della ruota. (I valori sono per un mouse da 20 g).
    2. Posizionare il LED CS e l'uscita dell'elettrovalvola utilizzata per il DEC US a meno di 1 cm dall'occhio utilizzato per dec.
    3. Montare il motore passo-passo utilizzato per il DTSC US
    4. Montare la picamera su un palo ottico a ~ 10 cm da dove si troverà l'animale.
      NOTA: il design per il supporto picamera può essere realizzato su una stampante 3D dal file in "RaspPiCamMount1_1.stl" nel repository GitHub.
    5. Posizionare l'array di luce a infrarossi leggermente sopra e direttamente rivolto verso la posizione del viso sullo stesso lato del picamera.
    6. Crea uno stimolo tattile per DTSC nastrando la schiuma sul bordo di un pezzo di acrilico montato su un albero da 1/4 "usando un mozzo di serraggio. Attaccare lo stimolo tattile all'albero motore passo-passo.
      NOTA: il design per il pezzo acrilico può essere tagliato al laser seguendo lo schema in "TactileStimDesign.pdf" nel repository GitHub.

3. Preparazione ed esecuzione di esperimenti comportamentali

  1. Impianto della piastra di testa del mouse.
    1. Anestetizzare un mouse utilizzando il 2% di isoflurano e fissare la testa in un frame stereotassico.
    2. Applicare un unguento oftalmico agli occhi.
    3. Rasare il cuoio capelluto con acqua saponata e un bisturi sterile. Iniettare lidocaina direttamente sotto la pelle del sito di incisione e pulire il sito chirurgico con povidone.
    4. Fai un'incisione con un bisturi lungo la linea mediana del cuoio capelluto dal bordo posteriore degli occhi al bordo posteriore del cranio, facendo attenzione a non premere troppo forte sul cranio.
    5. Stendere l'incisione aperta e bloccare entrambi i lati con emostati sterili per tenerla aperta. Rimuovere delicatamente il periostio utilizzando un batuffolo di cotone imbevuto di etanolo e lasciare asciugare la superficie del cranio esposto.
    6. Posizionare il livello della piastra frontale sul cranio, assicurandosi di posizionare la parte anteriore della piastra posteriore agli occhi. Utilizzare la colla cianoacrilata per fissare la piastra di testa al cranio e lasciare asciugare completamente la colla.
    7. Mescolare la polvere di cemento dentale (1 misurino), il solvente (2 gocce) e il catalizzatore (1 goccia) in un piatto di miscelazione e applicare su tutte le aree dell'osso esposto. Aggiungere strati fino a quando la superficie non è a filo con il bordo superiore della piastra di testa, assicurandosi che la piastra della testa sia saldamente attaccata al cranio.
    8. Suturare la pelle chiusa dietro e davanti alla piastra di testa, se necessario.
    9. Iniettare analgesia post-operatoria come il carprofene secondo le linee guida istituzionali, consentendo all'animale di riprendersi per almeno 5 giorni.
  2. Preparazione per le sessioni comportamentali.
    1. Consentire agli animali da esperimento di abituarsi alla piattaforma montandoli nel poggiatesta per sessioni di 30 minuti per 5 giorni prima degli esperimenti.
      NOTA: Entro la fine delle sessioni di assuefazione, gli animali dovrebbero correre comodamente sulla ruota.
    2. (Solo DEC) Prima delle sessioni, assicurarsi che l'uscita dell'elettrovalvola sia centrata sull'occhio bersaglio posizionato a >1 cm di distanza.
    3. (Solo DEC) Azionare manualmente un soffio d'aria utilizzando il pulsante. Assicurarsi che il mouse produca prontamente un battito di ciglia senza mostrare segni evidenti di stress come l'adozione di una postura curva o l'afferramento della regione perioculare interessata con la zampa anteriore ipsilaterale.
    4. (Solo DTSC) Prima delle sessioni, assicurarsi che lo stimolo tattile sia centrato sul naso dell'animale posizionato a circa 1,5 cm di distanza.
      NOTA: quando una sessione comportamentale DTSC non è in esecuzione, il motore passo-passo viene automaticamente disattivato per consentire il riposizionamento manuale.
    5. (Solo DTSC) Nel terminale SBC, digitare python3 assocLearnRig_app.py per avviare la GUI.
    6. (Solo DTSC) Esegui una sessione di test di tre versioni di prova con i parametri predefiniti premendo il pulsante Avvia sessione nella GUI.
    7. (Solo DTSC) Assicurarsi che i dati registrati che vengono stampati sul terminale mostrino una deflessione superiore a 20 ma inferiore a 100 passi registrati sull'encoder rotativo dopo gli Stati Uniti in ogni prova.
      ATTENZIONE: Per evitare danni e ridurre lo stress per l'animale, iniziare lo stimolo più lontano dall'animale e avvicinarlo fino a quando non vengono soddisfatte le condizioni richieste.
  3. Esecuzione di sessioni comportamentali con registrazione dei dati.
    1. Montare un mouse sul poggiatesta.
    2. Nel terminale dell'SBC, digitare python3 assocLearnRig_app.py per avviare la GUI.
    3. Per consentire le registrazioni della videocamera durante le prove comportamentali, premi il pulsante Stream .
      NOTA: le sessioni possono essere eseguite senza videocamera. In questo caso, vengono registrati solo i dati dell'encoder rotativo e i timestamp di presentazione dello stimolo.
    4. Inserisci le informazioni di identificazione per l'animale nel campo ID animale e premi il pulsante Imposta .
    5. Selezionare DEC o DTSC dal pulsante di opzione sotto l'intestazione Tipo di sessione a seconda del paradigma comportamentale desiderato.
    6. Inserisci i parametri dell'esperimento desiderato nei campi sotto il campo ID animale e premi il pulsante Carica su Arduino .
      NOTA: i dettagli dei parametri dell'esperimento sono disponibili nella sezione LEGGIMI del repository GitHub.
    7. Premi il pulsante Avvia sessione per iniziare la sessione.
    8. Quando una sessione viene inizializzata, i dati inizieranno a registrare in una nuova directory creata in "/media/usb" nel punto di montaggio della chiavetta SBC.

4. Esportazione e analisi dei dati

  1. Per esportare tutte le sessioni registrate sul computer host, aprire un prompt dei comandi e immettere il comando pscp -r pi@Pi_IP_address:/media/usb* host_computer_destination, quindi autenticarsi con la password SBC.
    NOTA: il comando precedente è per un computer Windows. Su macchine Mac e Linux, utilizzare terminale e sostituire "pscp" con "scp".
  2. Installare Anaconda25 o un altro gestore di pacchetti python (PPM) sul computer host.
  3. Vai al repository GitHub e scarica "analyzeSession.py", "summarizeSessions.py", "session2mp4s.py" e "requirementsHost.txt".
  4. Apri un prompt PPM e digita conda install --file directory_containing_requirementsHostrequirements Host.txt per assicurarti che l'installazione del pacchetto Python abbia le librerie python richieste.
  5. Nel prompt, digitare cd directory_containing_analyzeData per passare alla directory contenente "analyzeData.py" e "session2mp4s.py". Esegui il programma di analisi digitando python analyzeSession.py
    NOTA: verrà generato un messaggio di errore se si utilizza una versione di Python 2 come python. Per controllare la versione, digitare python -V nel prompt.
  6. Selezionare la directory contenente i dati quando richiesto. Le directory con più sottodirectory verranno analizzate in sequenza.
  7. Per le sessioni DEC, per ogni directory di sessione analizzata, selezionare una regione di interesse (ROI) contenente l'occhio del mouse da un'immagine media di prova.
    NOTA: i file di dati di analisi finale e i grafici di riepilogo verranno popolati in una sottodirectory di ogni directory di sessione analizzata.
  8. Digitare python summarizeSessions.py per generare dati di riepilogo in più sessioni.
  9. Digitare il prompt python session2mp4s.py per convertire i file di dati di imaging in file di .mp4 visualizzabili.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Flusso di lavoro per esperimenti e analisi DEC
Una corretta selezione dei parametri sperimentali è importante per il successo dell'allenamento di condizionamento ritardato dell'occhio (DEC). Per i dati qui presentati, la GUI è stata utilizzata per scegliere una durata CS di 350 ms e una durata STATUNITENSE di 50 ms. Questo accoppiamento si traduce in un intervallo inter-stimolo di 300 ms: abbastanza lungo da prevenire la produzione di CR a bassa ampiezza10 e abbastanza breve da evitare di entrare nel regime di scarso apprendimento o condizionamento delle tracce, un processo che coinvolge ulteriori regioni cerebrali11. Il tempo tra le prove è stato impostato utilizzando i campi ITI basso e alto per essere scelti casualmente in modo uniforme da un intervallo di 5-15 s. La randomizzazione degli intervalli inter-trial rende impossibile per i soggetti animali utilizzare segnali di temporizzazione diversi dal CS e dagli stessi US per l'esecuzione del compito.

Includere studi che omettono il CS o l'US consente la valutazione della cinematica CR e UR anche in animali addestrati. L'utente può definire la proporzione di prove in cui CS e US sono accoppiati o presentati in isolamento. Nei dati presentati qui, abbiamo eseguito tutte le sessioni al 10% di studi solo CS con studi accoppiati che costituiscono il resto e nessuna sperimentazione solo negli Stati Uniti. Si noti che includere un numero eccessivo di studi spaiati può avere un impatto negativo sulla formazione. Ad esempio, le sessioni con più del 50% degli studi spaiati sono comunemente usate per guidare l'estinzione delle CR negli animali addestrati 19,26.

Anche la preparazione della telecamera e le condizioni di illuminazione sono fondamentali per l'acquisizione di dati di alta qualità. Il frame rate di acquisizione può essere regolato nel software di acquisizione Picamera. Nei dati qui presentati, abbiamo impostato un frame rate di 120 Hz per gli esperimenti DEC. Il modulo Picamera stesso consente frame rate fino a ~ 200 Hz, ma scopriamo che tassi più bassi prevengono la perdita di fotogrammi e danno un'adeguata risoluzione temporale per il tracciamento delle palpebre. La luce infrarossa deve essere posizionata per illuminare la pelliccia perioculare in modo uniforme senza creare un riflesso eccessivo dalla cornea quando l'occhio è aperto. La Figura 3A mostra un'immagine di esempio da una sessione di registrazione con illuminazione accettabile. Il software di acquisizione picamera (picameraStream.py) è progettato per fornire impostazioni coerenti durante una sessione impostando e mantenendo il bilanciamento del bianco e il guadagno della fotocamera in base alle condizioni di illuminazione quando la fotocamera viene inizializzata.

Una volta inizializzata una sessione comportamentale, i dati della fotocamera e di altri componenti hardware della piattaforma verranno registrati automaticamente. I registri dei dati vengono creati in una directory denominata dalla data e dal valore immessi nel campo ID animale nella GUI. I fotogrammi della fotocamera e i timestamp per ogni prova sono memorizzati in singoli file che vengono nominati utilizzando l'ID animale, la data dell'esperimento e il numero di prova. Gli eventi della piattaforma per ogni sessione, tra cui la velocità della ruota, gli inizi della prova, le interruzioni della prova e i tempi CS e STATUNITENSI, vengono salvati come un unico file .txt.

I dati trasferiti alla macchina host possono quindi essere analizzati come descritto nella sezione 4 del protocollo. L'esecuzione di analyzeData.py su una directory di destinazione creerà un contenitore .npy per la posizione delle palpebre rispetto al tempo per tutte le prove in un array basato sull'analisi dei file della telecamera. Questo file contenitore viene creato nella directory analizzata. Una volta che tutte le sessioni sono state analizzate per un dato animale, tutte le sessioni possono essere allineate e concatenate usando summarizeSessions.py. I risultati di un animale addestrato per 8 sessioni di DEC sono mostrati nella Figura 3B. Inoltre, è possibile eseguire il rendering delle singole prove come file .mp4 visualizzabili utilizzando l'utilità session2mp4s.py. Questa utility imprime un quadrato nell'angolo in alto a sinistra del filmato per indicare quando vengono applicati CS e US. Le prove DEC di esempio preparate in questo modo sono presentate fianco a fianco come video supplementare 1. Il pannello di sinistra mostra una prova in cui l'animale chiude con successo l'occhio in risposta al LED CS. Nel pannello di destra, l'animale non lampeggia fino a quando non iniziano gli Stati Uniti.

Gli animali addestrati su DEC seguendo i protocolli di cui alla sezione 3 e registrati con le considerazioni precedenti dovrebbero mostrare una chiara evidenza di CR ben tempestive acquisite gradualmente in più giorni di addestramento. Esempi di tracce comportamentali senza CR in un animale non addestrato e tracce contenenti CR robusti da un animale addestrato sono presentati nella Figura 3B. Come mostrano queste tracce, gli animali ingenui non dovrebbero mostrare alcuna risposta al CS, ma una risposta robusta agli Stati Uniti. Le CR dovrebbero aumentare progressivamente sia in termini di dimensioni che di frequenza attraverso sessioni comportamentali eseguite nell'arco di giorni (Figura 3B-D). Al contrario, condizioni di illuminazione non ottimali limitano fortemente la qualità dei dati acquisiti. Quando il contrasto tra l'occhio e la pelliccia circostante è basso (Figura 3E), lievi cambiamenti nell'immagine possono alterare significativamente la forma registrata dell'UR in una singola sessione e ridurre il rapporto segnale-rumore per rilevare la posizione delle palpebre (Figura 3F-G).

Per garantire registrazioni palpebrali ad alta fedeltà, è fondamentale posizionare in modo ottimale la sorgente luminosa. Il LED di illuminazione deve essere addestrato direttamente sull'occhio registrato. Se il posizionamento provoca un abbagliamento eccessivo sulla superficie corneale, è possibile posizionare un diffusore sopra l'array di LED per ridurre questo effetto.

Flusso di lavoro per esperimenti e analisi DTSC
Molte delle considerazioni per la selezione dei parametri sperimentali sono simili tra il condizionamento tattile dello startle di ritardo (DTSC) e dec. Qui, indicheremo quelli che differiscono. Nei dati di esempio, la durata di DTSC CS è stata impostata su 250 ms con una durata statunitense di 50 ms. Questo intervallo inter-stimolo più breve è stato scelto per allinearsi strettamente con la durata più breve descritta come ottimale per l'apprendimento DTSC20. Altri parametri della piattaforma impostati tramite la GUI erano identici a quelli utilizzati per DEC.

Il corretto posizionamento dello stimolo tattile è fondamentale per l'apprendimento in DTSC. Montiamo lo stimolo tattile in modo tale che l'estremità della schiuma sia centrata leggermente sopra il naso dell'animale a una distanza di circa 1,5 cm quando si trova in posizione neutra. Una volta montato, lo stimolo può essere ruotato a mano quando una sessione non è in corso. Durante le sessioni, il motore passo-passo mantiene lo stimolo in una posizione precisa fino a quando non viene attivato un US. Per garantire che il posizionamento sia corretto, eseguiamo una sessione preparatoria di circa tre prove. Gli eventi registrati sull'encoder rotativo vengono stampati sullo schermo del terminale e questa stampa può essere utilizzata per monitorare l'ampiezza degli UR animali in tempo reale. Mentre l'ampiezza massima varierà da prova a prova, gli animali con un massimo medio di ~ 40 conteggi sull'encoder durante la sessione breve dovrebbero funzionare bene nell'attività DTSC. In base alle impostazioni di controllo dell'encoder rotativo, questo valore corrisponde a 24 cm/s, con un valore negativo che indica che l'animale si sta muovendo all'indietro sulla ruota.

L'organizzazione e la denominazione dei file prodotti nel corso delle sessioni DTSC sono le stesse di quelle prodotte in DEC. L'esecuzione di analyzeSession.py creerà un contenitore .npy per la velocità della ruota rispetto al tempo per tutte le prove in un array dall'analisi dei dati registrati nel file .csv. Una volta che tutte le sessioni sono state analizzate per un dato animale, tutte le sessioni possono essere allineate e concatenate usando summarizeSession.py. I risultati di un animale addestrato per 5 sessioni di DEC sono presentati nella Figura 4A. Per quanto riguarda DEC, le acquisizioni della fotocamera da DTSC possono essere convertite in file .mp4 visualizzabili. Esempi di studi DTSC sono mostrati fianco a fianco nel video supplementare 2. Il pannello di sinistra mostra una prova in cui l'animale esegue con successo il backup della ruota in risposta al LED CS. Nel pannello di destra, l'animale non riesce a muovere la ruota fino a quando non viene applicato lo stimolo tattile US.

Il corso temporale e l'ampiezza relativi all'UR delle risposte negli animali addestrati sul paradigma DTSC mostrano somiglianze qualitative con quelli addestrati su DEC. Gli animali naïve non dovrebbero mostrare alcuna risposta al CS e imparare a spostare la ruota all'indietro in risposta al CS solo dopo ripetute esposizioni al CS accoppiato e US. La frequenza e l'ampiezza delle CR aumentano man mano che la formazione procede (Figura 4A,B). Nel caso del DTSC, abbiamo scoperto che l'ampiezza dell'UR all'inizio dell'allenamento è un buon predittore del successo dell'apprendimento. In una coorte di animali addestrati con un US che ha prodotto UR a bassa ampiezza (<20 cm / s), nessun animale ha imparato a produrre costantemente CR dopo 4 giorni di addestramento (Figura 4C, D).

Differenze tra formazione DEC e DTSC
DEC e DTSC differiscono in modi importanti. In primo luogo, l'apprendimento DTSC su questa piattaforma avviene più rapidamente, con la maggior parte degli animali che raggiunge un alto grado di competenza nei compiti entro il terzo giorno di allenamento e prestazioni asintotiche entro il quinto giorno. L'apprendimento DEC è più lento per la maggior parte degli animali di almeno 3 giorni. In secondo luogo, il sistema DTSC incorpora il rilevamento automatico di CR di successo, che fungono da segnale di feedback all'apparato per ridurre l'ampiezza dello stimolo tattile. Questa procedura di allenamento imita il condizionamento del battito oculare, in cui le prestazioni CR migliorate forniscono una protezione parziale da un soffio d'aria corneale avversivo. Al contrario, gli animali con la testa fissa nel paradigma DTSC non sono in grado di proteggersi dallo stimolo tattile con la loro sola risposta motoria. Basando l'ampiezza degli Stati Uniti sulla presenza di una CR, gli animali hanno l'opportunità di proteggersi dallo stimolo avversivo.

Figure 1
Figura 1: Attributi e progettazione della piattaforma. (A) Elementi della piattaforma per la registrazione del comportamento degli animali in condizioni fisse. Il mouse è stato adattato da un'immagine di Biorender. (B) Tempi e stimoli per il condizionamento DEC e DTSC. Un intervallo inter-stimolo (ISI) definito dall'utente determina la durata dell'epoca solo CS. Le epoche CS e US sono progettate per co-terminare. (C) Immagine che dimostri il posizionamento degli elementi chiave della piattaforma. 1) Motore passo-passo per il controllo del DTSC US. 2) Ruota da corsa per l'animale. 3) Encoder rotativo per il tracciamento del movimento della ruota. 4) Schiuma nastrata su un braccio acrilico che funge da stimolo tattile DTSC. 5) LED CS. 6) Elettrovalvola e uscita che fornisce il DEC US. 7) Picamera per la registrazione del comportamento animale. 8) LED a infrarossi per l'illuminazione del palcoscenico. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 2
Figura 2: Cablaggio degli elementi hardware della piattaforma. (A) Schema elettrico Fritzing dell'hardware della piattaforma quando completamente assemblato. I fili sono colorati da moduli con arancione = modulo fotocamera; giallo = modulo DEC US; blu = modulo LED CS; viola = modulo DTSC US; verde = Modulo encoder rotativo. Il picamera è escluso ma si collega all'interfaccia seriale della fotocamera situata sulla superficie del Raspberry Pi. Le batterie indicano gli alimentatori in corrente continua alla tensione specificata. (B-F) Schema di cablaggio equivalente per moduli isolati. I fili sono stati ricolorati, in modo che il rosso e il nero indichino sempre rispettivamente guida di alimentazione positiva e terra, mentre altri fili sono colorati per consentire un facile seguito del circuito. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 3
Figura 3: Risultati rappresentativi della formazione DEC. (A) Esempio di fotogramma della telecamera di una sessione con condizioni di illuminazione accettabili. Si noti l'elevato contrasto tra l'occhio e la pelliccia perioculare. (B) Prestazioni di un singolo animale durante le sessioni eseguite per giorni nel paradigma DEC. Le linee orizzontali indicano le prestazioni in ogni prova, con colori caldi che indicano una maggiore chiusura delle palpebre. La linea verticale nera rossa più a sinistra indica l'inizio del CS, mentre la linea tratteggiata indica l'inizio degli Stati Uniti. La seconda linea continua indica la cessazione del CS e degli Stati Uniti. Si noti che il numero di studi con risposte di successo durante il CS aumenta durante le sessioni di allenamento. (C) Prestazioni degli animali da (B) con tracce individuali derivate dalla media di prova per la sessione ogni giorno. La saturazione della tonalità indica il numero di sessione con una saturazione più elevata per le sessioni successive. D) Prestazioni per tutti gli animali del gruppo DEC (n = 7). Le linee sottili indicano la percentuale di prove con un CR rilevabile da ogni sessione per ogni animale. Le linee spesse indicano che la sessione significa su tutti gli animali. (E) Esempio di fotogramma della telecamera di una sessione con condizioni di illuminazione non ottimali. (F) Quantificazione di singole prove registrate con scarsa illuminazione. L'UR è rilevabile ma con un contrasto inferiore e una maggiore variabilità rispetto a condizioni di luce ottimali. (G) Tracce medie di sessione da prove presentate in (F). Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 4
Figura 4: Risultati rappresentativi dell'addestramento DTSC. (A) Prestazioni di un singolo animale durante le sessioni eseguite per giorni nel paradigma DTSC. Le linee orizzontali indicano le prestazioni in ogni prova, con colori caldi che indicano il movimento all'indietro della ruota. La linea verticale nera più a sinistra indica l'inizio del CS, mentre la linea tratteggiata indica l'inizio degli Stati Uniti. La seconda linea continua indica la cessazione del CS e degli Stati Uniti. (B) Prestazioni animali da (A) con tracce individuali derivate dalla media di prova per la sessione ogni giorno. La saturazione della tonalità indica il numero di sessione con una saturazione più elevata per le sessioni successive. C) Prestazioni per tutti gli animali del gruppo DTSC (n = 6). Le linee sottili indicano la percentuale di prove con un CR rilevabile da ogni sessione per ogni animale. Le linee spesse indicano che la sessione significa su tutti gli animali. (D) Singoli studi come in (A) da una coorte in cui l'intensità degli Stati Uniti ha suscitato UR a bassa ampiezza. (E) Tracce medie di sessione presentate come in (B) per gli animali sottoposti agli Stati Uniti deboli. (F) Prestazioni per tutti gli animali in DTSC con US deboli (n = 6). Fare clic qui per visualizzare una versione più grande di questa figura.

Video supplementare 1: Prova dec hit and miss di esempio. Le prove DEC vengono confrontate nel video 1. Ogni video mostra prove in cui il soggetto fa (a sinistra) o non riesce a rendere (a destra) il CR target sincronizzato e riprodotto fianco a fianco per il confronto. Il LED CS si accende quando il quadrato blu appare nell'angolo in alto a sinistra di ogni video. Il segnale di controllo degli Stati Uniti è attivo quando un quadrato bianco sostituisce il quadrato blu. I segnali di controllo CS e US co-terminano quando il quadrato scompare. Clicca qui per scaricare questo video.

Video supplementare 2: Esempi di prove DTSC hit and miss. Il video 2 mostra il confronto degli studi DTSC. Ogni video mostra prove in cui il soggetto fa (a sinistra) o non riesce a rendere (a destra) il CR target sincronizzato e riprodotto fianco a fianco per il confronto. Il LED CS si accende quando il quadrato blu appare nell'angolo in alto a sinistra di ogni video. Il segnale di controllo degli Stati Uniti è attivo quando un quadrato bianco sostituisce il quadrato blu. I segnali di controllo CS e US co-terminano quando il quadrato scompare. Clicca qui per scaricare questo video.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

La piattaforma con i protocolli associati qui descritti può essere utilizzata per tracciare in modo affidabile il comportamento animale in due attività di apprendimento associativo sensoriale. Ogni compito dipende dalla comunicazione intatta attraverso il percorso in fibra di arrampicata. Nel progetto qui descritto, incorporiamo elementi per facilitare l'apprendimento e la registrazione / perturbazione della risposta cerebellare. Questi includono una ruota per consentire la locomozione libera 11,18 e la fissazione della testa. La rotellina consente ai soggetti mouse di locomotare liberamente, il che è stato osservato essere fondamentale per l'acquisizione DEC18. La fissazione della testa nei topi consente ai ricercatori di sfruttare approcci genetici, elettrofisiologici, di imaging e optogenetici che sono più difficili da usare in altre specie modello o in condizioni di libera circolazione12. Abbiamo utilizzato il nostro design per ciascuna di queste applicazioni. Il software eseguito sui microcontrollori può essere facilmente adattato per controllare i segnali di temporizzazione per l'acquisizione multifotone o la sincronizzazione con stimolazione optogenetica, entrambi con precisione inferiore al millisecondo. Bisogna fare attenzione a ridurre al minimo la percezione animale delle apparecchiature optogenetiche e di imaging quando queste sono combinate con esperimenti comportamentali. Ad esempio, molti sistemi multifotonici emettono un suono udibile dai loro scanner galvanometrici o otturatori quando iniziano le acquisizioni di immagini. Se le acquisizioni sono innescate da inizi di prova, tali suoni possono servire come segnale involontario per i soggetti animali che uno stimolo è imminente.

Il controllo dell'apparato comportamentale è costruito attorno a un SBC, che viene utilizzato per generare un'interfaccia utente grafica per la gestione dell'esperimento, della fotocamera e dell'esportazione dei dati. L'SBC invia inoltre comandi a due microcontrollori che gestiscono la temporizzazione delle prove e controllano direttamente i componenti hardware come la presentazione dello stimolo e l'encoder rotativo. I protocolli qui descritti sono stati testati utilizzando un Raspberry Pi 3B + o 4B collegato a un Arduino a causa della temporizzazione dell'esperimento di controllo e un Arduino Uno per controllare la presentazione del DTSC US. Altre implementazioni di progettazione hardware sono possibili ma non sono state testate con il software fornito.

Per facilitare l'utilizzo di più carri in parallelo, si consiglia di utilizzare l'SBC in modalità "headless". In questa configurazione, un computer host viene utilizzato per interagire con l'SBC. Uno switch Ethernet consente la connettività Internet simultanea sia a un computer host che a SBC. Lo switch consente inoltre la comunicazione diretta tra l'host e sBC con un rapido trasferimento dei dati. Di conseguenza, lo switch consente un facile trasferimento dei dati e la manutenzione del pacchetto SBC.

Per l'esecuzione di più carri in parallelo, ogni carro deve essere collocato nel proprio involucro specializzato. Questi involucri devono includere l'insonorizzazione se collocati in prossimità l'uno dell'altro. Sopprimere il suono tra rig adiacenti può aiutare a evitare segnali uditivi involontari da stimoli prodotti in recinti vicini.

L'uso di un'unica piattaforma per DEC e DTSC consente agli investigatori di navigare in modo flessibile tra i punti di forza e di debolezza di ciascun paradigma. DEC gode di intuizioni derivate da decenni di ricerca su quali regioni del cervello e specifici elementi del circuito cerebellare sono coinvolti nell'apprendimento e nell'esecuzione dei compiti 1,4,11,13,14,15,19. Tuttavia, nei topi, la regione della corteccia cerebellare più spesso associata al condizionamento del battito oculare11,12 si trova in profondità all'interno della fessura cerebellare primaria (anche se vedi 15,17,27 che dimostrano una regione associata a DEC del lobulo superficiale VI). Un locus profondo per l'apprendimento complica l'accesso per gli esperimenti ottici, in particolare l'imaging multifotonico dell'attività cellulare e gli esperimenti di perturbazione optogenetica. Al contrario, i substrati cerebellari di DTSC si trovano parzialmente nell'aspetto superficiale dei lobuli IV/V20. DTSC presenta quindi un accesso ottico paragonabile a quello della neocorteccia dorsale, un sito popolare per le indagini neuroscientifiche dei sistemi.

Nel nostro design, il comportamento degli animali viene monitorato utilizzando un encoder rotativo collegato alla ruota e una telecamera. Abbiamo selezionato questi metodi per il basso costo e la facilità di implementazione. In alcuni casi, altri metodi di tracciamento possono fornire una maggiore precisione spaziale e temporale. Ad esempio, la posizione delle palpebre in DEC è stata comunemente monitorata utilizzando sensori a effetto Hall28,29 o registrazioni elettromiografiche della regione periorbitale del musculus orbicularis oculi 30,31. Allo stesso modo, il tracciamento della locomozione rilevando il movimento della ruota fornisce un quadro meno dettagliato del comportamento degli animali rispetto agli algoritmi di tracciamento della posa basati su immagini come SLEAP32 e DeepLabCut33. Le registrazioni basate su telecamera consentono l'aggiunta di tali approcci.

Qui, abbiamo presentato una piattaforma per il monitoraggio del comportamento animale durante due paradigmi di apprendimento associativo dipendenti dalla fibra di arrampicata. La nostra piattaforma ha lo scopo di aumentare l'accessibilità di questi metodi sia in termini di costi che di facilità di implementazione.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Gli autori non hanno conflitti di interesse da divulgare.

Acknowledgments

Questo lavoro è supportato da sovvenzioni del National Institutes of Mental Health NRSA F32 MH120887-03 (a G.J.B.) e R01 NS045193 e R01 MH115750 (a S.S-H.W.). Ringraziamo i dottori Bas Koekkoek e Henk-Jan Boele per le discussioni utili per l'ottimizzazione della configurazione DEC e i dottori Yue Wang e Xiaoying Chen per le discussioni utili per ottimizzare la configurazione DTSC.

Materials

Name Company Catalog Number Comments
"B" Quick Base For C&B METABOND - 10 mL bottle Parkell S398 Dental cement solvent
"C" Universal TBB Catalyst - 0.7 mL Parkell S371 Catalyst
#8 Washers Thorlabs W8S038 Washers
0.250" (1/4") x 8.00" Stainless Steel Precision Shafting Servocity 634172 1/4" shaft
0.250” (0.770") Clamping Hub Servocity 545588 Clamping hub
1/4" to 6 mm Set Screw Shaft Coupler- 5 pack Actobotics 625106 Shaft-coupling sleeve
1/4"-20 Cap Screws, 3/4" Long Thorlabs SH25S075 1/4" bolt
100 pcs 5 mm 395–400 nm UV Ultraviolet LED Light Emitting Diode Clear Round Lens 29 mm Long Lead (DC 3V) LEDs Lights +100 pcs Resistors EDGELEC ‎ED_YT05_U_100Pcs CS LEDs
2 m Micro HDMI to DVI-D Cable - M/M - 2 m Micro HDMI to DVI Cable - 19 pin HDMI (D) Male to DVI-D Male - 1920 x 1200 Video Star-tech ‎HDDDVIMM2M Raspberry Pi4B to monitor cable
256 GB Ultra Fit USB 3.1 Flash Drive SanDisk ‎SDCZ430-256G-G46 USB thumb drive
3.3 V–5 V 4 Channels Logic Level Converter Bi-Directional Shifter Module Amazon B00ZC6B8VM Logic level shifter
32 GB 95 MB/s (U1) microSDHC EVO Select Memory Card Samsung ‎MB-ME32GA/AM microSD card
4.50" Aluminum Channel Servocity 585444 4.5" aluminum channel
48-LED CCTV Ir Infrared Night Vision Illuminator Towallmark SODIAL Infrared light array
4PCS Breadboards Kit Include 2PCS 830 Point 2PCS 400 Point Solderless Breadboards for Proto Shield Distribution Connecting Blocks REXQualis B07DL13RZH Breadboard
5 Port Gigabit Unmanaged Ethernet Network Switch TP-Link ‎TL-SG105 Ethernet switch
5 V 2.5 A Raspberry Pi 3 B+ Power Supply/Adapter Canakit ‎DCAR-RSP-2A5 Power supply for Raspberry Pi 3B+
5-0 ETHILON BLACK 1 x 18" C-3 Ethicon 668G Sutures
6 mm Shaft Encoder 2000 PPR Pushpull Line Driver Universal Output Line Driver Output 5-26 V dc Supply Calt  B01EWER68I Rotary encoder
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 1", 5 Pack Thorlabs TR1-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 2", 5 Pack Thorlabs TR2-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 4", 5 Pack Thorlabs TR4-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 6", 5 Pack Thorlabs TR6-P5 Optical posts
Ø1/2" Post Holder, Spring-Loaded Hex-Locking Thumbscrew, L = 2" Thorlabs PH2 Optical post holder
Adapter-062-M X LUER LOCK-F The Lee Co. TMRA3201950Z Solenoid valve luer adapter
Aeromat Foam Roller Size: 36" Length Aeromat B002H3CMUE Foam roller
Aluminum Breadboard 10" x 12" x 1/2", 1/4"-20 Taps Thorlabs MB1012 Aluminum breadboard
Amazon Basics HDMI to DVI Adapter Cable, Black, 6 Feet, 1-Pack Amazon HL-007347 Raspberry Pi3B+ to monitor cable
Arduino  Uno R3 Arduino A000066 Arduino Uno (microcontroller board)
Arduino Due Arduino ‎A000062 Arduino Due (microcontroller board)
Bench Power Supply, Single, Adjustable, 3 Output, 0 V, 24 V, 0 A, 2 A Tenma 72-8335A Power supply
Clear Scratch- and UV-Resistant Cast Acrylic Sheet, 12" x 24" x 1/8" McMaster Carr 8560K257 Acrylic sheet
CNC Stepper Motor Driver 1.0–4.2 A 20–50 V DC 1/128 Micro-Step Resolutions for Nema 17 and 23 Stepper Motor Stepper Online B06Y5VPSFN Stepper motor driver
Compact Compressed Air Regulator, Inline Relieving, Brass Housing, 1/4 NPT McMaster Carr 6763K13 Air source regulator
Cotton Swab Puritan 806-WC Cotton swab
Dell 1908FP 19" Flat Panel Monitor - 1908FPC Dell 1908FPC Computer monitor
Flex Cable for Raspberry Pi Camera Adafruit 2144 camera serial interface cable
High Torque Nema 17 Bipolar Stepper Motor 92 oz·in/65 N·cm 2.1 A Extruder Motor Stepper Online 17HS24-2104S Stepper motor
Isoflurane Henry Schein 66794001725 Isoflurane
Krazy Maximum Bond Permanent Glue, 0.18 oz. Krazy Glue KG483 Cyanoacrylate glue
Lidocaine HCl VetOne 510212 Lidocaine
Low-Strength Steel Hex Nut, Grade 2, Zinc-Plated, 1/4"-20 Thread Size McMaster Carr 90473A029 Nuts
M3 x 50 mm Partially Threaded Hex Key Socket Cap Head Screws 10 pcs Uxcell A16040100ux1380 M3 bolt
NEMA 17 Stepper Motor Mount ACTOBOTICS 555152 Stepper motor mount
Official Raspberry Pi Power Supply 5.1 V 3 A with USB C - 1.5 m long Adafruit 4298 Power supply for Raspberry Pi 4B
Optixcare Dog & Cat Eye Lube Lubricating Gel, 0.70-oz tube Optixcare 142422 Opthalimic ointment
Precision Stainless Steel Ball Bearing, Shielded, Trade No. R188-2Z, 13000 rpm Maximum Speed McMaster-Carr 3759T57 Bearing
Premium Female/Female Jumper Wires - 40 x 6" Adafruit 266 Wires
Premium Female/Male 'Extension' Jumper Wires - 40 x 6" (150 mm) Adafruit 826 Wires
Premium Male/Male Jumper Wires - 40 x 6" Adafruit 758 Wires
Radiopaque L-Powder for C&B METABOND - 5 g Parkell S396 Dental cement powder
Raspberry Pi (3B+ or 4B) Adafruit 3775 or 4295 Raspberry Pi
Raspberry Pi NoIR Camera Module V2 - 8MP 1080P30 Raspberry Pi Foundation RPI3-NOIR-V2 Raspberry NoIR V2 camera
Right-Angle Bracket, 1/4" (M6) Counterbored Slot, 8-32 Taps Thorlabs AB90E Right-angle bracket
Right-Angle Clamp for Ø1/2" Posts, 3/16" Hex Thorlabs RA90 Right-angle optical post clamp
Right-Angle End Clamp for Ø1/2" Posts, 1/4"-20 Stud and 3/16" Hex Thorlabs RA180 Right-angle end clamp
RJ45 Cat-6 Ethernet Patch Internet Cable Amazon ‎CAT6-7FT-5P-BLUE Ethernet cable
Rotating Clamp for Ø1/2" Posts, 360° Continuously Adjustable, 3/16" Hex Thorlabs SWC Rotating optical post clamps
Spike & Hold Driver-0.1 TO 5 MS The Lee Co. IECX0501350A Solenoid valve driver
Swivel Base Adapter Thorlabs UPHA Post holder adapter
USB 2.0 A-Male to Micro B Cable, 6 feet Amazon ‎7T9MV4 USB2 type A to USB2 micro cable
USB 2.0 Printer Cable - A-Male to B-Male, 6 Feet (1.8 m) Amazon B072L34SZS USB2 type B to USB2 type A cable
VHS-M/SP-12 V The Lee Co. INKX0514900A Solenoid valve
Zinc-Plated Steel 1/4" washer, OD 1.000" McMaster Carr 91090A108 Washers

DOWNLOAD MATERIALS LIST

References

  1. McCormick, D. A., Lavond, D. G., Clark, G. A., Kettner, R. E., Rising, C. E., Thompson, R. F. The engram found? Role of the cerebellum in classical conditioning of nictitating membrane and eyelid responses. Bulletin of the Psychonomic Society. 18 (3), 103-105 (1981).
  2. McCormick, D. A., Clark, G. A., Lavond, D. G., Thompson, R. F. Initial localization of the memory trace for a basic form of learning. Proceedings of the National Academy of Sciences of the United States of America. 79 (8), 2731-2735 (1982).
  3. McCormick, D. A., Thompson, R. F. Cerebellum: essential involvement in the classically conditioned eyelid response. Science. 223 (4633), New York, N.Y. 296-299 (1984).
  4. Krupa, D. J., Thompson, J. K., Thompson, R. F. Localization of a memory trace in the mammalian brain. Science. 260 (5110), New York, N.Y. 989-991 (1993).
  5. Llinás, R., Sugimori, M. Electrophysiological properties of in vitro Purkinje cell dendrites in mammalian cerebellar slices. The Journal of Physiology. 305, 197-213 (1980).
  6. Mintz, M., Lavond, D. G., Zhang, A. A., Yun, Y., Thompson, R. F. Unilateral inferior olive NMDA lesion leads to unilateral deficit in acquisition and retention of eyelid classical conditioning. Behavioral and Neural Biology. 61 (3), 218-224 (1994).
  7. Welsh, J. P., Harvey, J. A. Cerebellar lesions and the nictitating membrane reflex: performance deficits of the conditioned and unconditioned response. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 9 (1), 299-311 (1989).
  8. Mauk, M. D., Steinmetz, J. E., Thompson, R. F. Classical conditioning using stimulation of the inferior olive as the unconditioned stimulus. Proceedings of the National Academy of Sciences of the United States of America. 83 (14), 5349-5353 (1986).
  9. Steinmetz, J. E., Lavond, D. G., Thompson, R. F. Classical conditioning in rabbits using pontine nucleus stimulation as a conditioned stimulus and inferior olive stimulation as an unconditioned stimulus. Synapse. 3 (3), New York, N.Y. 225-233 (1989).
  10. Chettih, S. N., McDougle, S. D., Ruffolo, L. I., Medina, J. F. Adaptive timing of motor output in the mouse: The role of movement oscillations in eyelid conditioning. Frontiers in Integrative Neuroscience. 5, 72 (2011).
  11. Heiney, S. A., Wohl, M. P., Chettih, S. N., Ruffolo, L. I., Medina, J. F. Cerebellar-dependent expression of motor learning during eyeblink conditioning in head-fixed mice. The Journal of Neuroscience. 34 (45), 14845-14853 (2014).
  12. Heiney, S. A., Kim, J., Augustine, G. J., Medina, J. F. Precise control of movement kinematics by optogenetic inhibition of purkinje cell activity. Journal of Neuroscience. 34 (6), 2321-2330 (2014).
  13. Ten Brinke, M. M., et al. Evolving models of pavlovian conditioning: Cerebellar cortical dynamics in awake behaving mice. Cell Reports. 13 (9), 1977-1988 (2015).
  14. Gao, Z., et al. Excitatory cerebellar nucleocortical circuit provides internal amplification during associative conditioning. Neuron. 89 (3), 645-657 (2016).
  15. Giovannucci, A., et al. Cerebellar granule cells acquire a widespread predictive feedback signal during motor learning. Nature Neuroscience. 20 (5), 727-734 (2017).
  16. Ten Brinke, M. M., et al. Dynamic modulation of activity in cerebellar nuclei neurons during pavlovian eyeblink conditioning in mice. eLife. 6, 28132 (2017).
  17. Wang, X., Yu, S., Ren, Z., De Zeeuw, C. I., Gao, Z. A FN-MdV pathway and its role in cerebellar multimodular control of sensorimotor behavior. Nature Communications. 11 (1), 6050 (2020).
  18. Albergaria, C., Silva, N. T., Pritchett, D. L., Carey, M. R. Locomotor activity modulates associative learning in mouse cerebellum. Nature Neuroscience. 21 (5), 725-735 (2018).
  19. Kim, O. A., Ohmae, S., Medina, J. F. A cerebello-olivary signal for negative prediction error is sufficient to cause extinction of associative motor learning. Nature Neuroscience. 23 (12), 1550-1554 (2020).
  20. Yamada, T., et al. Sensory experience remodels genome architecture in neural circuit to drive motor learning. Nature. 569 (7758), 708-713 (2019).
  21. Horlington, M. Startle response circadian rhythm in rats: lack of correlation with motor activity. Physiology & Behavior. 5 (1), 49-53 (1970).
  22. Yeomans, J. S., Li, L., Scott, B. W., Frankland, P. W. Tactile, acoustic and vestibular systems sum to elicit the startle reflex. Neuroscience and Biobehavioral Reviews. 26 (1), 1-11 (2002).
  23. Raspberry Pi Operating system images. , Available from: https://www.raspberrypi.com/software/operationg-systems/ (2021).
  24. VNC Server. VNC® Connect. , Available from: https://www.realvnc.com/en/connect/download/vnc/ (2021).
  25. Anaconda: The world's most popular data science platform. , Available from: https://xddebuganaconda.xdlab.co/ (2021).
  26. De Zeeuw, C. I., Ten Brinke, M. M. Motor learning and the cerebellum. Cold Spring Harbor Perspectives in Biology. 7 (9), 021683 (2015).
  27. Badura, A., et al. Normal cognitive and social development require posterior cerebellar activity. eLife. 7, 36401 (2018).
  28. Koekkoek, S. K. E., Den Ouden, W. L., Perry, G., Highstein, S. M., De Zeeuw, C. I. Monitoring kinetic and frequency-domain properties of eyelid responses in mice with magnetic distance measurement technique. Journal of Neurophysiology. 88 (4), 2124-2133 (2002).
  29. Kloth, A. D., et al. Cerebellar associative sensory learning defects in five mouse autism models. eLife. 4, 06085 (2015).
  30. Boele, H. -J., Koekkoek, S. K. E., De Zeeuw, C. I. Cerebellar and extracerebellar involvement in mouse eyeblink conditioning: the ACDC model. Frontiers in Cellular Neuroscience. 3, (2010).
  31. Lin, C., Disterhoft, J., Weiss, C. Whisker-signaled eyeblink classical conditioning in head-fixed Mice. Journal of Visualized Experiments: JoVE. (109), e53310 (2016).
  32. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  33. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).

Tags

Neuroscienze Numero 179 cervelletto apprendimento motorio associativo ritardo condizionamento del battito oculare ritardo condizionamento dello stimolo tattile
Una piattaforma flessibile per il monitoraggio dell'apprendimento associativo sensoriale dipendente dal cervelletto
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Broussard, G. J., Kislin, M., Jung,More

Broussard, G. J., Kislin, M., Jung, C., Wang, S. S. H. A Flexible Platform for Monitoring Cerebellum-Dependent Sensory Associative Learning. J. Vis. Exp. (179), e63205, doi:10.3791/63205 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter