Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Un sistema di realtà virtuale open source per la misurazione dell'apprendimento spaziale in topi con la testa trattenuta

Published: March 3, 2023 doi: 10.3791/64863

Summary

Qui, presentiamo una configurazione hardware e software open source semplificata per studiare l'apprendimento spaziale del mouse utilizzando la realtà virtuale (VR). Questo sistema visualizza una traccia lineare virtuale a un mouse con la testa trattenuta che gira su una ruota utilizzando una rete di microcontrollori e un computer a scheda singola che esegue un pacchetto software grafico Python facile da usare.

Abstract

Gli esperimenti comportamentali sui topi consentono ai neuroscienziati di osservare l'attività del circuito neurale con strumenti di imaging elettrofisiologico e ottico ad alta risoluzione, fornendo al contempo precisi stimoli sensoriali a un animale che si comporta. Recentemente, studi sull'uomo e sui roditori che utilizzano ambienti di realtà virtuale (VR) hanno dimostrato che la realtà virtuale è uno strumento importante per scoprire i meccanismi neurali alla base dell'apprendimento spaziale nell'ippocampo e nella corteccia, grazie al controllo estremamente preciso su parametri come segnali spaziali e contestuali. La creazione di ambienti virtuali per i comportamenti spaziali dei roditori può, tuttavia, essere costosa e richiedere un ampio background in ingegneria e programmazione informatica. Qui, presentiamo un sistema semplice ma potente basato su hardware e software open source economico, modulare e che consente ai ricercatori di studiare l'apprendimento spaziale in topi con la testa trattenuta utilizzando un ambiente VR. Questo sistema utilizza microcontrollori accoppiati per misurare la locomozione e fornire stimoli comportamentali mentre i topi trattenuti dalla testa corrono su una ruota in concerto con un ambiente di binario lineare virtuale reso da un pacchetto software grafico in esecuzione su un computer a scheda singola. L'enfasi sull'elaborazione distribuita consente ai ricercatori di progettare sistemi flessibili e modulari per suscitare e misurare comportamenti spaziali complessi nei topi al fine di determinare la connessione tra l'attività del circuito neurale e l'apprendimento spaziale nel cervello dei mammiferi.

Introduction

La navigazione spaziale è un comportamento etologicamente importante con cui gli animali codificano le caratteristiche di nuove posizioni in una mappa cognitiva, che viene utilizzata per trovare aree di possibile ricompensa ed evitare aree di potenziale pericolo. Inestricabilmente legati alla memoria, i processi cognitivi alla base della navigazione spaziale condividono un substrato neurale nell'ippocampo1 e nella corteccia, dove i circuiti neurali in queste aree integrano le informazioni in entrata e formano mappe cognitive di ambienti ed eventi per il successivo richiamo2. Mentre la scoperta delle cellule di posizione nell'ippocampo3,4 e delle cellule griglia nella corteccia entorinale5 ha fatto luce su come si forma la mappa cognitiva all'interno dell'ippocampo, rimangono molte domande su come specifici sottotipi neurali, microcircuiti e singole sottoregioni dell'ippocampo (il giro dentato e le aree di cornu ammonis, CA3-1) interagiscono e partecipano alla formazione e al richiamo della memoria spaziale.

L'imaging a due fotoni in vivo è stato uno strumento utile per scoprire le dinamiche cellulari e di popolazione nella neurofisiologia sensoriale 6,7; Tuttavia, la tipica necessità di poggiatesta limita l'utilità di questo metodo per esaminare il comportamento spaziale dei mammiferi. L'avvento della realtà virtuale (VR)8 ha affrontato questa carenza presentando ambienti visuospaziali immersivi e realistici mentre topi con la testa trattenuta corrono su una palla o un tapis roulant per studiare la codifica spaziale e contestuale nell'ippocampo 8,9,10 e nella corteccia 11. Inoltre, l'uso di ambienti VR con topi che si comportano ha permesso ai ricercatori di neuroscienze di sezionare le componenti del comportamento spaziale controllando con precisione gli elementi dell'ambiente VR12 (ad esempio, flusso visivo, modulazione contestuale) in modi non possibili negli esperimenti del mondo reale di apprendimento spaziale, come il labirinto d'acqua di Morris, il labirinto di Barnes o le attività di holboard.

Gli ambienti VR visivi sono tipicamente renderizzati sull'unità di elaborazione grafica (GPU) di un computer, che gestisce il carico di calcolo rapido delle migliaia di poligoni necessari per modellare un ambiente 3D in movimento su uno schermo in tempo reale. I grandi requisiti di elaborazione richiedono generalmente l'uso di un PC separato con una GPU che esegue il rendering dell'ambiente visivo su un monitor, più schermi13 o un proiettore14 mentre il movimento viene registrato da un tapis roulant, una ruota o una palla di schiuma sotto l'animale. L'apparato risultante per il controllo, il rendering e la proiezione dell'ambiente VR è, quindi, relativamente costoso, ingombrante e ingombrante. Inoltre, molti di questi ambienti in letteratura sono stati implementati utilizzando software proprietario che è costoso e può essere eseguito solo su un PC dedicato.

Per questi motivi, abbiamo progettato un sistema VR open source per studiare i comportamenti di apprendimento spaziale nei topi con controllo della testa utilizzando un computer a scheda singola Raspberry Pi. Questo computer Linux è piccolo ed economico, ma contiene un chip GPU per il rendering 3D, consentendo l'integrazione di ambienti VR con il display o l'apparato comportamentale in varie configurazioni individuali. Inoltre, abbiamo sviluppato un pacchetto software grafico scritto in Python, "HallPassVR", che utilizza il computer a scheda singola per rendere un semplice ambiente visuospaziale, una traccia lineare virtuale o un corridoio, ricombinando caratteristiche visive personalizzate selezionate utilizzando un'interfaccia utente grafica (GUI). Questo è combinato con sottosistemi di microcontrollori (ad esempio, ESP32 o Arduino) per misurare la locomozione e coordinare il comportamento, ad esempio mediante la consegna di altre modalità di stimoli sensoriali o ricompense per facilitare l'apprendimento per rinforzo. Questo sistema fornisce un metodo alternativo economico, flessibile e facile da usare per fornire ambienti VR visuospaziali a topi con ritenuta della testa durante l'imaging a due fotoni (o altre tecniche che richiedono la fissazione della testa) per studiare i circuiti neurali alla base del comportamento di apprendimento spaziale.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Tutte le procedure di questo protocollo sono state approvate dall'Institutional Animal Care and Use Committee del New York State Psychiatric Institute.

NOTA: un computer a scheda singola viene utilizzato per visualizzare un ambiente visivo VR coordinato con l'esecuzione di un mouse con ritenuta per la testa su una ruota. Le informazioni di movimento vengono ricevute come input seriale da un microcontrollore ESP32 che legge un encoder rotativo accoppiato all'asse ruota. L'ambiente VR viene renderizzato utilizzando l'accelerazione hardware OpenGL sulla GPU Raspberry Pi, che utilizza il pacchetto 3D pi3d Python per Raspberry Pi. L'ambiente renderizzato viene quindi trasmesso tramite un proiettore su uno schermo parabolico avvolgente compatto centrato sul campo visivo15,16 del mouse trattenuto dalla testa, mentre il comportamento (ad esempio, leccare in risposta a ricompense spaziali) viene misurato da un secondo microcontrollore ESP32 di comportamento. Il pacchetto software grafico consente la creazione di ambienti di binari lineari virtuali costituiti da schemi ripetuti di stimoli visivi lungo un corridoio virtuale o un corridoio con un'interfaccia utente grafica (GUI). Questo disegno è facilmente parametrizzabile, consentendo così la creazione di esperimenti complessi volti a comprendere come il cervello codifica luoghi e segnali visivi durante l'apprendimento spaziale (vedi sezione 4). I progetti per i componenti hardware personalizzati necessari per questo sistema (ad esempio, la ruota di corsa, lo schermo di proiezione e l'apparato di ritenuta per la testa) vengono depositati in un repository GitHub pubblico (https://github.com/GergelyTuri/HallPassVR). Si consiglia di leggere la documentazione di tale repository insieme a questo protocollo, poiché il sito verrà aggiornato con futuri miglioramenti del sistema.

1. Configurazione hardware: costruzione della ruota di corsa, dello schermo di proiezione e dell'apparato di fissaggio della testa

NOTA: I componenti personalizzati per queste configurazioni possono essere facilmente fabbricati se l'utente ha accesso alle apparecchiature di stampa 3D e taglio laser o può essere esternalizzato a servizi di produzione professionale o prototipazione 3D (ad esempio, eMachinehop). Tutti i file di progettazione sono forniti come . File STL 3D o . File DXF AutoCAD.

  1. Configurazione della ruota di corsa e del comportamento (Figura 1)
    NOTA: La ruota è costituita da un cilindro acrilico trasparente (6 di diametro, 3 di larghezza, 1/8 di spessore) centrato su un asse sospeso da supporti acrilici tagliati al laser tramite cuscinetti a sfera. Il gruppo ruota viene quindi montato su un telaio in alluminio leggero (scanalatura a T) e fissato saldamente a una breadboard ottica (Figura 1C-E).
    1. Tagliare al laser i lati della ruota e dei supporti dell'asse da un foglio acrilico da 1/4 e fissare i lati della ruota al cilindro acrilico con cemento acrilico. Avvitare la flangia dell'asse al centro del lato ruota.
    2. Inserire l'asse nella flangia centrale della ruota, inserire i cuscinetti a sfere nei supporti dell'asse e fissarli alla barra di supporto verticale in alluminio.
    3. Inserire l'asse della ruota nei cuscinetti a sfere montati, lasciando 0,5-1 pollice dell'asse oltre i cuscinetti per il fissaggio dell'encoder rotativo.
    4. Collegare il supporto dell'encoder rotativo all'estremità dell'asse opposto alla ruota e inserire l'encoder rotativo; Quindi, utilizzare l'accoppiatore dell'albero per accoppiare l'asse della ruota all'albero dell'encoder rotante.
    5. Collegare la porta di leccamento al braccio flessibile, quindi fissare al telaio della ruota in alluminio con dadi a T. Utilizzare tubi da 1/16 di pollice per collegare la porta di leccamento all'elettrovalvola e la valvola al serbatoio dell'acqua.
      NOTA: la porta di leccamento deve essere realizzata in metallo con un filo saldato per collegarla ai pin di rilevamento tattile capacitivo del comportamento ESP32.
  2. Schermo di proiezione
    NOTA: Lo schermo VR è un piccolo schermo parabolico a retroproiezione (dimensioni tela: 54 cm x 21,5 cm) basato su un design sviluppato nel laboratorio di Christopher Harvey15,16. L'angolo di proiezione (keystone) del proiettore LED utilizzato è diverso da quello del proiettore laser utilizzato in precedenza; pertanto, il design originale viene leggermente modificato montando l'unità sotto lo schermo e semplificando il sistema di specchi (Figura 1A, B). Si consiglia vivamente di leggere la documentazione del laboratorio Harvey insieme alla nostra per adattare l'ambiente VR alle esigenze dell'utente15.
    1. Taglio laser dei lati dello schermo di proiezione da 1/4 in fogli acrilici neri opachi. Taglio laser dello specchio retroproiettore da 1/4 in acrilico specchiato.
    2. Assemblare il telaio dello schermo di proiezione con le barre di alluminio e tagliare al laser i pannelli acrilici.
    3. Inserire il materiale dello schermo di proiezione traslucido nello slot parabolico nel telaio. Inserire lo specchio di retroproiezione nello slot nella parte posteriore della cornice dello schermo di proiezione.
    4. Posizionare un proiettore LED sulla piastra di montaggio inferiore all'interno della cornice dello schermo di proiezione. Allineare il proiettore con bulloni di montaggio per ottimizzare il posizionamento dell'immagine proiettata sullo schermo parabolico di retroproiezione.
    5. Sigillare l'unità box del proiettore per evitare la contaminazione della luce dei sensori ottici, se necessario.
  3. Dispositivo di ritenuta della testa
    NOTA: Questo design dell'apparato di ritenuta della testa è costituito da due collettori stampati in 3D ad incastro per fissare un montante metallico (Figura 1E, F).
    1. Utilizzando una stampante 3D SLM ad alta risoluzione, stampare in 3D il palo della testa che tiene le braccia.
      NOTA: la plastica stampata in resina è in grado di fornire una fissazione stabile della testa per esperimenti comportamentali; tuttavia, per ottenere la massima stabilità per applicazioni sensibili come la registrazione a cella singola o l'imaging a due fotoni, si consiglia di utilizzare parti metalliche lavorate (ad esempio, eMachineShop).
    2. Installare il supporto del palo della testa stampato in 3D su un goniometro a doppio asse con montanti di montaggio ottico in modo che la testa dell'animale possa essere inclinata per livellare la preparazione.
      NOTA: Questa funzione è indispensabile per esperimenti di imaging in vivo a lungo termine quando è richiesta la ricerca della stessa popolazione cellulare nelle successive sessioni di imaging. In caso contrario, questa funzionalità può essere omessa per ridurre il costo dell'installazione.
    3. Fabbricare i montanti della testa.
      NOTA: Due tipi di montanti di testa con complessità (e prezzo) diversi sono depositati nel link fornito nella tabella dei materiali insieme a queste istruzioni.
      1. A seconda del tipo di esperimento, decidere quale palo principale implementare. Le barre di testa sono realizzate in acciaio inossidabile e sono generalmente esternalizzate a qualsiasi officina meccanica locale o servizio online (ad esempio, eMachineShop) per la produzione.

2. Setup dell'hardware/software elettronico (computer a scheda singola, microcontrollori ESP32, Figura 2)

  1. Configurare il computer a scheda singola.
    NOTA: Il computer a scheda singola incluso nella tabella dei materiali (Raspberry Pi 4B) è ottimale per questa configurazione perché ha una GPU integrata per facilitare il rendering dell'ambiente VR e due porte HDMI per il controllo / monitoraggio degli esperimenti e la proiezione VR. Altri computer a scheda singola con queste caratteristiche possono potenzialmente essere sostituiti, ma alcune delle seguenti istruzioni potrebbero essere specifiche per Raspberry Pi.
    1. Scarica l'applicazione imager per computer a scheda singola sul PC e installa il sistema operativo (attualmente Raspberry Pi OS r.2021-05-07) sulla scheda microSD (16+ GB). Inserire la scheda e avviare il computer a scheda singola.
    2. Configurare il computer a scheda singola per la libreria 3D Python pi3d: (barra dei menu) Preferenze > Configurazione Raspberry Pi.
      1. Fare clic su Visualizza > Oscuramento schermo > Disabilita.
      2. Fare clic su Interfacce > porta seriale > abilitare.
      3. Fare clic su Performance > GPU Memory > 256 (MB).
    3. Aggiornare il pacchetto della libreria di immagini Python per pi3d: (terminale)> sudo pip3 install pillow --upgrade.
    4. Installare il pacchetto pi3d Python 3D per il computer a scheda singola: (terminale)> sudo pip3 install pi3d.
    5. Aumentare il livello di uscita HDMI per il proiettore: (terminale)> sudo nano /boot/config.txt, decommentare config_hdmi_boost=4, salvare e riavviare.
    6. Scaricare e installare l'ambiente di sviluppo integrato (IDE) da arduino.cc/en/software (ad esempio, arduino-1.8.19-linuxarm.tar.gz), necessario per caricare il codice sull'encoder rotativo e sui microcontrollori ESP32 di comportamento.
    7. Installare il supporto del microcontroller ESP32 sull'IDE:
      1. Fare clic su File > Preferenze > URL aggiuntivi di Board Manager = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Fare clic su Strumenti > schede > Gestione schede > ESP32 (di Espressif). Installazione v.2.0.0 (caricamento attualmente non riuscito su v2.0.4).
    8. Scaricare e installare l'IDE di elaborazione da https://github.com/processing/processing4/releases (ad esempio, processing-4.0.1-linux-arm32.tgz), necessario per la registrazione e il tracciamento online del comportamento del mouse durante la realtà virtuale.
      NOTA: gli ambienti Arduino e Processing possono essere eseguiti su un PC separato dal computer a scheda singola VR, se lo si desidera.
  2. Impostare le connessioni ESP32 dell'encoder rotativo.
    NOTA: L'encoder rotativo accoppiato all'asse della ruota misura la rotazione della ruota con la locomozione del mouse, che viene contata con un microcontrollore ESP32. Le modifiche di posizione vengono quindi inviate alla porta seriale GPIO del computer a scheda singola per controllare il movimento attraverso l'ambiente virtuale utilizzando il pacchetto software grafico, nonché al comportamento ESP32 per controllare le zone di ricompensa (Figura 2).
    1. Collegare i fili tra il componente encoder rotativo e l'ESP32 rotativo. Gli encoder rotativi hanno generalmente quattro fili: +, GND, A e B (due linee digitali per encoder in quadratura). Collegarli tramite fili ponticelli a ESP32 3,3 V, GND, 25, 26 (nel caso del codice allegato).
    2. Collegare i fili seriali RX/TX tra l'ESP32 rotante e il comportamento ESP32. Effettuare una semplice connessione a due fili tra la porta rotativa ESP32 Serial0 RX/TX (ricezione/trasmissione) e la porta Serial2 del comportamento ESP32 (TX/RX, pin 17, 16; vedere Porta Serial2 a destra di OMwSmall PCB). Ciò trasporterà le informazioni di movimento dall'encoder rotativo alla configurazione del comportamento per le zone spaziali come le zone di ricompensa.
    3. Collegare i cavi seriali RX/TX tra l'ESP32 rotante e la GPIO del computer a scheda singola (o connessione USB diretta). Effettuare una connessione a due fili tra i pin GPIO 14, 15 (RX/TX) del computer a scheda singola e la seriale ESP32 rotante (TX/RX, pin 17, 16). Questo trasporterà le informazioni di movimento dall'encoder rotativo al pacchetto software grafico in esecuzione sul computer a scheda singola.
      NOTA: Questo passaggio è necessario solo se l'ESP32 rotativo non è collegato tramite USB (cioè è una connessione seriale GPIO in "/dev/ttyS0"), ma il codice HallPassVR_wired.py deve essere modificato per utilizzare "/dev/ttyUSB0". Questa connessione cablata verrà sostituita con una connessione Bluetooth wireless nelle versioni future.
    4. Collegare l'USB rotativo ESP32 all'USB del computer a scheda singola (o a un altro PC che esegue l'IDE) per caricare il codice dell'encoder rotativo iniziale.
  3. Impostare le connessioni ESP32 comportamentali con l'hardware comportamentale (tramite OpenMaze PCB).
    NOTA: Il microcontrollore comportamentale ESP32 controllerà tutte le interazioni animali non-VR (fornendo stimoli e ricompense non-VR, rilevando leccate del mouse), che sono collegate attraverso una "breakout board" PCB generale per l'ESP32, "OMwSmall", i cui progetti sono disponibili attraverso il sito web OpenMaze (www.openmaze.org). Il PCB contiene i componenti elettronici necessari per pilotare i componenti elettromeccanici, come le elettrovalvole utilizzate per erogare ricompense liquide.
    1. Collegare l'elettrovalvola per liquidi da 12 V all'uscita IC ULN2803 all'estrema sinistra del PCB OMwSmall (pin 12 nella configurazione e nel codice di esempio). Questo circuito integrato collega l'alimentazione a 12 V all'elettrovalvola di ricompensa, controllata da un'uscita GPIO sul microcontrollore ESP32 di comportamento.
    2. Collegare la porta lick all'ingresso touch ESP32 (ad esempio, T0, GPIO4 nel codice di esempio). L'ESP32 è dotato di rilevamento tattile capacitivo incorporato su pin specifici, che il codice ESP32 utilizza per rilevare il leccamento del mouse della porta metallica collegata durante il comportamento VR.
    3. Collegare i fili seriali RX/TX tra il comportamento ESP32 Serial2 (pin 16, 17) e l'encoder rotativo ESP32 Serial0 (vedere il passaggio 2.2.2).
    4. Collegare l'USB alla porta USB del computer a scheda singola (o altro PC) per caricare nuovi programmi sul comportamento ESP32 per diversi paradigmi sperimentali (ad esempio, numero/posizione delle zone di ricompensa) e per acquisire dati sul comportamento utilizzando lo sketch di elaborazione incluso.
    5. Collegare l'adattatore da parete da 12 V CC al connettore jack barilotto da 2,1 mm sul PCB ESP32 OMwSmall per fornire l'alimentazione per l'elettrovalvola di ricompensa.
    6. Collegare l'uscita HDMI #2 del computer a scheda singola alla porta HDMI del proiettore; questo porterà l'ambiente VR renderizzato dalla GPU del computer a scheda singola sullo schermo di proiezione.
    7. (facoltativo) Collegare il filo di sincronizzazione (pin 26) a una configurazione di imaging neurale o registrazione elettrofisiologica. Un segnale TTL (Transistor-Transistor-Logic) da 3,3 V verrà inviato ogni 5 s per allineare i sistemi con una precisione vicina al millisecondo.
  4. Configurare il software: caricare il firmware/software sull'encoder rotativo ESP32 (Figura 2B) e il comportamento ESP32 (Figura 2E) utilizzando l'IDE e scaricare il software VR Python sul computer a scheda singola. Vedi https://github.com/GergelyTuri/HallPassVR/software.
    1. Collegare prima l'encoder rotativo ESP32 alla porta USB del computer a scheda singola: questo verrà automaticamente chiamato "/dev/ttyUSB0 " dal sistema operativo.
    2. Caricare il codice dell'encoder rotativo: aprire il file RotaryEncoder_Esp32_VR.ino nell'IDE, quindi selezionare ESP32 in Strumenti > schede > modulo di sviluppo ESP32. Selezionare la porta ESP32 facendo clic su Strumenti > Porta > /dev/ttyUSB0, quindi fare clic su Carica.
    3. Collegare il comportamento ESP32 alla porta USB del computer a scheda singola Successivamente: questo verrà chiamato "/ dev / ttyUSB1" dal sistema operativo.
    4. Caricare il codice della sequenza di comportamento sul comportamento ESP32 (IDE, ESP32 Dev Module già selezionato), quindi fare clic su Strumenti > Porta > /dev/ttyUSB1 e fare clic su Carica: wheel_VR_behavior.ino.
    5. Testare le connessioni seriali selezionando la porta seriale per ciascun ESP32 nell'IDE (Tools > Port > /dev/ttyUSB0 o /dev/ttyUSB1) e quindi facendo clic su Tools > Serial Monitor (baud rate: 115,200) per osservare l'uscita seriale dalla scheda rotante (USB0) o dalla scheda di comportamento (USB1). Ruotare la rotellina per visualizzare un'uscita di movimento raw dall'ESP32 rotativo su USB0 o un'uscita di movimento formattata dal comportamento ESP32 su USB1.
    6. Scarica il pacchetto software grafico Python code da https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR (to /home/pi/Documents). Questa cartella contiene tutti i file necessari per eseguire il pacchetto software grafico se il pacchetto pi3d Python3 è stato installato correttamente in precedenza (passo 2.1).

3. Esecuzione e test del pacchetto software grafico

NOTA: eseguire la GUI del pacchetto software grafico per avviare un ambiente di traccia lineare VR, calibrare le distanze sul software VR e il codice ESP32 del comportamento e testare l'acquisizione e il tracciamento online del comportamento di corsa e licking del mouse con lo sketch del linguaggio di elaborazione incluso.

  1. Aprire la finestra del terminale nel computer a scheda singola e accedere alla cartella HallPassVR (terminale:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)
  2. Eseguire la GUI VR: (terminale)> python3 HallPassVR_GUI.py (si aprirà la finestra GUI, Figura 3A).
  3. GUI software grafica
    1. Seleziona e aggiungi quattro elementi (immagini) dalla casella di riepilogo (o seleziona il modello pre-memorizzato qui sotto, quindi fai clic su Carica) per ciascuno dei tre modelli lungo la traccia, quindi fai clic su Genera.
      NOTA: i nuovi file di immagine (.jpeg) possono essere inseriti nella cartella HallPassVR/HallPassVR_wired/images/ELEMENTS prima dell'esecuzione della GUI.
    2. Selezionare le immagini del pavimento e del soffitto dai menu a discesa e impostare la lunghezza della traccia su 2 m per questo codice di esempio (deve essere uguale a trackLength in millimetri [mm] nel codice ESP32 di comportamento e nel codice di elaborazione).
    3. Assegna un nome a questo modello, se lo desideri (verrà memorizzato in HallPassVR_wired/images/PATH_HIST).
    4. Fai clic sul pulsante Start (attendi fino all'avvio della finestra VR prima di fare clic altrove). L'ambiente VR apparirà sullo schermo #2 (schermo di proiezione, Figura 3B, C).
  4. Eseguite lo sketch Elaborazione (Processing) per acquisire e tracciare i dati/movimenti comportamentali.
    1. Aprire VRwheel_RecGraphSerialTxt.pde nell'IDE di elaborazione.
    2. Cambia l'animale = "yourMouseNumber"; variabile e impostare sessionMinutes uguale alla durata della sessione comportamentale in minuti.
    3. Fare clic sul pulsante Esegui sull'IDE di elaborazione.
    4. Controllare la finestra Elaborazione plot, che dovrebbe mostrare la posizione corrente del mouse sulla traccia lineare virtuale mentre la ruota ruota, insieme alle zone di ricompensa e agli istogrammi in esecuzione dei lick, dei giri e delle ricompense aggiornati ogni 30 s (Figura 3D). Avanzare manualmente la rotellina di corsa per simulare l'esecuzione del mouse per il test oppure utilizzare un mouse di prova per la configurazione iniziale.
    5. Fare clic sulla finestra del plottaggio e premere il tasto q sulla tastiera per interrompere l'acquisizione dei dati comportamentali. Un file di testo degli eventi comportamentali e dei tempi (di solito <2 MB di dimensione per sessione) e un'immagine della finestra di stampa finale (.png) vengono salvati quando sessionMinutes è trascorso o l'utente preme il tasto q per uscire.
      NOTA: a causa delle dimensioni ridotte dei file .txt di output, si stima che almeno diverse migliaia di registrazioni di comportamento possano essere memorizzate sulla scheda SD del computer a scheda singola. I file di dati possono essere salvati su una chiavetta USB per l'analisi successiva o, se connessi a una rete locale, i dati possono essere gestiti in remoto.
  5. Calibra la lunghezza della traccia di comportamento con la lunghezza della traccia VR.
    1. Avanza la ruota a mano mentre osservi il corridoio VR e la posizione del mouse (sul grafico Elaborazione). Se il corridoio VR termina prima/dopo che il mouse raggiunge la fine del grafico di comportamento, aumentare/diminuire la lunghezza della traccia VR in modo incrementale (HallPassVR_wired.py, corridor_length_default, in centimetri [cm]) fino a quando la traccia non viene ripristinata simultaneamente nei due sistemi.
      NOTA: il codice è attualmente calibrato per una ruota rotante da 6 pollici di diametro utilizzando un encoder rotativo in quadratura a 256 posizioni, pertanto l'utente potrebbe dover modificare il codice VR (HallPassVR_wired.py, corridor_length_default, in centimetri [cm]) e di comportamento (wheel_VR_behavior.ino, trackLength, in millimetri [mm]) per tenere conto di altre configurazioni. La posizione comportamentale viene, tuttavia, ripristinata su ogni giro VR per mantenere la corrispondenza tra i sistemi.

4. Addestramento del mouse e comportamento di apprendimento spaziale

NOTA: I topi vengono impiantati per la fissazione della testa, abituati al contenimento della testa e quindi addestrati a correre sulla ruota e leccare costantemente per ricompense liquide progressivamente ("foraggiamento casuale"). I topi che raggiungono una corsa e una leccata costanti vengono quindi addestrati su un compito di ricompensa spaziale nascosto utilizzando l'ambiente VR, in cui viene presentata una singola zona di ricompensa seguendo un segnale visivo sulla traccia lineare virtuale. L'apprendimento spaziale viene quindi misurato come una maggiore selettività di licking per le posizioni immediatamente precedenti alla zona di ricompensa.

  1. Chirurgia post-impianto della testa: Questa procedura è descritta in dettaglio altrove in questa rivista e in altri, quindi fare riferimento a questa letteratura per istruzioni specifiche 7,17,18,19,20,21.
  2. Programma dell'acqua
    1. Eseguire la restrizione idrica 24 ore prima della prima manipolazione (vedi sotto) e consentire il consumo di acqua ad libitum dopo ogni sessione di assuefazione o comportamento di ritenuta della testa. Ridurre gradualmente il tempo di disponibilità di acqua nell'arco di tre giorni durante l'assuefazione a circa 5 minuti e regolare la quantità per i singoli topi in modo che il loro peso corporeo non scenda al di sotto dell'80% del loro peso pre-restrizione. Monitorare quotidianamente il peso di ciascun animale e osservare anche le condizioni di ciascun topo per segni di disidratazione22. I topi che non sono in grado di mantenere l'80% del loro peso corporeo pre-restrizione o appaiono disidratati devono essere rimossi dallo studio e data disponibilità di acqua gratuita.
      NOTA: la restrizione idrica è necessaria per motivare i topi a correre sulla ruota usando ricompense liquide, nonché per utilizzare il licking spaziale come indicazione delle posizioni apprese lungo la pista. Le linee guida istituzionali possono differire su istruzioni specifiche per questa procedura, quindi l'utente deve consultare i propri comitati istituzionali per la cura degli animali per garantire la salute e il benessere degli animali durante la restrizione idrica.
  3. Manipolazione: maneggiare i topi impiantati ogni giorno per abituarli al contatto umano, a seguito del quale può essere somministrata acqua limitata ad libitum come rinforzo (1-5 minuti / giorno, da 2 giorni a 1 settimana).
  4. Abitudine al poggiatesta
    1. Abituare i topi al poggiatesta per periodi di tempo crescenti posizionandoli nell'apparato di ritenuta della testa e premiandoli con occasionali gocce d'acqua per ridurre lo stress della fissazione della testa.
    2. Inizia con 5 minuti di fissazione della testa e aumenta la durata di incrementi di 5 minuti al giorno fino a quando i topi sono in grado di tollerare la fissazione fino a 30 minuti. Rimuovere i topi dall'apparato di fissazione se sembrano lottare o muoversi molto poco. Tuttavia, i topi generalmente iniziano a correre sulla ruota spontaneamente entro diverse sessioni, il che significa che sono pronti per la fase successiva dell'allenamento.
      NOTA: I topi che lottano ripetutamente sotto il poggiatesta o non corrono e leccano per le ricompense dovrebbero essere regrediti alle fasi precedenti dell'allenamento e rimossi dallo studio se non riescono a progredire per tre di questi cicli di recupero (vedi Tabella 1).
  5. Allenamento di corsa/leccata (foraggiamento casuale)
    NOTA: Per eseguire l'attività di apprendimento spaziale nell'ambiente VR, i topi devono prima imparare a correre sul volante e leccare costantemente per ricompense occasionali. La progressione nei parametri comportamentali operanti è controllata tramite il microcontrollore comportamentale ESP32.
    1. Foraggiamento casuale con ricompense non operative
      1. Eseguire il programma GUI del software grafico con un percorso di elementi visivi arbitrari (scelta dell'utente, vedere il passaggio 3.3).
      2. Caricare il programma di comportamento nell'ESP32 comportamentale con più ricompense non operanti (variabili di codice: isOperant=0, numRew=4, isRandRew=1) per condizionare i topi a correre e leccare. Esegui i topi in sessioni di 20-30 minuti fino a quando i topi corrono per almeno 20 giri per sessione e leccano per le ricompense presentate in posizioni casuali (da una a quattro sessioni).
    2. Foraggiamento casuale con ricompense operative a giri alternati
      1. Carica il programma di comportamento con altOpt=1 (alternando giri operanti/non operanti) e addestra i topi fino a quando non leccano per entrambe le zone di ricompensa non operanti e operanti (da una a quattro sessioni).
    3. Foraggiamento casuale completamente operativo
      1. Carica il programma di comportamento con quattro zone di ricompensa casuale operanti (variabili di codice ESP32 del comportamento: isOperant=1, numRew=4, isRandRew=1). Alla fine di questa fase di addestramento, i topi dovrebbero correre costantemente ed eseguire leccate di prova su tutta la lunghezza della pista (da una a quattro sessioni; Figura 4A).
  6. Apprendimento spaziale
    NOTA: Eseguire un esperimento di apprendimento spaziale con una singola zona di ricompensa nascosta a una certa distanza da un singolo segnale visivo selezionando un corridoio lungo 2 m con pannelli scuri lungo la pista e un singolo pannello di stimolo visivo ad alto contrasto nel mezzo come segnale visivo (posizione 0,9-1,1 m), analogamente ai recenti esperimenti con segnali olfattivi spaziali20 . I topi sono tenuti a leccare in una zona di ricompensa (in una posizione di 1,5-1,8 m) situata a una distanza dal segnale visivo nell'ambiente di traccia lineare virtuale.
    1. Eseguire il programma software grafico con un percorso di un corridoio buio con un singolo segnale visivo al centro (ad esempio, scacchiera, vedere il passo 3.3, Figura 3A).
    2. Caricare il programma di comportamento con una singola zona di ricompensa nascosta nel comportamento ESP32 (variabili di codice ESP32 del comportamento: isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500}).
    3. Posizionare delicatamente il mouse nell'apparato di fissaggio della testa, regolare il beccuccio di leccata in una posizione appena anteriore alla bocca del mouse e posizionare la rotellina del mouse al centro della zona dello schermo di proiezione. Assicurarsi che la testa del mouse sia a ~ 12-15 cm di distanza dallo schermo dopo le regolazioni finali.
    4. Impostare il nome dell'animale nello sketch Elaborazione, quindi premere Esegui nell'IDE di elaborazione per iniziare ad acquisire e tracciare i dati comportamentali (vedere il passaggio 3.4).
    5. Esegui il mouse per sessioni di 30 minuti con una singola zona di ricompensa nascosta e un singolo corridoio VR visiva.
    6. Offline: scarica il file di dati .txt dalla cartella Processing sketch e analizza il comportamento di licking spaziale (ad esempio, in Matlab con i file inclusi procVRbehav.m e vrLickByLap.m).
      NOTA: I topi dovrebbero inizialmente eseguire leccate di prova sull'intera traccia virtuale ("foraggiamento casuale") e quindi iniziare a leccare selettivamente solo vicino alla posizione della ricompensa seguendo il segnale visivo VR (Figura 4).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Questa configurazione comportamentale di realtà virtuale open source ci ha permesso di quantificare il comportamento di licking come una lettura dell'apprendimento spaziale mentre i topi con la testa trattenuta navigavano in un ambiente di binario lineare virtuale. Sette topi C57BL / 6 di entrambi i sessi a 4 mesi di età sono stati sottoposti a un programma di acqua limitato e prima addestrati a leccare continuamente a bassi livelli mentre correvano sulla ruota per ricompense spaziali casuali ("foraggiamento casuale") senza VR. Sebbene le loro prestazioni siano state inizialmente influenzate quando sono state spostate nella configurazione dello schermo di proiezione VR con un modello di corridoio casuale di 2 m, sono tornate ai livelli precedenti all'interno di diverse sessioni VR (Figura 4A). I topi che hanno sviluppato la strategia di foraggiamento casuale con VR (sei dei sette topi, 86%; un mouse non è riuscito a funzionare in modo coerente ed è stato escluso) sono stati quindi tenuti a leccare una zona di ricompensa operante non cued a 0,5 m seguendo un singolo segnale di posizione visiva nel mezzo di una traccia virtuale di 2 m altrimenti senza caratteristiche per ricevere ricompense d'acqua ("compito di ricompensa nascosto"). Secondo gli attuali dati pilota con questo sistema, quattro dei sette topi (57%) sono stati in grado di imparare il compito di ricompensa nascosto con un singolo segnale visivo in due o quattro sessioni, come mostrato leccando vicino alla zona di ricompensa con crescente selettività (Tabella 1, Figura 4B, C), che è simile ai nostri risultati precedenti con un tapis roulant non VR17 . Questo fatto è importante nello studio dell'apprendimento spaziale, in quanto consente il monitoraggio e / o la manipolazione dell'attività neurale durante i periodi critici dell'apprendimento senza una formazione approfondita. Inoltre, i topi hanno mostrato sia un sostanziale apprendimento all'interno della sessione che tra una sessione e l'altra (Figura 4C), offrendo l'opportunità di osservare sia gli adattamenti del circuito neurale a breve che a lungo termine che accompagnano l'apprendimento spaziale. Non abbiamo testato il tasso di apprendimento di un compito equivalente non VR, ma molti compiti spaziali classici dipendenti dall'ippocampo del mondo reale, come il labirinto d'acqua di Morris, richiedono una formazione ancora più ampia e presentano un numero notevolmente inferiore di prove comportamentali e, quindi, sono meno adatti per il monitoraggio del comportamento di apprendimento insieme ai cambiamenti dell'attività neurale.

Mentre la maggior parte dei topi in questo gruppo pilota (57%) è stata in grado di apprendere il compito di ricompensa nascosto in un piccolo numero di sessioni, ulteriori topi possono mostrare apprendimento spaziale su scale temporali più lunghe e l'allenamento individualizzato dovrebbe aumentare questa frazione di topi. In effetti, le variazioni nei tassi di apprendimento possono essere utili per dissociare le relazioni specifiche tra l'attività neurale in aree cerebrali come l'ippocampo e l'apprendimento comportamentale. Tuttavia, abbiamo osservato che una piccola percentuale di topi non ha imparato a correre sulla ruota o leccare per ricompense non operanti o operanti (uno dei sette topi, 14%) e, quindi, non poteva essere utilizzata per esperimenti successivi. Una manipolazione e un'assuefazione aggiuntive e una riduzione dello stato generale di stress dell'animale attraverso ulteriori rinforzi, ad esempio utilizzando prelibatezze alimentari desiderabili, possono essere utili per aiutare questi animali ad adottare la corsa attiva e leccare durante il comportamento di ritenuta della testa sulla ruota.

Manipolando la presenza e la posizione delle zone di cue e ricompensa sui giri intermittenti sulla pista virtuale, uno sperimentatore può discernere ulteriormente la dipendenza del licking spazialmente selettivo su specifici canali di informazione in VR per determinare, ad esempio, come i topi si affidano a segnali locali o distanti o informazioni di auto-movimento per stabilire la loro posizione in un ambiente. La selettività leccata dei topi che hanno imparato la posizione nascosta della ricompensa dovrebbe essere influenzata dallo spostamento o dall'omissione del segnale visivo lungo la traccia se utilizzano attivamente questo segnale spaziale come punto di riferimento, come abbiamo mostrato in un recente lavoro utilizzando segnali olfattivi spaziali20. Tuttavia, anche con il semplice esempio che abbiamo presentato qui, il licking altamente selettivo raggiunto dai topi (Figura 4C, a destra) indica che codificano l'ambiente visivo VR per informare le loro decisioni su dove si trovano e, quindi, quando leccare, poiché la zona di ricompensa è evidente solo in relazione ai segnali visivi nell'ambiente VR. Questo sistema VR consente anche la presentazione di altre modalità di segnali spaziali e contestuali oltre all'ambiente VR visivo, come segnali olfattivi, tattili e uditivi, che possono essere utilizzati per testare la selettività dell'attività neurale e del comportamento per complesse combinazioni di distinti segnali sensoriali. Inoltre, sebbene non abbiamo testato la dipendenza delle prestazioni del compito dall'attività ippocampale, un recente studio che utilizza un compito simile ma con segnali tattili ha mostrato una perturbazione dell'apprendimento spaziale con inattivazione ippocampale23, che dovrebbe essere confermata per il compito di ricompensa nascosta VR eseguito in questo studio.

Figure 1
Figura 1: Configurazione hardware VR con ritenuta per la testa: schermo di proiezione, volante e apparato di fissaggio della testa. (A) Uno schema di progettazione 3D della ruota di corsa e dello schermo di proiezione. (B) Configurazione comportamentale VR completata. L'ambiente VR viene renderizzato su (1) un computer a scheda singola e proiettato su uno schermo parabolico (2) a retroproiezione (basato sul progetto del laboratorio di Chris Harvey15,16). (3) Assemblaggio ruota. (4) Titolare del posto di testa. (5) Serbatoio d'acqua per la consegna della ricompensa. (C) Vista dall'alto dello schermo di proiezione e configurazione comportamentale. (1) Proiettore LED. (2) Specchio per la retroproiezione del corridoio VR sullo schermo curvo. (3) Ruota da corsa. (D) Vista posteriore del gruppo ruota. Le rotazioni delle ruote vengono traslate dall'encoder rotativo (1) e trasmesse al computer a scheda singola tramite un (2) microcontrollore ESP32. (3) Un goniometro a doppio asse viene utilizzato per regolare con precisione la posizione della testa per l'imaging ottico. (E) Impostazione a livello di inserimento del mouse, che mostri (1) l'apparato di fissaggio della testa e (2) la posizione della porta di leccamento sulla (3) superficie della ruota di rotolamento. (F) Fotografia della (1) porta di leccata collegata al (2) braccio flessibile per il posizionamento preciso del beccuccio di ricompensa vicino alla bocca del mouse. Le ricompense vengono assegnate tramite una (3) elettrovalvola controllata dal comportamento ESP32 (tramite il PCB OpenMaze OMwSmall). È visibile anche l'encoder rotativo accoppiato al (4) asse ruota e (5) al goniometro per la regolazione dell'angolo di testa. Fare clic qui per visualizzare una versione ingrandita di questa figura.

Figure 2
Figura 2: Schema di configurazione dell'elettronica VR. Questo schema descrive le connessioni più rilevanti tra i componenti elettronici nel sistema di realtà virtuale open source per topi. (A) I topi sono trattenuti dalla testa su un apparecchio di fissaggio della testa personalizzato stampato in 3D sopra una ruota da corsa acrilica. (B) La rotazione dell'asse della ruota quando il mouse è in funzione viene rilevata da un encoder rotativo ad alta risoluzione collegato a un microcontrollore (decodificatore rotativo ESP32). (C) Le informazioni sul movimento vengono trasmesse tramite una connessione seriale a un computer a scheda singola che esegue il software GUI HallPassVR e l'ambiente 3D, che aggiorna la posizione nell'ambiente di binario lineare virtuale VR in base alla locomozione del mouse. (D) L'ambiente VR renderizzato viene inviato al proiettore/schermo tramite l'uscita video HDMI #2 del computer a scheda singola (VR video HDMI). (E) Le informazioni sul movimento dell'encoder rotativo ESP32 vengono inviate anche a un altro microcontrollore (Behavior ESP32 con OpenMaze OMwSmall PCB), che utilizza la posizione del mouse per controllare eventi comportamentali spaziali non VR (come zone di ricompensa o stimoli olfattivi, tattili o uditivi spaziali) in concerto con l'ambiente VR e misura il leccamento del beccuccio di ricompensa da parte del mouse tramite il rilevamento tattile capacitivo. Fare clic qui per visualizzare una versione ingrandita di questa figura.

Figure 3
Figura 3: GUI grafica del software e comportamento. (A) GUI HallPassVR: vengono selezionate quattro immagini per affiancare ogni modello spaziale che copre un terzo della lunghezza della traccia (o viene caricato il modello combinato precedentemente salvato) per tre modelli in ciascun percorso pari alla lunghezza della traccia. Vengono selezionate le immagini del soffitto e del pavimento, quindi viene premuto Start per inizializzare l'ambiente VR sull'uscita HDMI del computer a scheda singola (schermo di proiezione). (B) Esempio di corridoio virtuale creato con i parametri della GUI mostrati in A e utilizzato per un esperimento di ricompensa nascosto per testare l'apprendimento spaziale. (C) Fotografia di un topo con la testa trattenuta che corre sul volante nell'ambiente virtuale mostrato in B. (D) Il pannello superiore mostra la trama online del comportamento animale in un ambiente VR dallo schizzo di elaborazione incluso per registrare e tracciare i dati comportamentali. Leccate, giri e ricompense vengono tracciati per contenitori temporali di 30 s per la sessione di 30 minuti durante l'apprendimento spaziale della ricompensa nascosta. Il pannello inferiore mostra la posizione corrente del mouse (nero) e la posizione di eventuali zone di ricompensa (grigio) durante il comportamento. Fare clic qui per visualizzare una versione ingrandita di questa figura.

Figure 4
Figura 4: Apprendimento spaziale utilizzando l'ambiente software grafico. Dati di licking spaziale rappresentativi di un animale (A) durante il foraggiamento casuale con segnali casuali lungo la traccia lineare virtuale e (B-C) 2 giorni di allenamento con una zona di ricompensa nascosta statica a 1,5 m con un singolo segnale visivo al centro della pista. (A) Giorno 0 foraggiamento casuale per quattro zone di ricompensa per giro, selezionate casualmente da otto posizioni distanziate uniformemente lungo la pista lineare virtuale di 2 m. (Sinistra) Il numero medio di leccate per contenitore spaziale (5 cm) durante la sessione di 30 minuti (in alto: corridoio VR con pannelli di stimolo visivo casuale). (Destra) Numero di leccate in ogni contenitore spaziale di 5 cm per giro durante questa sessione, rappresentato da una mappa di calore. (B) Giorno 1, il primo giorno di allenamento con una singola zona di ricompensa a 1,5 m (riquadro rosso sullo schema della pista, in alto) utilizzando una traccia virtuale contenente un singolo stimolo ad alto contrasto in posizione 0,8-1,2 m. (A sinistra) Il numero medio di leccate spaziali durante la sessione, mostrando leccate crescenti quando l'animale si avvicina alla zona di ricompensa. (Destra) Leccate spaziali per giro, mostrando una maggiore selettività del licking nella regione pre-ricompensa. (C) Giorno 2, dallo stesso compito di ricompensa nascosto e corridoio virtuale del Giorno 1 e dallo stesso mouse. (Sinistra) Leccate totali per contenitore spaziale, mostrando una diminuzione delle leccate al di fuori della zona pre-ricompensa. (Destra) Leccate spaziali per giro il giorno 2, che mostrano un aumento del licking prima della zona di ricompensa e una diminuzione del licking altrove, indicando lo sviluppo di licking anticipatorio spazialmente specifico. Ciò dimostra che questo animale ha imparato la posizione nascosta della ricompensa (non specificata) e ha sviluppato una strategia per ridurre al minimo lo sforzo (leccare) nelle regioni in cui non si aspettano che sia presente una ricompensa. Fare clic qui per visualizzare una versione ingrandita di questa figura.

Esito comportamentale Numero di topi Percentuale di topi
Il mouse non ha eseguito / leccato 1 14%
Solo foraggiamento casuale 2 29%
Ricompensa nascosta appresa 4 57%
Totale (N) 7

Tabella 1: Risultati pilota comportamentali dell'apprendimento spaziale VR. Sette topi C57BL / 6 di entrambi i sessi a 4 mesi di età sono stati progressivamente addestrati per eseguire un compito di ricompensa spaziale nascosta in VR. Di questi topi, un topo non ha corso / leccato dopo l'addestramento iniziale (uno dei sette topi, 14%), mentre sei dei topi rimanenti hanno imparato a correre sulla ruota e leccare per ricompense spaziali casuali nella fase di foraggiamento casuale dell'allenamento (sei dei sette topi, 86%). Quattro dei sei topi che sono stati in grado di eseguire il comportamento di foraggiamento casuale hanno successivamente imparato a leccare selettivamente in previsione della ricompensa non segnalata nel compito di ricompensa nascosto (quattro dei sette topi, il 57% dei topi in totale, quattro dei sei topi, il 66% dei topi foraggiatori casuali), mentre due non lo hanno fatto (due dei sette topi, 29%).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Questo sistema VR open source per mouse funzionerà solo se le connessioni seriali sono effettuate correttamente tra i microcontrollori rotativi e comportamentali ESP32 e il computer a scheda singola (passaggio 2), che può essere confermato utilizzando il monitor seriale IDE (passaggio 2.4.5). Per risultati comportamentali di successo da questo protocollo (fase 4), i topi devono essere abituati all'apparato ed essere a proprio agio nel correre sulla ruota per ricompense liquide (passaggi 4.3-4.5). Ciò richiede una restrizione idrica sufficiente (ma non eccessiva), poiché i topi a cui viene data acqua ad libitum nella gabbia domestica non correranno e lecceranno per le ricompense (cioè per indicare la loro posizione percepita), e i topi disidratati possono essere letargici e non correre sulla ruota. Vale anche la pena notare che esistono metodi alternativi per motivare il comportamento del topo senza restrizione idrica24; Tuttavia, non abbiamo testato questi metodi qui. Per la procedura di addestramento, gli animali che non corrono inizialmente possono ricevere ricompense d'acqua ad hoc (cioè non spaziali) dallo sperimentatore tramite una pressione di pulsante opzionale collegata, oppure la ruota può essere spostata delicatamente per incoraggiare la locomozione. Per sviluppare un comportamento di foraggiamento casuale, i topi che corrono ma non leccano dovrebbero essere eseguiti con ricompense non operanti (codice ESP32 comportamentale: isOperant = 0;, passo 4.5.1) fino a quando non corrono e leccano per le ricompense, e possono quindi essere eseguiti con giri alternati di zone di ricompensa non operanti e operanti (altOpt = 1; Passo 4.5.2) fino a quando non iniziano a leccare i giri operativi prima di passare alle zone di ricompensa casuali completamente operative (Passo 4.5.3).

Mentre abbiamo fornito istruzioni complete e risultati di esempio per una serie di esperimenti di base volti a suscitare una forma di apprendimento spaziale (leccata condizionata in una posizione di ricompensa nascosta nell'ambiente di traccia lineare virtuale), la stessa configurazione hardware e software di base può anche essere modificata per la consegna di ambienti visuospaziali più complessi utilizzando il pacchetto pi3d Python per Raspberry Pi. Ad esempio, questo sistema può incorporare labirinti più complessi come corridoi con lunghezze variabili, modelli multipli e oggetti 3D e paesaggi naturalistici 3D VR. Inoltre, il software comportamentale per l'erogazione di ricompense idriche e altri stimoli non visivi può essere modificato per altri paradigmi di allenamento alterando variabili chiave (presentate all'inizio del codice comportamentale ESP32) o inserendo nuovi tipi di eventi spaziali nello stesso codice. Siamo lieti di consigliare gli utenti sui metodi per implementare altri tipi di esperimenti comportamentali con questa configurazione VR o nella risoluzione dei problemi.

Gli ambienti VR immersivi si sono dimostrati uno strumento versatile per studiare i meccanismi neurali alla base della navigazione spaziale 6,7,8, dei comportamenti di apprendimento della ricompensa 9 e della percezione visiva25 sia negli studi clinici che su animali. Il vantaggio principale di questo approccio è che lo sperimentatore ha uno stretto controllo su elementi contestuali come segnali visivi e stimoli spaziali specifici (ad esempio, ricompense e stimoli olfattivi, uditivi o tattili), che non è pratico in ambienti reali con animali che si muovono liberamente. Va notato, tuttavia, che possono esistere differenze nel modo in cui gli ambienti VR sono codificati da aree cerebrali come l'ippocampo rispetto all'uso di ambienti del mondo reale26,27. Con questo avvertimento, l'uso di ambienti VR consente agli sperimentatori di eseguire un gran numero di prove comportamentali con stimoli attentamente controllati, consentendo la dissociazione dei contributi di elementi sensoriali distinti alla navigazione spaziale.

La complessità della costruzione di configurazioni VR personalizzate richiede spesso una vasta esperienza in ingegneria e programmazione informatica, che può aumentare il tempo di configurazione e limitare il numero di apparati che possono essere costruiti per addestrare i topi per la sperimentazione. Le configurazioni VR sono disponibili anche presso i fornitori commerciali; Tuttavia, queste soluzioni possono essere costose e limitate se l'utente desidera implementare nuove funzionalità o espandere la capacità di formazione/registrazione a più di una configurazione. La fascia di prezzo stimata della configurazione VR open source presentata qui è < $ 1.000 (USD); tuttavia, una versione semplificata per l'allenamento (ad esempio, priva di goniometri per la regolazione dell'angolo della testa) può essere prodotta per < $ 500 (USD), consentendo così la costruzione di più configurazioni per addestrare i topi su una scala più ampia. La disposizione modulare dei componenti consente anche l'integrazione della VR con altri sistemi per il controllo comportamentale, come il sistema di tapis roulant con stimoli olfattivi e tattili spaziali che abbiamo usato in precedenza20, e, quindi, VR e altre modalità di stimolo non si escludono a vicenda.

Questo sistema VR open source con l'hardware associato (volante, schermo di proiezione e apparato di fissaggio della testa), la configurazione elettronica (computer a scheda singola e microcontroller ESP32) e il software (GUI VR e codice di comportamento) fornisce una configurazione economica, compatta e facile da usare per fornire ambienti VR immersivi parametrizzati ai topi durante la navigazione spaziale con controllo della testa. Questo comportamento può quindi essere sincronizzato con l'imaging neurale o la registrazione elettrofisiologica per esaminare l'attività neurale durante l'apprendimento spaziale (passo 2.3.7). Lo spettro di tecniche sperimentali compatibili con la VR è ampio, che va dal solo comportamento di apprendimento spaziale alla combinazione con fotometria in fibra, imaging a miniscopio, imaging a singolo fotone e multifotone e tecniche elettrofisiologiche (ad esempio, Neuropixel o registrazione intracellulare). Mentre il poggiatesta è necessario per alcune di queste tecniche di registrazione, la natura estremamente precisa della presentazione dello stimolo e la natura stereotipata del comportamento possono anche essere utili per altre tecniche che non richiedono la fissazione della testa, come l'imaging del miniscopio e la fotometria delle fibre. Va notato, tuttavia, che la nostra soluzione basata su sensori capacitivi per il rilevamento di leccate può introdurre un rumore significativo sulle tracce elettrofisiologiche. Per evitare tali artefatti, ottici o di altro tipo (ad esempio, meccanici), è necessario implementare soluzioni basate su sensori per il rilevamento delle leccate.

I futuri miglioramenti al sistema VR verranno caricati nella pagina GitHub del progetto (https://github.com/GergelyTuri/HallPassVR), quindi gli utenti dovrebbero controllare regolarmente questa pagina per gli aggiornamenti. Ad esempio, siamo in procinto di sostituire le connessioni seriali cablate tra i microcontrollori e il computer a scheda singola con la funzionalità Bluetooth, che è nativa dei microcontrollori ESP32 già utilizzati in questo progetto. Inoltre, stiamo pianificando di aggiornare la GUI HallPassVR per consentire la specifica di percorsi diversi in ogni sessione comportamentale per contenere posizioni diverse per stimoli visivi chiave su giri diversi. Ciò consentirà una maggiore flessibilità per dissociare l'impatto di specifiche caratteristiche visive e contestuali sulla codifica neurale dello spazio durante l'apprendimento spaziale.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Clay Lacefield è il fondatore e manutentore di OpenMaze.org, che fornisce gratuitamente i progetti per il PCB OMwSmall utilizzato in questo protocollo per il download.

Acknowledgments

Vorremmo ringraziare Noah Pettit del laboratorio Harvey per la discussione e i suggerimenti durante lo sviluppo del protocollo in questo manoscritto. Questo lavoro è stato supportato da un BBRF Young Investigator Award e NIMH 1R21MH122965 (G.F.T.), oltre a NINDS R56NS128177 (R.H., C.L.) e NIMH R01MH068542 (R.H.).

Materials

Name Company Catalog Number Comments
1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

DOWNLOAD MATERIALS LIST

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. Pettit, N., et al. Harvey Lab Mouse VR. , Available from: https://github.com/Harvey/Lab/mouseVR (2021).
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Tags

Neuroscienze Numero 193
Un sistema di realtà virtuale open source per la misurazione dell'apprendimento spaziale in topi con la testa trattenuta
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Lacefield, C., Cai, H., Ho, H.,More

Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter