Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Monitoraggio dei ratti nelle camere di condizionamento operanti utilizzando una videocamera fatta in casa versatile e DeepLabCut

Published: June 15, 2020 doi: 10.3791/61409

Summary

Questo protocollo descrive come costruire una videocamera piccola e versatile e come utilizzare video ottenuti da essa per addestrare una rete neurale a tracciare la posizione di un animale all'interno di camere di condizionamento operanti. Si tratta di un valido complemento alle analisi standard dei log dei dati ottenuti da test di condizionamento operanti.

Abstract

Le camere di condizionamento operanti sono utilizzate per eseguire una vasta gamma di test comportamentali nel campo delle neuroscienze. I dati registrati si basano in genere sull'innesco di sensori a leva e naso-poke presenti all'interno delle camere. Anche se questo fornisce una visione dettagliata di quando e come gli animali eseguono determinate risposte, non può essere utilizzato per valutare i comportamenti che non attivano alcun sensore. Come tale, valutare come gli animali si posizionano e si muovono all'interno della camera è raramente possibile. Per ottenere queste informazioni, i ricercatori in genere devono registrare e analizzare i video. I produttori di camere di condizionamento operanti possono in genere fornire ai propri clienti configurazioni di telecamere di alta qualità. Tuttavia, questi possono essere molto costosi e non si adattano necessariamente camere di altri produttori o altre configurazioni di test comportamentali. Il protocollo attuale descrive come costruire una videocamera economica e versatile utilizzando componenti elettronici per hobby. Descrive inoltre come utilizzare il pacchetto software di analisi delle immagini DeepLabCut per tenere traccia dello stato di un segnale luminoso forte, nonché la posizione di un ratto, nei video raccolti da una camera di condizionamento operante. Il primo è un grande aiuto nella scelta di brevi segmenti di interesse per i video che coprono intere sessioni di test, e il secondo consente l'analisi di parametri che non possono essere ottenuti dai registri di dati prodotti dalle camere operanti.

Introduction

Nel campo delle neuroscienze comportamentali, i ricercatori usano comunemente camere di condizionamento operanti per valutare una vasta gamma di diverse caratteristiche cognitive e psichiatriche nei roditori. Mentre ci sono diversi produttori di tali sistemi, in genere condividono alcuni attributi e hanno un design quasi standardizzato1,2,3.3 Le camere sono generalmente a forma quadrata o rettangolare, con una parete che può essere aperta per posizionare gli animali all'interno, e una o due delle pareti rimanenti contenenti componenti come leve, aperture naso-poke, vassoi di ricompensa, ruote di risposta e luci di vario tipo1,2,3. Le luci e i sensori presenti nelle camere sono utilizzati sia per controllare il protocollo di prova che per tracciare i comportamenti degli animali1,2,3,4,5. I tipici sistemi di condizionamento operanti consentono un'analisi molto dettagliata di come gli animali interagiscono con i diversi operandi e le aperture presenti nelle camere. In generale, tutte le occasioni in cui i sensori vengono attivati possono essere registrati dal sistema, e da questi dati gli utenti possono ottenere file di log dettagliati che descrivono ciò che l'animale ha fatto durante passaggi specifici del test4,5. Mentre questo fornisce una rappresentazione estesa delle prestazioni di un animale, può essere utilizzato solo per descrivere i comportamenti che attivano direttamente uno o più sensori4,5. Di conseguenza, gli aspetti relativi al modo in cui l'animale si posiziona e si muove all'interno della camera durante le diverse fasi del test non sono ben descritti6,7,8,9,9.10 Questo è un peccato, in quanto tali informazioni possono essere preziose per comprendere appieno il comportamento dell'animale. Ad esempio, può essere utilizzato per chiarire perché alcuni animali si comportano male su un determinato test6, per descrivere le strategie che gli animali potrebbero sviluppare per gestire compiti difficili6,7,8,9,10, o per apprezzare la vera complessità di comportamenti presumibilmente semplici11,12. Per ottenere tali informazioni articolate, i ricercatori si rivolgono comunemente all'analisi manuale dei video6,7,8,9,10,11.

Quando si registrano video da camere di condizionamento operanti, la scelta della fotocamera è fondamentale. Le camere sono comunemente situate in cubi isolati, con protocolli che spesso fanno uso di gradini in cui nessuna luce visibile splende3,6,7,8,9. Pertanto, l'uso dell'illuminazione a infrarossi (IR) in combinazione con una fotocamera sensibile agli infrarossi è necessario, in quanto consente la visibilità anche in completa oscurità. Inoltre, lo spazio disponibile per posizionare una fotocamera all'interno del cubicolo di isolamento è spesso molto limitato, il che significa che si beneficia noto fortemente di avere piccole telecamere che utilizzano lenti con un ampio campo visivo (ad esempio, lenti fish-eye)9. Mentre i produttori di sistemi di condizionamento operanti possono spesso fornire configurazioni di telecamere di alta qualità ai loro clienti, questi sistemi possono essere costosi e non si adattano necessariamente camere di altri produttori o configurazioni per altri test comportamentali. Tuttavia, un notevole vantaggio rispetto all'utilizzo di videocamere autonome è che queste configurazioni possono spesso interfacciarsi direttamente con i sistemi di condizionamento operanti13,14. In questo modo, possono essere impostati solo per registrare eventi specifici anziché sessioni di test complete, che possono essere notevolmente aiutate nell'analisi che segue.

Il protocollo attuale descrive come costruire una videocamera economica e versatile utilizzando componenti elettronici per hobby. La fotocamera utilizza un obiettivo fisheye, è sensibile all'illuminazione IR e ha una serie di diodi a emissione di luce IR (LED IR) collegati ad esso. Inoltre, è costruito per avere un profilo piatto e sottile. Insieme, questi aspetti lo rendono ideale per la registrazione di video dalla maggior parte delle camere di condizionamento operanti disponibili in commercio e da altre configurazioni di test comportamentali. Il protocollo descrive inoltre come elaborare i video ottenuti con la fotocamera e come utilizzare il pacchetto software DeepLabCut15,16 per aiutare a estrarre sequenze video di interesse e a monitorare i movimenti di un animale in esso contenuti. Questo elude parzialmente il draw-back dell'utilizzo di una fotocamera stand-alone rispetto alle soluzioni integrate fornite dai produttori operanti di sistemi di condizionamento, e offre un complemento al punteggio manuale dei comportamenti.

Sono stati compiuti sforzi per scrivere il protocollo in un formato generale per evidenziare che il processo complessivo può essere adattato ai video di diversi test di condizionamento operanti. Per illustrare alcuni concetti chiave, i video dei ratti che eseguono il test del tempo di reazione seriale a 5 scelte (5CSRTT)17 vengono utilizzati come esempi.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Tutte le procedure che includono la movimentazione degli animali sono state approvate dal comitato etico Malmà-Lund per la ricerca sugli animali.

1. Costruire la videocamera

NOTA: nella Tabella dei materialiè disponibile un elenco dei componenti necessari per la costruzione della videocamera. Fare riferimento anche alla figura 1, Figura 2, Figura 3, Figura 4, Figura 5.

  1. Fissare l'anello magnetico di metallo (che accompagna il pacchetto lente fisheye) intorno all'apertura del supporto della fotocamera (Figura 2A). Questo permetterà all'obiettivo fisheye di essere posizionato davanti alla fotocamera.
  2. Collegare il modulo della fotocamera al supporto della fotocamera (Figura 2B). Questo darà un po 'di stabilità al modulo della telecamera e offrirà una certa protezione ai circuiti elettronici.
  3. Aprire le porte della fotocamera sul modulo della fotocamera e sul microcomputer (Figura 1) tirando delicatamente sui bordi delle clip di plastica (Figura 2C).
  4. Posizionare il cavo a nastro nelle porte della fotocamera, in modo che i connettori in argento siano di fronte alle schede comandi(Figura2C). Bloccare il cavo in posizione spingendo le clip di plastica delle porte della fotocamera.
  5. Posizionare il microcomputer nella custodia di plastica e inserire la scheda micro SD elencata(Figura 2D).
    NOTA: la scheda micro SD funziona come disco rigido del microcomputer e contiene un sistema operativo completo. La scheda micro SD elencata viene fornita con un gestore di installazione preinstallato su di esso (Nuovo Software Out Of Box (NOOBS). In alternativa, si può scrivere un'immagine dell'ultima versione del sistema operativo del microcomputer (Raspbian o Rasberry Pi OS) su una scheda micro SD generica. Per assistenza in questo caso, fare riferimento alle risorse web ufficiali18. È preferibile utilizzare una scheda SD di classe 10 micro con 32 Gb di spazio di archiviazione. Le schede SD più grandi potrebbero non essere completamente compatibili con il microcomputer elencato.
  6. Collegare un monitor, una tastiera e un mouse al microcomputer, quindi collegare l'alimentatore.
  7. Seguire i passaggi indicati dalla guida all'installazione per eseguire un'installazione completa del sistema operativo del microcomputer (Raspbian o Rasberry Pi OS). Quando il microcomputer è stato avviato, assicurarsi che sia connesso a Internet tramite un cavo ethernet o Wi-Fi.
  8. Attenersi alla procedura descritta di seguito per aggiornare i pacchetti software preinstallati del microcomputer.
    1. Aprire una finestra del terminale(Figura 3A).
    2. Digitare "sudo apt-get update" (escluse le virgolette) e premere invio (Figura 3B). Attendere il completamento del processo.
    3. Digitare "sudo apt full-upgrade" (escluse le virgolette) e premere Invio. Apportare le risposte ai pulsanti quando richiesto e attendere il completamento del processo.
  9. Nel menu Start, selezionare le configurazioni Preferenze e Raspberry Pi (Figura 3C). Nella finestra aperta, andare alla scheda Interfacce e fare clic su Abilita fotocamera e I2C. Ciò è necessario per far funzionare il microcomputer con la fotocamera e i moduli LED IR.
  10. Rinominare il file supplementare 1 in "Pi_video_camera_Clemensson_2019.py". Copiarlo su una chiavetta USB e successivamente nella cartella /home/pi del microcomputer (Figura 3D). Questo file è uno script Python, che consente di registrare video con gli interruttori dei pulsanti collegati nel passaggio 1.13.
  11. Attenersi alla procedura descritta di seguito per modificare il file rc.local del microcomputer. In questo modo il computer avvia lo script copiato nel passaggio 1.10 e avvia i LED IR collegati nel passaggio 1.13 all'avvio.
    AVVISO: questa funzione di avvio automatico non funziona in modo affidabile con schede di microcomputer diverse dal modello elencato.
    1. Aprire una finestra del terminale, digitare "sudo nano /etc/rc.local" (escluse le virgolette) e premere Invio. Verrà aperto un file di testo (Figura 4A).
    2. Utilizzare i tasti di direzione della tastiera per spostare il cursore verso il basso nello spazio compreso tra "fi" e "exit 0" (Figura 4A).
    3. Aggiungere il testo seguente come illustrato nella Figura 4B, scrivendo ogni stringa di testo su una nuova riga:
      sudo i2cset -y 1 0x70 0x00 0xa5 &
      sudo i2cset -y 1 0x70 0x09 0x0f &
      sudo i2cset -y 1 0x70 0x01 0x32 &
      sudo i2cset -y 1 0x70 0x03 0x32 &
      sudo i2cset -y 1 0x70 0x06 0x32 &
      sudo i2cset -y 1 0x70 0x08 0x32 &
      sudo python /home/pi/Pi_video_camera_Clemensson_2019.py &
    4. Salvare le modifiche premendo Ctrl e x seguite da y e INVIO.
  12. Solder insieme i componenti necessari come indicato nella figura 5Ae come descritto di seguito.
    1. Per i due LED colorati, collegare un resistore e un cavo ponticello femminile a una gamba e un cavo ponticello femminile all'altro (Figura 5A). Cercate di mantenere i cavi il più corti possibile. Prendere nota di quale degli elettrodi del LED è quello negativo (tipicamente quello corto), in quanto questo deve essere collegato a terra sui pin di ingresso/uscita (GPIO) generici del microcomputer.
    2. Per i due interruttori dei pulsanti, collegare un cavo ponticello femminile a ogni gamba (Figura 5A). Rendere i cavi lunghi per uno degli interruttori e abbreviazione dell'altro.
    3. Per assemblare il modulo LED IR, seguire le istruzioni disponibili sulle sue risorse web ufficiali19.
    4. Coprire i giunti saldati con tubi di compattazione per limitare il rischio di cortocircuito dei componenti.
  13. Spegnere il microcomputer e collegare gli interruttori e i LED ai relativi pin GPIO come indicato nella figura 5Be descritti di seguito.
    AVVISO: collegare i componenti ai pin GPIO errati potrebbe danneggiarli e/o il microcomputer quando la fotocamera è accesa.
    1. Collegare un LED in modo che la sua estremità negativa si colleghi a pin #14 e la sua estremità positiva si collega al #12 pin. Questo LED brillerà quando il microcomputer è stato avviato e la fotocamera è pronta per essere utilizzata.
    2. Collegare l'interruttore a pulsante con cavi lunghi in modo che un cavo si colleghi per bloccare #9 e l'altro per bloccare #11. Questo pulsante viene utilizzato per avviare e arrestare le registrazioni video.
      NOTA: lo script che controlla la fotocamera è stato scritto in modo che questo pulsante non risponda per alcuni secondi subito dopo l'avvio o l'interruzione di una registrazione video.
    3. Collegare un LED in modo che la sua estremità negativa si colleghi al pin #20 e la sua estremità positiva si colleghi al #13 pin. Questo LED brillerà quando la fotocamera sta registrando un video.
    4. Collegare l'interruttore a pulsante con i cavi corti in modo che un cavo si colleghi per bloccare #37 e l'altro per bloccare #39. Questo interruttore viene utilizzato per spegnere la fotocamera.
    5. Collegare il modulo LED IR come descritto nelle sue risorse web ufficiali19.

2. Progettazione del protocollo di condizionamento operante di interesse

NOTA: per utilizzare DeepLabCut per tenere traccia della progressione del protocollo nei video registrati dalle camere operanti, i protocolli comportamentali devono essere strutturati in modi specifici, come spiegato di seguito.

  1. Impostare il protocollo per utilizzare la luce domestica della camera, o un altro segnale luminoso forte, come indicatore di un passaggio specifico del protocollo (come l'inizio di singole prove o la sessione di test) (Figura 6A). Questo segnale sarà indicato come l'"indicatore del passaggio del protocollo" nel resto di questo protocollo. La presenza di questo segnale consentirà di tracciare la progressione del protocollo nei video registrati.
  2. Impostare il protocollo per registrare tutte le risposte di interesse con i singoli timestamp in relazione al momento in cui l'indicatore del passaggio del protocollo diventa attivo.

3. Registrazione di video di animali che eseguono la prova comportamentale di interesse

  1. Posizionare la fotocamera sopra le camere operanti, in modo che registri una vista superiore dell'area all'interno (Figura 7).
    NOTA: Questo è particolarmente adatto per catturare la posizione generale e la postura di un animale all'interno della camera. Evitare di posizionare le luci dell'indicatore della fotocamera e il modulo LED IR vicino all'obiettivo della fotocamera.
  2. Avviare la fotocamera collegandola a una presa elettrica tramite il cavo di alimentazione.
    NOTA: Prima del primo utilizzo, è utile impostare la messa a fuoco della fotocamera, utilizzando il piccolo strumento che accompagna il modulo della fotocamera.
  3. Utilizzare il pulsante collegato nel passaggio 1.13.2 per avviare e arrestare le registrazioni video.
  4. Spegnere la fotocamera seguendo questi passaggi.
    1. Premere e tenere premuto il pulsante collegato al punto 1.13.4 fino a quando il LED collegato nel passaggio 1.13.1 si spegne. Questo avvia il processo di spegnimento della fotocamera.
    2. Attendere che il LED verde visibile sopra il microcomputer (Figura 1) abbia smesso di lampeggiare.
    3. Rimuovere l'alimentatore della fotocamera.
      AVVISO: Lo scollegamento dell'alimentatore mentre il microcomputer è ancora in funzione può causare il danneggiamento dei dati sulla scheda micro SD.
  5. Collegare la fotocamera a un monitor, tastiera, mouse e dispositivo di archiviazione USB e recuperare i file video dal suo desktop.
    NOTA: i file vengono denominati in base alla data e all'ora in cui è stata avviata la registrazione video. Tuttavia, il microcomputer non ha un orologio interno e aggiorna solo l'impostazione dell'ora quando è connesso a Internet.
  6. Convertire i video registrati da .h264 a . MP4, in quanto quest'ultimo funziona bene con DeepLabCut e la maggior parte dei lettori multimediali.
    NOTA: Ci sono diversi modi per raggiungere questo obiettivo. Uno è descritto nel file supplementare 2.

4. Analisi dei video con DeepLabCut

NOTA: DeepLabCut è un pacchetto software che consente agli utenti di definire qualsiasi oggetto di interesse in un set di fotogrammi video, e successivamente utilizzarli per addestrare una rete neurale nel tracciare le posizioni degli oggetti in video full-length15,16. Questa sezione fornisce un contorno approssimativo su come utilizzare DeepLabCut per tenere traccia dello stato dell'indicatore del passo del protocollo e la posizione della testa di un ratto. L'installazione e l'uso di DeepLabCut è ben descritto in altri protocolli pubblicati15,16. Ogni passaggio può essere eseguito tramite comandi Python specifici o l'interfaccia utente grafica di DeepLabCut, come descritto altrove15,16.

  1. Creare e configurare un nuovo progetto DeepLabCut seguendo la procedura descritta in16.
  2. Utilizzate la funzione di cattura dei fotogrammi di DeepLabCut per estrarre 700 fotogrammi da uno o più video registrati nella sezione 3.
    NOTA: Se gli animali differiscono notevolmente nella pigmentazione delle pellicce o in altre caratteristiche visive, è consigliabile che i fotogrammi video estratti 700-u2012900 siano suddivisi tra video di animali diversi. Attraverso questo, una rete addestrata può essere utilizzata per tenere traccia di individui diversi.
    1. Assicurarsi di includere i fotogrammi video che visualizzano sia lo stato attivo (Figura 8A) che inattivo (Figura 8B) dell'indicatore del passaggio del protocollo.
    2. Assicurati di includere fotogrammi video che coprono la gamma di diverse posizioni, posture e movimenti della testa che il ratto può mostrare durante il test. Questo dovrebbe includere fotogrammi video in cui il ratto è fermo in diverse aree della camera, con la testa rivolta in direzioni diverse, così come i fotogrammi video in cui il ratto è attivamente in movimento, entrando nelle aperture del poke del naso e entrando nella depressione del pellet.
  3. Utilizzare la casella degli strumenti di etichettatura di DeepLabCut per contrassegnare manualmente la posizione della testa del ratto in ogni fotogramma video estratto nel passaggio 4.2. Utilizzare il cursore del mouse per posizionare un'etichetta "testa" in una posizione centrale tra le orecchie del ratto (Figura 8A,B). Inoltre, contrassegnare la posizione della luce domestica della camera (o altro indicatore di passo protocollo) in ogni fotogramma video in cui brilla attivamente (Figura 8A). Lasciare la luce domestica senza etichetta nei fotogrammi in cui è inattiva (Figura 8B).
  4. Usare le funzioni "crea set di dati di training" e "rete di addestramento" di DeepLabCut per creare un set di dati di training dai frame video etichettati nel passaggio 4.3 e avviare il training di una rete neurale. Assicurarsi di selezionare "resnet_101" per il tipo di rete scelto.
  5. Interrompere la formazione della rete quando la perdita di formazione si è stabilizzato al di sotto di 0,01. Questa operazione può richiedere fino a 500.000 iterazioni di training.
    NOTA: quando si utilizza un computer GPU con circa 8 GB di memoria e un set di formazione di circa 900 fotogrammi video (risoluzione: 1640 x 1232 pixel), il processo di training è stato trovato per prendere circa 72 h.
  6. Utilizzare la funzione di analisi video di DeepLabCut per analizzare i video raccolti nel passaggio 3, usando la rete neurale addestrata nel passaggio 4.4. Questo fornirà un file .csv che elenca le posizioni monitorate della testa del ratto e l'indicatore del passo del protocollo in ogni fotogramma video dei video analizzati. Inoltre, creerà file video contrassegnati in cui le posizioni tracciate vengono visualizzate visivamente (Video 1-8).
  7. Valutare l'accuratezza del rilevamento attenendosi alla procedura descritta di seguito.
    1. Utilizzare la funzione di valutazione integrata di DeepLabCut per ottenere una valutazione automatica dell'accuratezza del rilevamento della rete. Questo si basa sui fotogrammi video che sono stati etichettati nel passaggio 4.3 e descrive quanto in media la posizione tracciata dalla rete è dall'etichetta posizionata manualmente.
    2. Selezionate una o più brevi sequenze video (di circa 100 fotogrammi video u2012200 ciascuna) nei video contrassegnati ottenuti nel passaggio 4.6. Passare attraverso le sequenze video, fotogramma per fotogramma, e notare in quanti fotogrammi le etichette indicano correttamente le posizioni della testa del ratto, coda, ecc, e in quanti fotogrammi le etichette sono collocate in posizioni errate o non mostrate.
      1. Se l'etichetta di una parte del corpo o di un oggetto viene spesso persa o posizionata in una posizione errata, identificare le situazioni in cui il rilevamento non riesce. Estrarre e aggiungere cornici etichettate di queste occasioni ripetendo i passaggi 4.2. e 4.3. Quindi riaddestrare la rete e rianalizzare i video ripetendo i passaggi 4.4-4.7. In definitiva, la precisione di tracciamento di >90% precisione dovrebbe essere raggiunto.

5. Ottenere le coordinate per i punti di interesse nelle camere operanti

  1. Utilizzare DeepLabCut come descritto nel passaggio 4.3 per contrassegnare manualmente i punti di interesse nelle camere operanti (ad esempio le aperture del naso, le leve, ecc.) in un singolo fotogramma video (Figura 8C). Questi sono scelti manualmente a seconda degli interessi specifici dello studio, anche se la posizione dell'indicatore passo protocollo dovrebbe sempre essere inclusa.
  2. Recuperare le coordinate dei punti di interesse contrassegnati dal file CSV che DeepLabCut archivia automaticamente in "dati etichettati" nella cartella del progetto.

6. Identificazione dei segmenti video in cui l'indicatore del passo del protocollo è attivo

  1. Caricare i file .csv ottenuti dall'analisi video DeepLabCut nel passaggio 4.6 in un software di gestione dei dati preferito.
    NOTA: a causa della quantità e della complessità dei dati ottenuti da DeepLabCut e dai sistemi di condizionamento operanti, la gestione dei dati è ideale attraverso script di analisi automatizzati. Per iniziare, si prega di fare riferimento alle guide di livello base disponibili altrove20,21,22.
  2. Notare in quali segmenti video l'indicatore della fase del protocollo viene tracciato entro 60 pixel dalla posizione ottenuta nella sezione 5. Questi saranno i punti in cui l'indicatore del passaggio del protocollo è attivo (Figura 6B).
    NOTA: durante i segmenti video in cui l'indicatore della fase del protocollo non brilla, il video contrassegnato potrebbe indicare che DeepLabCut non lo sta tracciando in nessuna posizione. Tuttavia, questo è raramente il caso, e viene invece in genere tracciato in più posizioni sparse.
  3. Estrarre il punto di partenza esatto per ogni periodo in cui l'indicatore della fase del protocollo è attivo(Figura 6C: 1).

7. Identificazione dei segmenti video di interesse

  1. Considerare i punti in cui l'indicatore del passo del protocollo diventa attivo(Figura 6C: 1) e i timestamp delle risposte registrate dalle camere operanti (sezione 2, Figura 6C: 2).
  2. Utilizzare queste informazioni per determinare quali segmenti video coprono eventi interessanti specifici, ad esempio intervalli tra tentativi, risposte, recuperi di premi e così via (Figura 6C: 3, Figura 6D).
    NOTA: Per questo, tenere a mente che la fotocamera descritta qui registra i video a 30 fps.
  3. Nota i fotogrammi video specifici che coprono questi eventi di interesse.
  4. (Facoltativo) Modifica i file video delle sessioni di test complete per includere solo i segmenti specifici di interesse.
    NOTA: Ci sono diversi modi per raggiungere questo obiettivo. Uno è descritto nei file supplementari 2 e 3. Questo aiuta notevolmente quando si memorizza un gran numero di video e può anche rendere la revisione e la presentazione dei risultati più conveniente.

8. Analisi della posizione e dei movimenti di un animale durante specifici segmenti video

  1. Sottoinsieme dei dati di tracciamento completi della posizione della testa ottenuti da DeepLabCut nel passaggio 4.6 per includere solo i segmenti video indicati nella sezione 7.
  2. Calcolare la posizione della testa dell'animale in relazione a uno o più punti di riferimento selezionati nella sezione 5(Figura 8C). Ciò consente di confrontare il monitoraggio e la posizione tra diversi video.
  3. Eseguire un'analisi approfondita della posizione e dei movimenti dell'animale.
    NOTA: l'analisi specifica eseguita sarà fortemente specifica dello studio. Di seguito sono riportati alcuni esempi di parametri che possono essere analizzati.
    1. Visualizza le tracce del percorso tracciando tutte le coordinate rilevate durante un periodo selezionato all'interno di un grafico.
    2. Analizzare la prossimità a un determinato punto di interesse utilizzando la formula seguente:
      Equation 1
    3. Analizzare i cambiamenti di velocità durante un movimento calcolando la distanza tra le coordinate tracciate in fotogrammi consecutivi e dividere per 1/fps della fotocamera.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Prestazioni della videocamera

I risultati rappresentativi sono stati raccolti in camere di condizionamento operanti per ratti con superfici del pavimento di 28,5 cm x 25,5 cm e altezze di 28,5 cm. Con l'obiettivo fisheye attaccato, la fotocamera cattura l'intera superficie del pavimento e grandi parti delle pareti circostanti, quando posizionate sopra la camera (Figura 7A). Come tale, una buona vista può essere ottenuta, anche se la fotocamera è posizionata al di fuori del centro sulla parte superiore della camera. Ciò dovrebbe valere per le camere operanti comparabili. I LED A IR sono in grado di illuminare l'intera camera (Figura 7B,C), consentendo una buona vista, anche quando tutte le altre luci all'interno della camera sono spente (Figura 7C). Tuttavia, l'illuminazione in tali situazioni non è del tutto uniforme e può comportare alcune difficoltà nell'ottenere un tracciamento accurato. Se tale analisi è interessante, potrebbero essere necessarie ulteriori fonti di illuminazione AIR. Vale anche la pena notare che alcune camere utilizzano pentole di caduta di metallo per raccogliere urina e feci. Se la fotocamera è posizionata direttamente sopra tali superfici, forti riflessi della luce dei LED A IR saranno visibili nei video registrati (Figura 7B). Questo può tuttavia essere evitato inserendo gli asciugamani di carta nella pentola di caduta, dando un'immagine molto migliorata (Figura 7C). Posizionando i LED A IR o colorati della fotocamera troppo vicini all'obiettivo della fotocamera, è possibile che siano visibili nella periferia dell'immagine (Figura 7B). Poiché la fotocamera è sensibile ai messaggi irprima, tutte le sorgenti luminose a irgiro presenti all'interno delle camere potrebbero essere visibili nei video. Per molte configurazioni, questo includerà la continua luce dei sensori di rottura del fascio A IR (Figura 7C). L'illuminazione continua dai LED IR della fotocamera non disturba la qualità dell'immagine delle camere ben illuminate (Figura 7D). La dimensione dei video registrati con la fotocamera è di circa 77 Mb/min. Se viene utilizzata una scheda micro SD da 32 Gb per la fotocamera, dovrebbero essere disponibili circa 20 Gb dopo l'installazione del sistema operativo. Questo lascia spazio per circa 260 min di filmati registrati.

L'obiettivo fisheye fa sì che la fotocamera abbia una messa a fuoco leggermente irregolare, essendo nitida al centro dell'immagine ma ridotta nitidezza verso i bordi. Ciò non sembra influire sull'accuratezza del rilevamento. Inoltre, la lente fisheye comporta la distorsione dell'immagine registrata. Ad esempio, le distanze tra i punti con spaziatura uguale lungo le linee rette mostreranno una spaziatura ridotta artificialmente verso la periferia dell'immagine (Figura 9A,B). Se la fotocamera viene utilizzata per applicazioni in cui la maggior parte del campo visivo o misure assolute di distanza e velocità sono di interesse, vale la pena considerare la correzione dei dati per questa distorsione23 (File supplementare 4). La distorsione è, tuttavia, relativamente lieve al centro dell'immagine (Figura 9B). Per i video raccolti nella nostra camera operante, l'area di interesse è limitata al 25% centrale del campo visivo della fotocamera. All'interno di quest'area, l'effetto della distorsione fisheye è minimo (Figura 9C-u2012F).

Precisione del monitoraggio con DeepLabCut

I fattori principali che determineranno l'accuratezza del rilevamento di una rete sottoposta a training sono (i) il numero di frame etichettati nel set di dati di training (ii) di quanto i frame etichettati acquisiscano il comportamento di interesse e (iii) il numero di iterazioni di training utilizzate. DeepLabCut include una funzione di valutazione, che riporta una stima di quanto lontano (in numero di pixel) il suo monitoraggio può essere previsto dalla posizione effettiva di un oggetto. Questo, tuttavia, non fornisce necessariamente una buona descrizione del numero di frame in cui un oggetto viene perso e/o etichettato in modo errato (Figura 10A), richiedendo un'ulteriore valutazione manuale dell'accuratezza del rilevamento.

Per analizzare i comportamenti all'interno di una camera operante, una rete ben addestrata deve consentire l'identificazione accurata di tutti gli eventi in cui l'indicatore del passaggio del protocollo è attivo. In caso contrario, potrebbe essere necessaria la riqualificazione della rete o la scelta di un indicatore diverso. Pur avendo una rete ben addestrata, il monitoraggio dell'indicatore passo protocollo può a volte essere interrotto da animali che bloccano la vista della fotocamera (Figura 10B). Questo causerà interruzioni nel monitoraggio che ricordano gli episodi in cui l'indicatore è inattivo. La frequenza di questo avvenimento dipenderà dalla tensione animale, dal tipo di protocollo comportamentale e dalla scelta dell'indicatore del passo del protocollo. Nei dati di esempio del 5CSRTT qui utilizzato, si è verificato in quattro delle 400 prove (dati non mostrati). Tutte le occasioni erano facilmente identificabili, in quanto la loro durata non corrispondeva a quella della fase di rottura che era stata inclusa nella progettazione del protocollo (Figura 6A). In definitiva, la scelta di un indicatore che viene posizionato in alto nella camera e lontano dai componenti con cui gli animali interagiscono è probabile che sia utile.

Una rete ben addestrata dovrebbe consentire >90% di precisione quando si traccia la testa di un animale durante i segmenti video di interesse (Video 1). Con questo, solo un piccolo sottoinsieme di fotogrammi video dovrà essere escluso dall'analisi successiva e i dati di tracciamento utilizzabili saranno ottenibili praticamente da tutte le prove all'interno di una sessione di test. Il tracciamento accurato è chiaramente identificabile dai marcatori che seguono un animale durante i suoi movimenti (Video 2) e i percorsi tracciati che appaiono lisci (Figura 10C). Al contrario, il tracciamento impreciso è caratterizzato da marcatori che non rimangono in modo affidabile sulla destinazione (Video 3) e da tracciati che appaiono frastagliati (Figura 10D). Quest'ultimo è causato dal tracciamento dell'oggetto in posizioni erronee distanti in singoli fotogrammi video all'interno di sequenze di tracciamento accurato. Di conseguenza, il tracciamento impreciso provoca in genere improvvisi spostamenti delle velocità di movimento calcolate(Figura 10E). Può essere utilizzato per identificare i fotogrammi video in cui il tracciamento è impreciso, per escluderli dall'analisi successiva. Se sono presenti problemi sostanziali con la precisione del rilevamento, le occasioni in cui il rilevamento non riesce devono essere identificate e la rete deve essere riaddestrata utilizzando un set di training espanso contenente i fotogrammi video etichettati di questi eventi (Figura 10A,E).

Uso del tracciamento video per completare l'analisi dei comportamenti operanti

L'analisi del modo in cui un animale si muove e si posiziona durante i test operanti fornirà molteplici informazioni sulla natura complessa e sfaccettata dei loro comportamenti. Tracciando dove si trova un animale durante una sessione di test, è possibile valutare il modo in cui i modelli di movimento distinti si riferiscono alle prestazioni (Figura 11A,B). Esaminando ulteriormente i movimenti della testa durante specifiche fasi del protocollo, è possibile rilevare e caratterizzare l'uso di diverse strategie (Figura 11C.u2012E).

Per esemplificare, considerare i dati rappresentativi presentati per i ratti che eseguono il test 5CSRTT (Figura 6A, Figura 11). In questo test, agli animali vengono presentate più prove che iniziano con una fase di attesa di 5 s (intervallo inter-triale - ITI) (Figura 6A: 1). Alla fine di questo, una luce brillerà all'interno di una delle aperture poke naso (posizione scelta casualmente su ogni prova, Figura 6A: 2). Nose-poking nell'apertura cued è considerato una risposta corretta ed è ricompensato (Figura 6A: 3). Rispondere a un'altra apertura è considerato errato. La mancata risposta entro 5 s a seguito della presentazione della luce è considerata un'omissione. Monitoraggio dei movimenti della testa durante l'ITI di questo test ha rivelato che nelle prove in cui i ratti eseguono una risposta, sono veloci a muoversi verso l'area intorno alle aperture del naso poke (Figura 11A, B, Video 4). Al contrario, nella maggior parte delle prove di omissione, i ratti non riescono ad avvicinarsi all'area intorno alle aperture (Figura 11B, Video 5). Questo comportamento è in linea con l'interpretazione comune delle omissioni strettamente correlate a una scarsa motivazione per eseguire il test3,16. Tuttavia, su un sottoinsieme di prove di omissione (circa il 20% del set di dati corrente), i ratti hanno mostrato una chiara messa a fuoco verso le aperture (Figura 11B, Video 6) ma non sono riusciti a notare l'esatta posizione dell'apertura cued. I dati indicano quindi che esistono almeno due diversi tipi di omissioni, uno relativo a un possibile disinteresse nel processo in corso, e un altro che dipende più da un'attenzione visuospatiale insufficiente3 . Il tracciamento della testa può essere utilizzato anche per distinguere le strategie apparenti. Ad esempio, sono state rivelate due distinte strategie di attenzione durante l'analisi di come si muovono i ratti quando si trovano in prossimità delle aperture di colpo di naso durante il 5CSRTT (Figura 11C . Nella prima strategia, i ratti hanno mostrato un approccio estremamente focalizzato, mantenendo una posizione centrale per la maggior parte dell'ITI (Figura 11C, Video 7). Al contrario, i ratti che adottano l'altra strategia spostavano costantemente la testa tra le diverse aperture in modo simile alla ricerca (Figura 11D, Video 8). Questo tipo di differenze comportamentali può essere convenientemente quantificato calcolando la quantità di tempo trascorso in prossimità delle diverse aperture (Figura 11E). Infine, analizzando a quale apertura il ratto è più vicina al momento della presentazione della luce cue (Figura 11F), si può dimostrare che trovarsi in una posizione centrale (Figura 11G) e/o in prossimità della posizione dell'apertura cued (Figura 11H) sembra essere utile per prestazioni accurate sul test.

Figure 1
Figura 1: Schizzo del microcomputer elencato. Lo schema mostra la posizione di diversi componenti di interesse sulla scheda madre del microcomputer. Questi sono contrassegnati con numeri cerchiati come segue: 1: Connettore per il cavo a nastro della fotocamera; 2: luce LED che indica quando il computer è in funzione; 3: Micro USB per cavo di alimentazione; 4: Micro USB per mouse/tastiera; 5: pin di ingresso/uscita generici (pin GPIO), questi pin vengono utilizzati per collegare il microcomputer a LED, interruttori e il modulo LED IR; 6: Uscita Mini HDMI; 7: Slot scheda Micro SD. Nella parte inferiore della figura, una parte ritagliata e ingrandita dei perni GPIO viene mostrata per indicare come contare lungo di essi per identificare correttamente la posizione di un perno specifico. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 2
Figura 2: Costruire il corpo principale della fotocamera. Le figure illustrano i passaggi principali per la costruzione del corpo della fotocamera. (A) Attaccare l'anello magnetico di metallo al supporto della fotocamera. (B) Attaccare il modulo della fotocamera al supporto della fotocamera. (C) Collegare il modulo della telecamera al microcomputer tramite il cavo a nastro piatto. Notare le frecce bianche che indicano come aprire e chiudere le porte della fotocamera presenti sia sul microcomputer che sul modulo della fotocamera. (D) Posizionare il microcomputer nell'involucro di plastica e inserire una scheda micro SD. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 3
Figura 3: Aggiornamento del sistema operativo del microcomputer e abilitazione delle periferiche. La figura mostra quattro diverse schermate che raffigurano l'interfaccia utente del microcomputer. (A) Le finestre dei terminali possono essere aperte facendo clic sull'icona "terminale" nell'angolo in alto a sinistra dello schermo. (B) All'interno del terminale, è possibile digitare diversi tipi di comandi, come descritto nel testo del protocollo. Nella schermata viene visualizzato il comando per l'aggiornamento dei pacchetti software del sistema. (C) Lo screenshot mostra come passare al menu delle configurazioni, dove si può abilitare l'uso del modulo fotocamera e dei pin I2C GPIO. (D) La schermata visualizza la cartella /home/pi, in cui lo script della fotocamera deve essere copiato nel passaggio 1.10 del protocollo. La finestra viene aperta facendo clic sull'icona indicata nell'angolo in alto a sinistra dello schermo. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 4
Figura 4: Configurazione del file rc.local del microcomputer. La figura mostra due schermate del file rc.local del microcomputer, quando vi si accede attraverso il terminale come descritto nel passaggio 1.11.1. (A) Uno screenshot del file rc.local nel formato originale. La freccia indica lo spazio in cui è necessario immettere il testo per abilitare la funzione di avvio automatico della fotocamera. (B) Uno screenshot del file rc.local dopo che è stato modificato per brillare i LED IR e avviare lo script python controllando la fotocamera all'avvio del microcomputer. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 5
Figura 5: Collegamento di interruttori e LED ai pin GPIO del microcomputer. (A) Schematico che mostra un interruttore a pulsante con cavi ponticello femminili (in alto) e un LED con cavi di resistenza e ponticello femminile (in basso). (1) Interruttore a pulsante, (2) cavi ponticello femminili, (3) LED, (4) resistore. (B) Immagine schematica che mostra come i due pulsanti cambiano, i LED colorati e la scheda LED IR sono collegati ai pin GPIO del microcomputer. I cavi blu e i pin GPIO indicano il suolo. La posizione di due pin GPIO è indicata nella figura (#2 pin GPIO e #40): (1) Pulsante per l'avvio/arresto della registrazione video. (2) LED che indica quando viene registrato il video. (3) Pulsante per spegnere la fotocamera. (4) LED che indica quando la fotocamera è stata avviata ed è pronta per l'uso. 5 Modulo LED IR. Si noti che i circuiti con LED contengono anche 330 resistori. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 6
Figura 6: Utilizzo del rilevamento DeepLabCut dell'indicatore del passaggio del protocollo per identificare sequenze di interesse nei video a lunghezza intera. (A) Schematico dei passi di una singola prova nel test del tempo di reazione seriale a 5 scelte (5CSRTT): (1) In primo luogo, c'è un breve periodo di attesa (ITI). Freccia indica una luce domestica che brilla attivamente. (2) Alla fine dell'ITI, una luce brillerà in una delle cinque aperture del naso poke (freccia). (3) Se un ratto risponde con precisione eseguendo un colpo naso nell'apertura cued, viene consegnata una ricompensa (freccia). (4) Il ratto può recuperare la ricompensa. (5) Per consentire l'uso della luce domestica come indicatore di fase del protocollo, viene implementata una breve pausa in cui la luce domestica viene spenta (freccia) prima dell'inizio della prova successiva. Si noti che la luce della casa splende durante le fasi successive della prova. (B) Un grafico di esempio che illustra la coordinata x della luce domestica attiva, come tracciato da DeepLabCut, durante un segmento video di un test 5CSRTT. Durante i segmenti in cui la luce domestica splende (indicatore attivo - 1), la posizione viene tracciata in un punto coerente e stabile (notare anche il marcatore rosso (indicato dalla freccia) nel fotogramma video di esempio, paragonabile a quello della posizione della luce domestica nella Figura 8C (x, y: 163, 503). Durante i segmenti in cui la luce domestica non brilla (indicatore inattivo - 2, notare la freccia bianca nel fotogramma video di esempio), la posizione tracciata non è stabile e lontano dalla coordinata effettiva della luce domestica. (C) La tabella 1 mostra un esempio di output elaborato ottenuto dal rilevamento DeepLabCut di un indicatore di fase del protocollo. In questo output, è stato elencato il punto di partenza per ogni occasione in cui l'indicatore è attivo. La tabella 2 illustra un esempio di dati ottenuti dal sistema di condizionamento operante, che fornisce dettagli pertinenti per le singole prove. In questo esempio, sono state registrate la durata dell'ITI, la posizione dell'apertura cued e le latenze per eseguire una risposta e recuperare il premio. La tabella 3 illustra un esempio di dati ottenuti unendo i risultati di tracciamento di DeepLabCut e i dati registrati dal sistema di condizionamento operativo. Attraverso questo, sono stati ottenuti i fotogrammi video per il punto di partenza dell'ITI (passaggio 1 in A), il punto di partenza della presentazione della luce cue (passaggio 2 in A), la risposta (passaggio 3 in A) e il recupero (passaggio 4 in A) per una prova di esempio. (D) Un grafico di esempio che illustra la coordinata x della luce domestica, come tracciato da DeepLabCut, durante una prova 5CSRTT filmata. Le diverse fasi del protocollo sono indicate: (1) ITI; (2) presentazione di una luce cue (posizione indicata da freccia bianca); (3) risposta; (4) recupero della ricompensa. L'identificazione dei fotogrammi video raffiguranti l'avvio e l'arresto di questi diversi passaggi di protocollo è stata fatta attraverso un processo paragonabile a quello indicato in D. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 7
Figura 7: Caratteristiche dell'immagine della fotocamera. (A) Immagine non ritagliata ottenuta da una telecamera posta sopra una camera di condizionamento operante. L'immagine è stata catturata mentre la camera è stata collocata in una stanza illuminata. Si noti la (1) luce della casa e (2) ricompensa pellet attraverso la parete sinistra della camera e (3) la fila di cinque aperture naso poke lungo la parete destra della camera. Ogni apertura naso poke contiene una piccola luce spunto. (B) Immagine non ritagliata che mostra la forte riflessione causata da (1) la teglia di caduta metallica, nonché riflessi causati da un posizionamento non ottimale dei LED dell'indicatore della fotocamera (2) e del modulo LED (3) IR. (C) Immagine ritagliata della camera in completa oscurità. Si noti che le luci dei rilevatori di rottura del fascio a irribillo nelle cinque aperture del naso poke lungo la parete destra della camera sono chiaramente visibili (freccia). (D) Immagine ritagliata della camera quando illuminata. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 8
Figura 8: Tracciamento posizionale dell'indicatore del passo del protocollo e delle parti del corpo di interesse. (A) L'immagine mostra la posizione di un indicatore di passo del protocollo (rosso) così come la testa (gialla) e la coda (verde) di un ratto, come tracciato da DeepLabCut. Come indicato dal tracciamento della luce domestica illuminata, il fotogramma video viene tratto da un'istantanea di una prova attiva. (B) L'immagine mostra la posizione della testa (gialla) e della coda (verde) come tracciata da DeepLabCut durante un momento in cui una prova non è attiva. Si noti la mancanza di monitoraggio della luce della casa. (C) Le posizioni dei punti di interesse utilizzate nell'analisi dei dati illustrati nelle figure 6 e 11; (1) Luce della casa, in questo caso utilizzato come indicatore di passo protocollo, (2 -u20126) Aperture poke naso #1 . Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 9
Figura 9: Distorsione dell'immagine dalla lente fisheye. (A) Immagine di un motivo a scacchiera con quadrati in bianco e nero di dimensioni uguali e distanziate scattate con la telecamera descritta in questo protocollo. L'immagine è stata scattata ad un'altezza paragonabile a quella utilizzata durante la registrazione di video da camere di condizionamento operanti. I quadrati neri lungo le linee centrali orizzontali e verticali sono stati contrassegnati con DeepLabCut. (B) Grafico che illustra come la spaziatura dei quadrati contrassegnati in (A) cambia con la vicinanza al centro dell'immagine. (C) Immagine raffigurante le misurazioni effettuate per valutare l'impatto dell'effetto di distorsione fisheye sui video raccolti dalle camere operanti. Gli angoli e i punti medi lungo il bordo dell'area del pavimento, la posizione centrale di ogni singolo gradino del pavimento e la posizione delle cinque aperture del naso poke sono stati indicati con DeepLabCut (punti colorati); (1) spaziatura dei gradini del pavimento, (2) larghezza del pavimento della camera lungo il centro della camera, (3) spaziatura delle aperture del naso poke. (D) Spaziatura dei gradini del pavimento (media per ogni serie di tre gradini consecutivi), numerati da sinistra a destra in (C). C'è un piccolo effetto della distorsione fisheye, con conseguente distanziare i gradini centrali di circa 3 pixel (8%) più distanti dai gradini posizionati ai bordi del pavimento della camera. (E) Larghezza del pavimento camera in (C) misurata ai bordi sinistro e destro, così come il punto medio. C'è un piccolo effetto della distorsione fisheye, con la larghezza misurata al punto medio di circa 29 pixel (5%) più a lungo delle altre misurazioni. (F) Spaziatura delle aperture di poke naso in (C), numerato dalla parte superiore dell'immagine. C'è un piccolo effetto della distorsione fisheye, con conseguente spaziatura tra le tre aperture centrali (H2, H3, H5) di circa 5 pixel (4%) più ampia della spaziatura tra H1-H2 e H4-H5. Per D-F, i dati sono stati raccolti da quattro video e grafici raffiguranti media di gruppo : errore standard. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 10
Figura 10: Revisione dell'accuratezza del rilevamento DeepLabCut. (A) Una tabella che elenca le informazioni di formazione per due reti neurali addestrate a tracciare i ratti all'interno delle camere operanti. La rete #1 usato un set di dati di training più piccolo, ma un numero elevato di iterazioni di training rispetto a Network #2.Network #1 used a smaller training data set, but high number of training iterations compared to Network #2. Entrambe le reti hanno ottenuto un punteggio di errore basso dalla funzione di valutazione di DeepLabCut (errore di test DLC) e hanno mostrato una bassa perdita di formazione verso la fine del training. Nonostante questo, Network #1 ha mostrato una precisione di tracciamento molto scarsa dopo la valutazione manuale dei fotogrammi video contrassegnati (precisione misurata, stimata da 150 fotogrammi video che coprono un segmento video paragonabile a quelli in Video 2 e Video 3). Network #2 rappresenta la versione migliorata di Network #1, dopo aver incluso ulteriori fotogrammi video di ratti in movimento attivo nel set di dati di training, come descritto in (E). (B) Immagine raffigurante un topo che alleva e copre la luce domestica della camera(Figura 7A) con la sua testa, interrompendo ne il tracciamento. (C) Fotogramma video che cattura una risposta effettuata durante uno studio 5CSRTT (Figura 6A: 3). Il percorso di movimento della testa durante la risposta e l'ITI precedente è stato sovrapposto all'immagine in giallo. Il tracciamento è considerato accurato. Si noti il tracciamento uniforme durante i movimenti (freccia bianca). Un video corrispondente è disponibile come Video 2. Per il rilevamento è stata utilizzata la #2 di rete (vedere A). (D) Fotogramma video che cattura una risposta effettuata durante uno studio 5CSRTT (Figura 6A: 3). Il percorso di movimento della testa durante la risposta e l'ITI precedente è stato sovrapposto all'immagine in giallo. I dati riguardano lo stesso processo illustrato in (C) ma analizzati con #1 di rete (vedere A). Il tracciamento è considerato impreciso. Si noti l'aspetto frastagliato del tracciato con più linee rette (frecce bianche), causato dal tracciamento occasionale della testa in posizioni erronee distanti (frecce nere). Un video corrispondente è disponibile come Video 3. (E) Grafico che illustra i cambiamenti dinamici nella velocità di movimento del tracciamento della testa in (C) e (D). Identificabili nel grafico sono tre movimenti principali visti nel Video 2 e 3, dove il ratto prima si gira ad affrontare le aperture del ficcanaso del naso (svolta iniziale), effettua una piccola regolazione per avvicinarsi ulteriormente a loro (regolazione), e infine esegue una risposta. Il profilo di velocità per il buon tracciamento ottenuto da Network #2 (A) mostra curve uniformi dei cambiamenti nella velocità di movimento (frecce blu), indicando un tracciamento accurato. Il profilo di velocità per il monitoraggio inadeguato ottenuto da Network #1 (A) mostra più picchi improvvisi nella velocità di movimento (frecce rosse) indicativi di errori di tracciamento occasionali in singoli fotogrammi video. Vale la pena notare che questi problemi di tracciamento si verificano specificamente durante i movimenti. Per rimediare a questo, il set di allenamento iniziale utilizzato per addestrare Network #1 è stato ampliato con una grande quantità di fotogrammi video raffiguranti ratti attivamente in movimento. Questo è stato successivamente utilizzato per addestrare Network #2, che ha rimosso in modo efficiente questo problema di monitoraggio. Fare clic qui per visualizzare una versione più grande di questa figura.

Figure 11
Figura 11: Utilizzo del rilevamento posizionale tramite DeepLabCut per completare l'analisi comportamentale dei test di condizionamento operanti. (Un) Una vista dall'alto dell'interno di una camera di condizionamento operante. Sono indicate tre aree della camera. L'area vicino al trogolo di pellet ricompensa (Pellet), l'area della camera centrale (centro) e l'area intorno alle aperture di colpo naso (aperture). (B) Un grafico che illustra la quantità relativa di tempo che i ratti trascorrono nelle tre diverse aree della camera operante descritta in (A) durante la fase ITI della 5CSRTT. Si noti che nelle prove con una risposta, i ratti inizialmente tendono ad essere posizionati vicino al pellet trough (nero) e centro camera (grigio), ma come l'ITI progredisce, si spostano verso il posizionamento se stessi intorno alle aperture poke naso (bianco). Al contrario, nelle prove tipiche di omissione, i ratti rimangono posizionati intorno alla depressione di pellet e al centro della camera. Su un sottoinsieme di prove di omissione (circa il 20%) i ratti spostano chiaramente la loro attenzione verso le aperture del naso, ma ancora non riescono a eseguire una risposta quando richiesto. L'analisi ANOVA bidirezionale del tempo trascorso intorno alle aperture del naso utilizzando il tipo di prova come fattore soggetto e il tempo come fattore all'interno del soggetto rivelano tempi significativi (p < 0.001, F(4,8) = 35.13), trial type (p < 0.01, F(2,4) = 57.33) and time x trial type interaction (p < 0.001, F(8,16) = 15.3) effects. Data gathered from four animals performing 100 trials each. Graph displays mean + standard error. (C) Mappa di calore che mostra tutte le posizioni della testa tracciate in prossimità delle aperture del naso poke, da un ratto specifico durante 50 ITI di una sessione di test 5CSRTT. Si noti che il ratto ha una forte tendenza a mantenere la testa in un punto vicino all'apertura centrale del naso poke. (D) Mappa di calore che mostra tutte le posizioni della testa tracciate in prossimità delle aperture del naso poke, da un ratto specifico durante 50 ITI di una sessione di test 5-CSRTT. Si noti che il ratto non mostra una chiara preferenza per qualsiasi apertura specifica. (E (in questo modo) Grafico che illustra la quantità relativa di tempo che i due ratti visualizzati in (C) e (D) trascorrono più vicini alle diverse aperture di colpire il naso durante 50 ITI del 5CSRTT. Il ratto che mostra una strategia mirata (C) (nero) mostra una forte preferenza per essere più vicino all'apertura centrale, mentre il ratto con una strategia di ricerca simile (D) (bianco) non mostra alcuna preferenza per nessuna apertura particolare. Il grafico mostra l'errore medio standard. (F) Immagine di un ratto al momento della presentazione del cue su uno studio 5CSRTT (Figura 6A). Si noti che il ratto ha posizionato la testa più vicina all'apertura centrale (freccia bianca), essendo due aperture di distanza dall'apertura cued (freccia nera). (G) Un grafico che illustra l'accuratezza delle prestazioni sulla 5CSRTT (cioè la frequenza di esecuzione di risposte corrette) in relazione al fatto che la testa dei ratti fosse più vicina all'apertura centrale o ad una delle altre aperture al momento della presentazione del segnale (Figura 6A2). Dati raccolti da quattro animali che eseguono circa 70 risposte ciascuno. Grafico visualizza il gruppo media - errore standard (corrispondente t-test: p < 0.05). (H) Un grafico che illustra la precisione delle prestazioni sul 5CSRTT in relazione alla distanza tra la posizione dell'apertura cued e la posizione della testa di un ratto, nel punto di presentazione del segnale. La distanza si riferisce al numero di aperture tra la posizione della testa dei ratti e la posizione dell'apertura segnalata. Dati raccolti da quattro animali che eseguono circa 70 risposte ciascuno. La visualizzazione del grafico indica un errore standard (accoppiati unidirezionali ANOVA: p < 0.01). For the presented analysis, Network #2 described in Figura 10A è stato utilizzato. Il set completo di dati analizzati includeva circa 160.000 fotogrammi video e 400 prove. Di questi, il 2,5% dei fotogrammi video sono stati esclusi a causa della velocità di movimento nota dell'animale superiore a 3.000 pixel/s, indicando un tracciamento errato (Figura 10E). Non sono state escluse prove complete. Fare clic qui per visualizzare una versione più grande di questa figura.

Video 1: Rappresentante di tenere traccia delle prestazioni di una rete neurale ben addestrata. Il video mostra un montaggio di un ratto che esegue 45 prove con risposte corrette durante una sessione di test 5CSRTT (vedere la figura 6A per i dettagli del protocollo). Il tracciamento della luce domestica (marcatore rosso), la base della coda (marcatore verde) e la testa (marcatore blu) sono indicati nel video. La formazione della rete (Network #2 in Figure 10A) enfatizzava la precisione per i movimenti effettuati lungo il pavimento della camera in prossimità delle aperture del naso poke (parete destra, Figura 7A). Il monitoraggio di questi segmenti mostra in media la precisione >90%. Il monitoraggio degli episodi di allevamento e toelettatura è impreciso, in quanto il set di allenamento non includeva i frame di questi comportamenti. Si noti che il video è stato compresso per ridurre le dimensioni del file e non è rappresentabile della qualità video ottenuta con la fotocamera. Clicca qui per scaricare questo video.

Video 2: Esempio di animale tracciato con precisione. Il video mostra una singola prova ben monitorata di un ratto che esegue una risposta corretta durante il 5CSRTT. Il tracciamento della luce domestica (marcatore rosso), la base della coda (marcatore verde) e la testa (marcatore blu) sono indicati nel video. Per il rilevamento è stata utilizzata la rete neurale #2 descritta nella Figura 10A. Si noti come i marcatori seguono i movimenti dell'animale con precisione. Fare anche riferimento a Figura 10C,E per il percorso tracciato e la velocità di movimento per il tracciamento della testa in questo video clip. Clicca qui per scaricare questo video.

Video 3: Esempio di animale mal monitorato. Il video mostra una singola prova mal monitorata di un ratto che esegue una risposta corretta durante il 5CSRTT. Il tracciamento della luce domestica (marcatore rosso), la base della coda (marcatore verde) e la testa (marcatore blu) sono indicati nel video. La rete neurale #1 descritta nella Figura 10A è stata utilizzata per il rilevamento. Il video clip è lo stesso utilizzato nel Video 2. Si noti che il marcatore per la testa non è posizionato in modo affidabile sulla parte superiore della testa del ratto. Fare anche riferimento alla Figura 10D,E per il percorso tracciato e la velocità di movimento per il tracciamento della testa in questo video clip. Clicca qui per scaricare questo video.

Video 4: Esempio di movimenti effettuati durante uno studio 5CSRTT con una risposta. Il video mostra una singola prova ben monitorata di un ratto che esegue una risposta corretta durante il 5-CSRTT. Il tracciamento della luce domestica (marcatore rosso), la base della coda (marcatore verde) e la testa (marcatore blu) sono indicati nel video. Si noti come il ratto in un primo momento è posizionato in chiara prossimità al recipiente a pellet (parete sinistra, Figura 7A) e poi si sposta per concentrare la sua attenzione sulla fila di aperture naso poke. Clicca qui per scaricare questo video.

Video 5: Esempio di una tipica prova di omissione durante la 5CSRTT. Il video mostra una singola prova ben monitorata di un ratto che esegue una tipica omissione durante il 5CSRTT. Il tracciamento della luce domestica (marcatore rosso), la base della coda (marcatore verde) e la testa (marcatore blu) sono indicati nel video. Si noti come il ratto mantiene la sua posizione intorno al recipiente di pellet (parete sinistra, Figura 7A) e centro della camera, piuttosto che girare intorno ad affrontare le aperture naso poke (parete destra, Figura 7A). Il comportamento visualizzato e la causa dell'omissione possono essere argomentati per riflettere il basso interesse a eseguire il test. Clicca qui per scaricare questo video.

Video 6: Esempio di una prova di omissione atipica durante la 5CSRTT. Il video mostra una singola prova ben tracciata di un ratto che esegue un'omissione atipica durante la 5CSRTT. Il tracciamento della luce domestica (marcatore rosso), la base della coda (marcatore verde) e la testa (marcatore blu) sono indicati nel video. Si noti come il ratto si posiziona verso il naso poke aperture lungo la parete destra della camera (Figura 7A). Questo può essere argomentato per indicare che l'animale è interessato a eseguire il test. Tuttavia, il ratto si affaccia lontano dall'apertura cued (posizione centrale) quando viene presentato il segnale (5 s nella clip). In contrasto con l'omissione visualizzata nel Video 4, quella qui vista è probabilmente correlata a processi di attenzione visuospatial sub-ottimale. Clicca qui per scaricare questo video.

Video 7: Esempio di un animale che mantiene una posizione centrale focalizzata durante un'ITI del 5CSRTT. Il video mostra una singola prova ben monitorata di un ratto che esegue una risposta corretta in una prova del 5CSRTT. Si noti come il ratto mantiene una posizione centrale durante l'ITI, mantenendo la testa ferma in prossimità del naso centrale poke apertura lungo la parete destra camera (Figura 7A). Il tracciamento della luce domestica (marcatore rosso), la base della coda (marcatore verde) e la testa (marcatore blu) sono indicati nel video. Clicca qui per scaricare questo video.

Video 8: Esempio di un animale che mostra una strategia di attenzione simile alla ricerca durante un'ITI del 5CSRTT. Il video mostra una singola prova ben monitorata di un ratto che esegue una risposta corretta in una prova del 5CSRTT. Si noti come il ratto riposiziona spesso la testa ad affrontare diverse aperture naso poke lungo la parete destra della camera (Figura 7A). Il tracciamento della luce domestica (marcatore rosso), la base della coda (marcatore verde) e la testa (marcatore blu) sono indicati nel video. Clicca qui per scaricare questo video.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Questo protocollo descrive come costruire una videocamera economica e flessibile che può essere utilizzata per registrare video da camere di condizionamento operanti e altre configurazioni di test comportamentali. Dimostra inoltre come utilizzare DeepLabCut per monitorare un forte segnale luminoso all'interno di questi video e come questo può essere utilizzato per aiutare a identificare brevi segmenti video di interesse nei file video che coprono sessioni di test complete. Infine, descrive come utilizzare il tracciamento della testa di un ratto per completare l'analisi dei comportamenti durante i test di condizionamento operanti.

Il protocollo presenta un'alternativa alle soluzioni di registrazione video disponibili in commercio per le camere di condizionamento operanti. Come notato, il vantaggio principale di questi è che si integrano con le camere operanti, consentendo registrazioni video di eventi specifici. L'approccio all'identificazione dei segmenti video di interesse descritto in questo protocollo è più laborioso e dispendioso in termini di tempo rispetto all'utilizzo di un sistema completamente integrato per registrare eventi specifici. È, tuttavia, notevolmente più economico (una recente stima dei costi per le apparecchiature di monitoraggio video per 6 camere operanti è stata impostata a circa 13.000 USD. In confronto, la costruzione di sei telecamere qui elencate costerebbe circa 720 USD). Inoltre, le telecamere possono essere utilizzate per più altre configurazioni di test comportamentali. Quando si lavora con la fotocamera, è importante essere consapevoli delle aree dell'elettronica esposta (la parte posteriore del componente della fotocamera e il componente LED IR), in modo che non entrino in contatto con i fluidi. Inoltre, il cavo a nastro che collega il modulo della fotocamera al microcomputer e ai cavi che collegano i LED e gli interruttori ai pin GPIO possono scatenarsi se la fotocamera viene spostata frequentemente. Così, regolare il design della custodia della fotocamera può essere utile per alcune applicazioni.

L'uso di DeepLabCut per identificare segmenti video di interesse e tracciare i movimenti degli animali offre un complemento e/o un'alternativa all'analisi video manuale. Mentre il primo non invalida il secondo, abbiamo scoperto che fornisce un modo conveniente di analizzare i movimenti e comportamenti all'interno di camere operanti. In particolare, fornisce dati di posizione dell'animale, che contiene informazioni più dettagliate rispetto a quelle tipicamente estratte tramite punteggio manuale (cioè coordinate effettive rispetto a informazioni di posizione qualitative come "di fronte", "accanto a" ecc.).

Quando si seleziona un indicatore di passo di protocollo, è importante sceglierne uno che indichi in modo coerente un determinato passaggio del protocollo comportamentale e che è improbabile che venga bloccato dall'animale. Se quest'ultimo è problematico, si può considerare di posizionare una lampada al di fuori della camera operante e filmarla attraverso le pareti della camera. Molte camere di condizionamento operanti sono modulari e consentono agli utenti di spostare liberamente luci, sensori e altri componenti. Va notato che ci sono altri pacchetti software che consentono anche agli utenti di addestrare le reti neurali nel riconoscere e monitorare gli oggetti definiti dall'utente nei video24,25,26. Questi possono probabilmente essere utilizzati come alternative a DeepLabCut nel protocollo corrente.

Il protocollo descrive come tracciare la parte centrale della testa di un ratto per misurare i movimenti all'interno delle camere operanti. Poiché DeepLabCut offre piena libertà nella selezione di parti del corpo o oggetti di interesse, questo può essere modificato con convenienza per adattarsi agli interessi specifici dello studio. Un'estensione naturale del tracciamento qui descritto è quello di monitorare anche la posizione delle orecchie e del naso dei ratti, per giudicare meglio non solo la posizione della testa, ma anche l'orientamento. I dati rappresentativi qui mostrati sono stati ricodificati con i ratti Long Evans. Questi ratti mostrano notevoli variazioni inter-individuali nel loro modello di pigmentazione, in particolare verso la loro base di coda. Ciò può comportare alcune difficoltà nell'applicazione di una singola rete neurale addestrata per il monitoraggio di individui diversi. Per limitare questi problemi, è meglio includere fotogrammi video di tutti gli animali di interesse nel set di formazione per la rete. La testa nera del topo Long Evans fornisce un contrasto ragionevolmente forte con le superfici metalliche della camera utilizzata qui. Pertanto, ottenere un tracciamento accurato delle loro teste richiede probabilmente meno sforzo rispetto ai ceppi albini. Il passaggio più critico per ottenere un monitoraggio accurato con DeepLabCut o pacchetti software comparabili consiste nel selezionare un buon numero di fotogrammi video diversi per la formazione della rete neurale. Di conseguenza, se il tracciamento di un oggetto di interesse è considerato non ottimale, l'aumento del set di fotogrammi di allenamento dovrebbe sempre essere il primo passo verso il miglioramento dei risultati.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Mentre i materiali e le risorse della fondazione The Raspberry Pi sono stati utilizzati e citati in questo manoscritto, la fondazione non è stata attivamente coinvolta nella preparazione o nell'uso di attrezzature e dati in questo manoscritto. Lo stesso vale per Pi-Supply. Gli autori non hanno nulla da rivelare.

Acknowledgments

Questo lavoro è stato sostenuto dalle sovvenzioni della Swedish Brain Foundation, della Swedish Parkinson Foundation e dei Fondi governativi svedesi per la ricerca clinica (M.A.C.), nonché dalle fondazioni Wenner-Gren (M.A.C, E.K.H.C), dalla fondazione .hlén (M.A.C) e dalla fondazione Blanceflor Bon Lucompagnidovisi, née né Bildt (S.F).

Materials

Name Company Catalog Number Comments
32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

DOWNLOAD MATERIALS LIST

References

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user's manual. Coulbourn instruments. , Holliston, Massachusetts. 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer's manual. Med Associates Inc. , St. Albans, Vermont. 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat's behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user's manual. Med Associates Inc. , St. Albans, Vermont. 26-30 (2004).
  14. Coulbourn Instruments. Coulbourn Instruments. , Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020).
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. Raspberry Pi foundation. Raspberry Pi foundation. , Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020).
  19. Pi-supply. Pi-supply. , Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018).
  20. Python. Python. , Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020).
  21. MathWorks. MathWorks. , Available from: https://mathworks.com/academia/highschool/ (2020).
  22. Cran.R-Project.org. Cran.R-Project.org. , Available from: https://cran.r-project.org/manuals.html (2020).
  23. Liu, Y., Tian, C., Huang, Y. Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Tags

Comportamento Problema 160 Condizionamento dell'Operante cognizione registrazione video comportamento dei roditori Raspberry Pi DeepLabCut
Monitoraggio dei ratti nelle camere di condizionamento operanti utilizzando una videocamera fatta in casa versatile e DeepLabCut
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Clemensson, E. K. H., Abbaszadeh,More

Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter