Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Het bijhouden van ratten in Operant Conditioning Kamers met behulp van een veelzijdige zelfgemaakte videocamera en DeepLabCut

Published: June 15, 2020 doi: 10.3791/61409

Summary

Dit protocol beschrijft hoe je een kleine en veelzijdige videocamera bouwen en hoe je video's gebruiken die daaruit zijn verkregen om een neuraal netwerk te trainen om de positie van een dier in operant-conditioneringskamers te volgen. Dit is een waardevolle aanvulling op standaard analyses van datalogs verkregen uit operne-conditioneringen.

Abstract

Operant conditionering kamers worden gebruikt om een breed scala van gedragstests uit te voeren op het gebied van neurowetenschappen. De opgenomen gegevens zijn meestal gebaseerd op het activeren van hendel- en neus-porne sensoren die aanwezig zijn in de kamers. Hoewel dit een gedetailleerd beeld geeft van wanneer en hoe dieren bepaalde reacties uitvoeren, kan het niet worden gebruikt om gedragingen te evalueren die geen sensoren activeren. Als zodanig is het zelden mogelijk om te beoordelen hoe dieren zich positioneren en zich in de kamer bewegen. Om deze informatie te verkrijgen, moeten onderzoekers over het algemeen video's opnemen en analyseren. Fabrikanten van operant conditioneringkamers kunnen hun klanten doorgaans voorzien van hoogwaardige camera-opstellingen. Echter, deze kunnen zeer kostbaar zijn en niet noodzakelijkerwijs kamers van andere fabrikanten of andere gedragstest setups passen. Het huidige protocol beschrijft hoe je een goedkope en veelzijdige videocamera bouwen met hobby-elektronicacomponenten. Het beschrijft verder hoe het beeldanalyse softwarepakket DeepLabCut te gebruiken om de status van een sterk lichtsignaal, evenals de positie van een rat, in video's verzameld vanuit een operant conditionering kamer te volgen. De eerste is een groot hulpmiddel bij het selecteren van korte segmenten van belang in video's die hele testsessies bestrijken, en de laatste maakt analyse van parameters die niet kunnen worden verkregen uit de data logs geproduceerd door de operant kamers.

Introduction

Op het gebied van gedragsneurowetenschappen, onderzoekers vaak gebruik operant conditionering kamers om een breed scala van verschillende cognitieve en psychiatrische kenmerken bij knaagdieren te beoordelen. Hoewel er verschillende fabrikanten van dergelijke systemen zijn, delen ze doorgaans bepaalde kenmerken en hebben ze een bijna gestandaardiseerd ontwerp1,2,3. De kamers zijn over het algemeen vierkant- of rechthoekvormig, met een muur die kan worden geopend voor het plaatsen van dieren binnen, en een of twee van de resterende muren met componenten zoals hendels, neus-poke openingen, beloning trays, respons wielen en lichten van verschillende soorten1,,2,3. De lichten en sensoren in de kamers worden gebruikt om zowel het testprotocol te controleren als het gedrag van de dieren te volgen1,2,,3,4,5. De typische operant conditioneringssystemen zorgen voor een zeer gedetailleerde analyse van hoe de dieren omgaan met de verschillende operanda en openingen in de kamers. In het algemeen kunnen alle gelegenheden waarbij sensoren worden geactiveerd door het systeem worden geregistreerd, en uit deze gegevens kunnen gebruikers gedetailleerde logbestanden verkrijgen waarin wordt beschreven wat het dier deed tijdens specifieke stappen van de test4,5. Hoewel dit een uitgebreide weergave van de prestaties van een dier biedt, kan het alleen worden gebruikt om gedrag te beschrijven dat direct een of meer sensoren4,5activeert . Als zodanig worden aspecten die verband houden met de manier waarop het dier zich positioneert en zich tijdens verschillende fasen van de test in de kamer beweegt , niet goed beschreven6,7,8,9,10. Dit is jammer, omdat dergelijke informatie waardevol kan zijn voor het volledig begrijpen van het gedrag van het dier. Het kan bijvoorbeeld worden gebruikt om te verduidelijken waarom bepaalde dieren slecht presteren op een bepaalde test6, om de strategieën te beschrijven die dieren zouden kunnen ontwikkelen om moeilijke taken6,7,8, 98,,10te behandelen , of om de ware complexiteit van zogenaamd eenvoudig gedrag11,12te waarderen .9 Om dergelijke welbespraakte informatie te verkrijgen, onderzoekers vaak wenden tot handmatige analyse van video's6,7,8,9,10,11.

Bij het opnemen van video's van operant conditioneringkamers, is de keuze van de camera van cruciaal belang. De kamers bevinden zich gewoonlijk in isolatiehokjes, waarbij protocollen vaak gebruik maken van trappen waar geen zichtbaar licht schijnt3,6,7,8,9. Daarom is het gebruik van infrarood (IR) verlichting in combinatie met een IR-gevoelige camera noodzakelijk, omdat het zicht mogelijk maakt, zelfs in volledige duisternis. Verder is de beschikbare ruimte voor het plaatsen van een camera in de isolatiecabine vaak zeer beperkt, wat betekent dat men sterk profiteert van het hebben van kleine camera's die lenzen gebruiken met een breed gezichtsveld (bijvoorbeeld visooglenzen)9. Terwijl fabrikanten van opernige conditioneringssystemen vaak hoogwaardige camera-opstellingen aan hun klanten kunnen leveren, kunnen deze systemen duur zijn en niet noodzakelijkerwijs kamers van andere fabrikanten of opstellingen voor andere gedragstests passen. Echter, een opmerkelijk voordeel ten opzichte van het gebruik van stand-alone videocamera's is dat deze opstellingen vaak rechtstreeks kunnen interface met de operant conditionering systemen13,14. Hierdoor kunnen ze worden opgezet om alleen specifieke gebeurtenissen op te nemen in plaats van volledige testsessies, wat enorm kan helpen bij de analyse die volgt.

Het huidige protocol beschrijft hoe je een goedkope en veelzijdige videocamera bouwen met hobby-elektronicacomponenten. De camera maakt gebruik van een fisheye lens, is gevoelig voor IR-verlichting en heeft een set van IR-lichtgevende diodes (IR LED's) aan verbonden. Bovendien is het gebouwd om een plat en slank profiel te hebben. Samen maken deze aspecten het ideaal voor het opnemen van video's van de meeste commercieel beschikbare operant conditioneringkamers en andere gedragstestopstellingen. Het protocol beschrijft verder hoe video's verkregen met de camera te verwerken en hoe het softwarepakket DeepLabCut15,16 te gebruiken om te helpen bij het extraheren van video sequenties van belang, alsmede het bijhouden van de bewegingen van een dier daarin. Dit omzeilt gedeeltelijk de draw-back van het gebruik van een stand-alone camera over de geïntegreerde oplossingen die door operant fabrikanten van conditionering systemen, en biedt een aanvulling op handmatige score van gedrag.

Er zijn inspanningen geleverd om het protocol in een algemeen formaat te schrijven om te benadrukken dat het totale proces kan worden aangepast aan video's van verschillende operant conditioneringstests. Om bepaalde sleutelbegrippen te illustreren, worden video's van ratten die de 5-keuze seriële reactietijdtest (5CSRTT)17 uitvoeren, als voorbeelden gebruikt.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle procedures die de behandeling van dieren omvatten zijn goedgekeurd door de Malmö-Lund Ethische commissie voor dieronderzoek.

1. Het bouwen van de videocamera

OPMERKING: Een lijst van de onderdelen die nodig zijn voor het bouwen van de camera is opgenomen in de tabel met materialen. Zie ook figuur 1, figuur 2, figuur 3, figuur 4, figuur 5.

  1. Bevestig de magnetische metalen ring (die gepaard gaat met de fisheye lens pakket) rond de opening van de camera standaard (Figuur 2A). Hierdoor kan de fisheye lens voor de camera geplaatst worden.
  2. Bevestig de cameramodule aan de camerastandaard(figuur 2B). Dit geeft wat stabiliteit aan de cameramodule en biedt enige bescherming aan de elektronische schakelingen.
  3. Open de camerapoorten op de cameramodule en microcomputer (figuur 1) door voorzichtig aan de randen van hun plastic clips te trekken(figuur 2C).
  4. Plaats de lintkabel in de camerapoorten, zodat de zilveren connectoren naar de printplaten(Figure2C) kijken. Vergrendel de kabel op zijn plaats door de plastic clips van de camerapoorten in te duwen.
  5. Plaats de microcomputer in de plastic behuizing en plaats de genoemde micro-SD-kaart(figuur 2D).
    OPMERKING: De micro-SD-kaart functioneert als de harde schijf van de microcomputer en bevat een volledig besturingssysteem. De genoemde micro SD-kaart wordt geleverd met een installatiemanager die er vooraf op is geïnstalleerd (New Out Of Box Software (NOOBS). Als alternatief kan men een afbeelding van de nieuwste versie van het besturingssysteem van de microcomputer (Raspbian of Rasberry Pi OS) schrijven naar een generieke micro-SD-kaart. Voor hulp hierbij verwijzen wij u naar de officiële webbronnen18. Het heeft de voorkeur om een klasse 10 micro SD-kaart te gebruiken met 32 Gb opslagruimte. Grotere SD-kaarten zijn mogelijk niet volledig compatibel met de genoemde microcomputer.
  6. Sluit een monitor, toetsenbord en muis aan op de microcomputer en sluit de voeding aan.
  7. Volg de stappen zoals gevraagd door de installatiegids om een volledige installatie van het besturingssysteem van de microcomputer uit te voeren (Raspbian of Rasberry Pi OS). Wanneer de microcomputer is opgestart, moet u ervoor zorgen dat deze via een ethernetkabel of wi-fi is verbonden met internet.
  8. Volg de onderstaande stappen om de vooraf geïnstalleerde softwarepakketten van de microcomputer bij te werken.
    1. Open een eindvenster (figuur 3A).
    2. Typ "sudo apt-get update" (exclusief aanhalingstekens) en druk op de Enter-toets (figuur 3B). Wacht tot het proces is voltooid.
    3. Typ "sudo apt full-upgrade" (exclusief aanhalingstekens) en druk op enter. Maak knopreacties wanneer daarom wordt gevraagd en wacht tot het proces is voltooid.
  9. Selecteer onder het menu Start voorkeuren en Raspberry Pi-configuraties (figuur 3C). Ga in het geopende venster naar het tabblad Interfaces en klik op Camera en I2C inschakelen. Dit is nodig om de microcomputer te laten werken met de camera en IR LED-modules.
  10. Wijzig de naam aanvullende bestand 1 tot "Pi_video_camera_Clemensson_2019.py". Kopieer het op een USB-geheugen stick, en vervolgens in de microcomputer /home / pi map(Figuur 3D). Dit bestand is een Python-script, waarmee video-opnamen kunnen worden gemaakt met de knopschakelaars die in stap 1.13 zijn bevestigd.
  11. Volg de onderstaande stappen om het rc.local-bestand van de microcomputer te bewerken. Hierdoor start de computer het script dat in stap 1.10 is gekopieerd en start de IR-LED's die in stap 1.13 zijn bevestigd wanneer het wordt opgestart.
    LET OP: Deze auto-start-functie werkt niet betrouwbaar met microcomputer boards anders dan het genoemde model.
    1. Open een eindvenster, typ "sudo nano /etc/rc.local" (exclusief aanhalingstekens) en druk op enter. Hiermee wordt een tekstbestand geopend (figuur 4A).
    2. Gebruik de pijltoetsen van het toetsenbord om de cursor naar beneden te verplaatsen naar de ruimte tussen "fi" en "exit 0"(figuur 4A).
    3. Voeg de volgende tekst toe zoals weergegeven in figuur 4B,waarbij elke tekenreeks tekst op een nieuwe regel wordt geschreven:
      sudo i2cset -y 1 0x70 0x00 0xa5 &
      sudo i2cset -y 1 0x70 0x09 0x0f &
      sudo i2cset -y 1 0x70 0x01 0x32 &
      sudo i2cset -y 1 0x70 0x03 0x32 &
      sudo i2cset -y 1 0x70 0x06 0x32 &
      sudo i2cset -y 1 0x70 0x08 0x32 &
      sudo python /home/pi/Pi_video_camera_Clemensson_2019.py &
    4. Sla de wijzigingen op door op Ctrl + x te drukken, gevolgd door y en Enter.
  12. Samen de nodige onderdelen samenbrengen zoals aangegeven in figuur 5A, en zoals hieronder beschreven.
    1. Voor de twee gekleurde LED's, bevestig een weerstand en een vrouwelijke jumper kabel aan een been, en een vrouwelijke jumper kabel aan de andere(Figuur 5A). Probeer de kabels zo kort mogelijk te houden. Let op welke van de LED's elektroden is de negatieve (meestal de korte), omdat dit moet worden aangesloten op de grond op de microcomputer's general-purpose input / output (GPIO) pinnen.
    2. Voor de twee knopschakelaars bevestigt u een vrouwelijke jumperkabel aan elk been(figuur 5A). Maak de kabels lang voor een van de schakelaars, en kort voor de andere.
    3. Voor het monteren van de IR LED-module, volg instructies beschikbaar op de officiële web resources19.
    4. Bedek de gesoldeerde verbindingen met krimpbuizen om het risico van kortsluiting van de componenten te beperken.
  13. Schakel de microcomputer uit en sluit de schakelaars en LED's aan op de GPIO-pinnen zoals aangegeven in figuur 5B, en hieronder beschreven.
    LET OP: Het bedraden van de componenten naar de verkeerde GPIO-pinnen kan ze beschadigen en/of de microcomputer wanneer de camera is ingeschakeld.
    1. Sluit een LED aan, zodat het negatieve uiteinde verbinding maakt met pin #14 en het positieve uiteinde verbindt met pin #12. Deze LED zal schitteren wanneer de microcomputer is opgestart en de camera klaar is om te worden gebruikt.
    2. Sluit de knopschakelaar aan met lange kabels, zodat de ene kabel verbinding maakt met pin #9 en de andere om #11 vast te pinnen. Deze knop wordt gebruikt om de video-opnamen te starten en te stoppen.
      OPMERKING: Het script dat de camera beheert, is zo geschreven dat deze knop een paar seconden niet reageert net na het starten of stoppen van een video-opname.
    3. Sluit een LED aan, zodat het negatieve uiteinde verbinding maakt met pin #20 en het positieve uiteinde verbindt met pin #13. Deze LED zal schitteren wanneer de camera een video opneemt.
    4. Sluit de knopschakelaar aan met de korte kabels, zodat de ene kabel verbinding maakt met pin #37 en de andere om #39 vast te pinnen. Deze schakelaar wordt gebruikt om de camera uit te schakelen.
    5. Sluit de IR LED-module zoals beschreven in de officiële webbronnen19.

2. Het ontwerpen van het operantconditioneringsprotocol van belang

OPMERKING: Om DeepLabCut te gebruiken voor het bijhouden van de protocolprogressie in video's die zijn opgenomen vanuit operantkamers, moeten de gedragsprotocollen op specifieke manieren worden gestructureerd, zoals hieronder wordt uitgelegd.

  1. Stel het protocol in om het huislicht van de kamer of een ander sterk lichtsignaal te gebruiken als een indicator van een specifieke stap in het protocol (zoals het begin van individuele proeven of de testsessie) (figuur 6A). Dit signaal wordt in de rest van dit protocol de "protocolstapindicator" genoemd. De aanwezigheid van dit signaal zal het bijhouden van protocolprogressie in de opgenomen video's mogelijk maken.
  2. Stel het protocol in om alle reacties van interesse op te nemen met afzonderlijke tijdstempels in relatie tot wanneer de protocolstapindicator actief wordt.

3. Het opnemen van video's van dieren die de gedragstest van belang uitvoeren

  1. Plaats de camera op de top van de operant kamers, zodat het registreert een bovenste weergave van het gebied binnen (Figuur 7).
    LET OP: Dit is bijzonder geschikt voor het vastleggen van de algemene positie en houding van een dier in de kamer. Plaats de indicatorlampjes van de camera en de IR LED-module niet dicht bij de cameralens.
  2. Start de camera door deze via de voedingskabel aan te sluiten op een stopcontact.
    OPMERKING: Voor het eerste gebruik is het nuttig om de focus van de camera in te stellen, met behulp van het kleine gereedschap dat de cameramodule begeleidt.
  3. Gebruik de knop die is aangesloten in stap 1.13.2 om video-opnamen te starten en te stoppen.
  4. Schakel de camera uit door deze stappen te volgen.
    1. Druk op de knop die is aangesloten in stap 1.13.4 totdat de LED die in stap 1.13.1 is aangesloten, wordt uitgeschakeld. Dit initieert het stilleggingsproces van de camera.
    2. Wacht tot de groene LED zichtbaar op de top van de microcomputer (Figuur 1) is gestopt met knipperen.
    3. Verwijder de voeding van de camera.
      LET OP: Het loskoppelen van de voeding terwijl de microcomputer nog actief is, kan beschadiging van de gegevens op de micro-SD-kaart veroorzaken.
  5. Sluit de camera aan op een monitor, toetsenbord, muis en USB-opslagapparaat en haal de videobestanden van het bureaublad op.
    OPMERKING: De bestanden worden benoemd op basis van de datum en het tijdstip waarop de video-opname is gestart. De microcomputer heeft echter geen interne klok en werkt alleen de tijdsinstelling bij wanneer deze is verbonden met het internet.
  6. Converteer de opgenomen video's van .h264 naar . MP4, zoals de laatste werkt goed met DeepLabCut en de meeste mediaspelers.
    OPMERKING: Er zijn meerdere manieren om dit te bereiken. Een daarvan wordt beschreven in aanvullend dossier 2.

4. Video's analyseren met DeepLabCut

OPMERKING: DeepLabCut is een softwarepakket waarmee gebruikers elk object van belang in een reeks videoframes kunnen definiëren en deze vervolgens kunnen gebruiken om een neuraal netwerk te trainen bij het bijhouden van de posities van de objecten in video's over de volledige lengte15,,16. Deze sectie geeft een ruwe schets voor hoe deeplabcut te gebruiken om de status van het protocol stap indicator en de positie van het hoofd van een rat bij te houden. Installatie en gebruik van DeepLabCut is goed beschreven in andere gepubliceerde protocollen15,16. Elke stap kan worden gedaan door middel van specifieke Python-opdrachten of de grafische gebruikersinterface van DeepLabCut, zoals elders beschreven15,16.

  1. Maak en configureer een nieuw DeepLabCut-project door de in16beschreven stappen te volgen.
  2. Gebruik de framegrijpfunctie van DeepLabCut om 700\u2012900-videoframes uit een of meer van de video's te extraheren die in sectie 3 zijn opgenomen.
    OPMERKING: Als de dieren aanzienlijk verschillen in bontpigmentatie of andere visuele kenmerken, is het raadzaam dat de 700\u2012900 geëxtraheerde videoframes worden gesplitst over video's van verschillende dieren. Hierdoor kan één getraind netwerk worden gebruikt om verschillende individuen te volgen.
    1. Zorg ervoor dat u videoframes opneemt die zowel de actieve(figuur 8A)als de inactieve(figuur 8B)status van de protocolstapindicator weergeven.
    2. Zorg ervoor dat u videoframes opneemt die betrekking hebben op het bereik van verschillende posities, houdingen en hoofdbewegingen die de rat tijdens de test kan laten zien. Dit moet onder meer videoframes waar de rat stil staat in verschillende gebieden van de kamer, met zijn hoofd wijst in verschillende richtingen, evenals videoframes waar de rat actief beweegt, het invoeren van neus poke openingen en het invoeren van de pellet trog.
  3. Gebruik deeplabcut's labeltoolbox om handmatig de positie van het hoofd van de rat te markeren in elk videoframe dat in stap 4.2 wordt geëxtraheerd. Gebruik de muiscursor om een "kop"-label in een centrale positie tussen de oren van de rat te plaatsen(figuur 8A,B). Markeer bovendien de positie van het huislicht van de kamer (of een andere protocolstapindicator) in elk videoframe waar het actief schijnt(figuur 8A). Laat het huis licht ongelabeld in frames waar het inactief is (Figuur 8B).
  4. Gebruik de functies "create training data set" en "train network" van DeepLabCut om een trainingsgegevensset te maken van de videoframes die zijn gelabeld in stap 4.3 en start de training van een neuraal netwerk. Selecteer 'resnet_101' voor het gekozen netwerktype.
  5. Stop de training van het netwerk wanneer het trainingsverlies onder 0,01 is gedaald. Dit kan tot 500.000 trainingsiteraties duren.
    OPMERKING: Bij het gebruik van een GPU-machine met ongeveer 8 GB geheugen en een trainingsset van ongeveer 900 videoframes (resolutie: 1640 x 1232 pixels), is gebleken dat het trainingsproces ongeveer 72 uur duurt.
  6. Gebruik de video-analysefunctie van DeepLabCut om video's te analyseren die in stap 3 zijn verzameld, met behulp van het neurale netwerk dat is getraind in stap 4.4. Dit biedt een .csv-bestand met de bijgehouden posities van het hoofd van de rat en de protocolstapindicator in elk videoframe van de geanalyseerde video's. Daarnaast wordt er gemarkeerde videobestanden gemaakt waarin de bijgehouden posities visueel worden weergegeven(Video's 1-8).
  7. Evalueer de nauwkeurigheid van de tracking door de onderstaande stappen te volgen.
    1. Gebruik de ingebouwde evaluatiefunctie van DeepLabCut om een geautomatiseerde evaluatie van de trackingnauwkeurigheid van het netwerk te verkrijgen. Dit is gebaseerd op de videoframes die in stap 4.3 zijn gelabeld en beschrijft hoe ver de positie die het netwerk bijhoudt gemiddeld afkomstig is van het handmatig geplaatste label.
    2. Selecteer een of meer korte videosequenties (van ongeveer 100\u2012200 videoframes per stuk) in de gemarkeerde video's die in stap 4.6 zijn verkregen. Ga door de video sequenties, frame voor frame, en let op in hoeveel frames de etiketten correct geven de posities van de kop van de rat, staart, enz., en in hoeveel frames de etiketten zijn geplaatst in onjuiste posities of niet getoond.
      1. Als het etiket van een lichaamsdeel of object vaak verloren gaat of in een foutieve positie wordt geplaatst, identificeert u de situaties waarin tracking mislukt. Haal gelabelde frames van deze gelegenheden uit en voeg ze toe door stap 4.2 te herhalen. en 4.3. Vervolgens het netwerk omscholen en de video's opnieuw analyseren door stappen 4.4-4.7 te herhalen. Uiteindelijk moet de nauwkeurigheid van >90% nauwkeurig worden bereikt.

5. Het verkrijgen van coördinaten voor bezienswaardigheden in de operantkamers

  1. Gebruik DeepLabCut zoals beschreven in stap 4.3 om handmatig aandachtspunten in de operantkamers (zoals neusprikopeningen, hendels, enz.) in één videoframe(figuur 8C)te markeren. Deze worden handmatig gekozen, afhankelijk van studiespecifieke interesses, hoewel de positie van de protocolstapindicator altijd moet worden opgenomen.
  2. Haal de coördinaten van de gemarkeerde aandachtspunten op uit het CSV-bestand dat DeepLabCut automatisch opslaat onder 'gelabelde gegevens' in de projectmap.

6. Videosegmenten identificeren waarin de protocolstapindicator actief is

  1. Laad de .csv-bestanden verkregen uit de DeepLabCut-videoanalyse in stap 4.6 in een naar keuze gekozen software voor gegevensbeheer.
    OPMERKING: Vanwege de hoeveelheid en complexiteit van de gegevens verkregen uit DeepLabCut en operant conditioning systemen, het datamanagement is het beste gedaan door middel van geautomatiseerde analyse scripts. Om hiermee aan de slag te gaan, verwijzen we u naar instapgidsen die elders beschikbaar zijn20,21,22.
  2. Houd er rekening mee dat de protocolstapindicator wordt bijgehouden binnen 60 pixels van de positie die in punt 5 is verkregen. Dit zijn perioden waarin de protocolstapindicator actief is (figuur 6B).
    OPMERKING: Tijdens videosegmenten waar de protocolstapindicator niet schijnt, lijkt de gemarkeerde video erop te wijzen dat DeepLabCut deze niet in een willekeurige positie bijhoudt. Dit is echter zelden het geval, en het wordt in plaats daarvan meestal bijgehouden naar meerdere verspreide locaties.
  3. Haal het exacte beginpunt eruit voor elke periode waarin de protocolstapindicator actief is (figuur 6C: 1).

7. Identificeren van videosegmenten van belang

  1. Denk aan de punten waar de protocolstapindicator actief wordt (figuur 6C: 1) en de tijdstempels van de reacties die door de operantkamers zijn opgenomen (punt 2, figuur 6C: 2).
  2. Gebruik deze informatie om te bepalen welke videosegmenten specifieke interessante gebeurtenissen behandelen, zoalsFigure 6Cinter-trial intervallen, Figure 6Dreacties, beloningsophaalacties enz.
    LET OP: Houd er hierbij rekening mee dat de hier beschreven camera video's met 30 fps opneemt.
  3. Let op de specifieke videoframes die deze gebeurtenissen van belang behandelen.
  4. (Optioneel) Bewerk videobestanden van volledige testsessies om alleen de specifieke segmenten van belang op te nemen.
    OPMERKING: Er zijn meerdere manieren om dit te bereiken. Een daarvan wordt beschreven in aanvullend dossier 2 en 3. Dit helpt enorm bij het opslaan van grote aantallen video's en kan ook het bekijken en presenteren van resultaten gemakkelijker maken.

8. Analyseren van de positie en bewegingen van een dier tijdens specifieke videosegmenten

  1. Subset de volledige tracking gegevens van het hoofd positie verkregen van DeepLabCut in stap 4.6 om alleen video segmenten genoteerd onder sectie 7.
  2. Bereken de positie van het hoofd van het dier ten opzichte van een of meer van de in punt 5 (figuur 8C) gekozen referentiepunten . Dit maakt vergelijkingen van tracking en positie tussen verschillende video's mogelijk.
  3. Voer relevante diepgaande analyse uit van de positie en bewegingen van het dier.
    OPMERKING: De specifieke analyse die wordt uitgevoerd, zal sterk studiespecifiek zijn. Hieronder worden enkele voorbeelden gegeven van parameters die kunnen worden geanalyseerd.
    1. Visualiseer padsporen door alle coördinaten die tijdens een geselecteerde periode binnen één grafiek zijn gedetecteerd, uit te stippen.
    2. Analyseer de nabijheid van een bepaald punt van belang met behulp van de volgende formule:
      Equation 1
    3. Analyseer veranderingen in snelheid tijdens een beweging door de afstand tussen bijgehouden coördinaten in opeenvolgende frames te berekenen en te delen door 1/fps van de camera.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Prestaties van videocamera's

De representatieve resultaten werden verzameld in operant conditioneringskamers voor ratten met vloeroppervlakken van 28,5 cm x 25,5 cm en een hoogte van 28,5 cm. Met de fisheye lens bevestigd, de camera vangt de volledige vloer en grote delen van de omliggende muren, wanneer geplaatst boven de kamer (Figuur 7A). Als zodanig kan een goed uitzicht worden verkregen, zelfs als de camera buiten het midden op de bovenkant van de kamer is geplaatst. Dit moet gelden voor vergelijkbare operant kamers. De IR LED's zijn in staat om de hele kamer te verlichten (figuur 7B,C), waardoor een goed zicht, zelfs wanneer alle andere lichten in de kamer zijn uitgeschakeld (Figuur 7C). Echter, de verlichting in dergelijke situaties is niet helemaal gelijkmatig, en kan leiden tot een aantal problemen bij het verkrijgen van nauwkeurige tracking. Indien een dergelijke analyse van belang is, kunnen aanvullende bronnen van IR-verlichting nodig zijn. Het is ook vermeldenswaard dat sommige kamers metalen dropping pannen gebruiken om urine en uitwerpselen te verzamelen. Als de camera direct boven dergelijke oppervlakken wordt geplaatst, zijn sterke reflecties van het licht van de IR-LED's zichtbaar in de opgenomen video's(figuur 7B). Dit kan echter worden vermeden door het plaatsen van papieren handdoeken in de dropping pan, waardoor een sterk verbeterd beeld(Figuur 7C). Het plaatsen van de IR of gekleurde LED's van de camera te dicht bij de cameralens kan ertoe leiden dat ze zichtbaar zijn in de beeldperiferie(figuur 7B). Aangezien de camera IR-gevoelig is, kunnen alle IR-lichtbronnen die in de kamers aanwezig zijn, zichtbaar zijn in de video's. Voor veel opstellingen, zal dit ook de continue schijnt van IR-balk breken sensoren(Figuur 7C). De continue verlichting van de IR LED's van de camera verstoort de beeldkwaliteit van goed verlichte kamers niet (Figuur 7D). De grootte van de video's opgenomen met de camera is ongeveer 77 Mb / min. Als een 32 Gb micro SD-kaart wordt gebruikt voor de camera, moet er ongeveer 20 Gb beschikbaar zijn na de installatie van het besturingssysteem. Dit laat ruimte voor ongeveer 260 minuten van opgenomen beelden.

De fisheye lens zorgt ervoor dat de camera een enigszins ongelijke focus hebben, scherp in het midden van het beeld, maar verminderde scherpte naar de randen. Dit lijkt geen invloed op de nauwkeurigheid van het bijhouden. Bovendien zorgt de fisheye-lens er voor dat het opgenomen beeld wordt vervormd. Zo vertonen de afstanden tussen even gesprede punten langs rechte lijnen kunstmatig verminderde afstand naar de periferie van het beeld(figuur 9A,B). Als de camera wordt gebruikt voor toepassingen waarbij het grootste deel van het gezichtsveld of absolute metingen van afstand en snelheid van belang zijn, is het de moeite waard om de gegevens voor deze vervorming23 (Aanvullend bestand 4) te corrigeren. De vervorming is echter relatief mild in het midden van de afbeelding(figuur 9B). Voor video's verzameld in onze operant kamer, het gebied van belang is beperkt tot de centrale 25% van het gezichtsveld van de camera. Binnen dit gebied is het effect van de visoogvervorming minimaal(figuur 9C\u2012F).

Nauwkeurigheid van tracking met DeepLabCut

De belangrijkste factoren die de tracking nauwkeurigheid van een getraind netwerk zal bepalen zijn (i) het aantal gelabelde frames in de training data set, (ii) hoe goed die gelabelde frames vangen het gedrag van belang en (iii) het aantal training iteraties gebruikt. DeepLabCut bevat een evaluatiefunctie, die een schatting rapporteert van hoe ver weg (in aantallen pixels) de tracking naar verwachting zal zijn vanaf de werkelijke locatie van een object. Dit geeft echter niet noodzakelijkerwijs een goede beschrijving van het aantal frames waarbij een object verloren gaat en/of verkeerd is gelabeld (figuur 10A),wat de noodzaak van aanvullende handmatige beoordeling van de nauwkeurigheid van het bijhouden inhoudt.

Voor het analyseren van gedrag in een operantkamer moet een goed getraind netwerk het mogelijk maken alle gebeurtenissen nauwkeurig te identificeren waarbij de protocolstapindicator actief is. Zo niet, dan is het nodig om het netwerk om te scholen of een andere indicator te kiezen. Ondanks het feit dat een goed getraind netwerk, kan het bijhouden van de protocol stap indicator soms worden verstoord door dieren blokkeren van de camera het zicht(Figuur 10B). Dit zal leiden tot breuken in de tracking die doen denken aan afleveringen waar de indicator inactief is. De frequentie van dit gebeurt zal afhangen van dierlijke stam, type gedragsprotocol en de keuze van het protocol stap indicator. In de voorbeeldgegevens van de 5CSRTT die hier worden gebruikt, vond het plaats op vier van de 400 proeven (gegevens die niet worden weergegeven). Alle gelegenheden waren gemakkelijk te identificeren, omdat de duur ervan niet overeenkwam met die van de pauzestap die in het protocolontwerp was opgenomen(figuur 6A). Uiteindelijk is het kiezen van een indicator die hoog in de kamer en uit de buurt van componenten die dieren interactie met is waarschijnlijk nuttig zijn.

Een goed getraind netwerk moet het mogelijk maken >90% nauwkeurigheid bij het bijhouden van het hoofd van een dier tijdens videosegmenten van belang (Video 1). Hiermee hoeft slechts een kleine subset van videoframes te worden uitgesloten van de daaropvolgende analyse en kunnen bruikbare trackinggegevens worden verkrijgbaar uit vrijwel alle proeven binnen een testsessie. Nauwkeurige tracking is duidelijk te herkennen aan markeringen die een dier volgen tijdens zijn bewegingen(Video 2) en uitgezet paden die vloeiend lijken(figuur 10C). In tegenstelling, onjuiste tracking wordt gekenmerkt door markers niet betrouwbaar blijven op doel (Video 3) en door uitgezet paden verschijnen gekarteld (Figuur 10D). Dit laatste wordt veroorzaakt door het object dat wordt gevolgd naar verre foutieve posities in enkele videoframes binnen sequenties van nauwkeurige tracking. Als gevolg hiervan veroorzaakt onjuiste tracking doorgaans plotselinge verschuivingen in berekende bewegingssnelheden(figuur 10E). Dit kan worden gebruikt om videoframes te identificeren waar tracking onjuist is, om ze uit te sluiten van latere analyses. Als er aanzienlijke problemen zijn met de nauwkeurigheid van het bijhouden, moeten de gelegenheden waarbij tracking mislukt worden geïdentificeerd en moet het netwerk worden omgeschoold met behulp van een uitgebreide trainingsset met gelabelde videoframes van deze gebeurtenissen(figuur 10A,E).

Gebruik van videotracking als aanvulling op de analyse van operantgedrag

Het analyseren van hoe een dier beweegt en positioneert zich tijdens operant tests zal meerdere inzichten geven in de complexe en veelzijdige aard van hun gedrag. Door bij te houden waar een dier zich tijdens een testsessie bevindt, kan men beoordelen hoe verschillende bewegingspatronen zich verhouden tot prestaties(figuur 11A,B). Door de bewegingen van het hoofd tijdens specifieke protocolstappen verder te onderzoeken, kan men het gebruik van verschillende strategieën detecteren en karakteriseren(figuur 11C\u2012E).

Om een voorbeeld te geven, moet rekening worden gehouden met de representatieve gegevens die zijn verstrekt voor ratten die de 5CSRTT-test uitvoeren (figuur 6A, figuur 11). In deze test krijgen dieren meerdere proeven voorgeschud die elk beginnen met een wachtstap van 5 s (inter-trial interval - ITI) (figuur 6A: 1). Aan het einde van dit, een licht zal schijnen in een van de neus poke openingen (willekeurig gekozen positie op elke proef, figuur 6A: 2). Neus-porren in de cued opening wordt beschouwd als een juiste reactie en wordt beloond (Figuur 6A: 3). Reageren op een andere opening wordt als onjuist beschouwd. Het niet reageren binnen 5 s na de presentatie van het licht wordt beschouwd als een omissie. Het bijhouden van hoofdbewegingen tijdens de ITI van deze test heeft aangetoond dat op proeven waar ratten een reactie uitvoeren, ze snel zijn in de richting van het gebied rond de neus porren openingen (Figuur 11A,B, Video 4). In tegenstelling, op de meerderheid van de omissie proeven, de ratten niet aan het gebied rond de openingen aanpak (Figuur 11B, Video 5). Dit gedrag is in overeenstemming met de gemeenschappelijke interpretatie van omissies die nauw verwant zijn aan een lage motivatie om de test3,16uit te voeren . Echter, op een subset van omissie proeven (ongeveer 20% van de huidige data set), de ratten toonde een duidelijke focus op de openingen (Figuur 11B, Video 6), maar niet aan de exacte locatie van de cued opening noteren. De gegevens geven dus aan dat er ten minste twee verschillende soorten omissies zijn, een met betrekking tot een mogelijke desinteresse in het lopende proces, en een andere die meer afhankelijk is van onvoldoende visuospatiale aandacht3. Head tracking kan ook worden gebruikt om schijnbare strategieën te onderscheiden. Als voorbeeld, twee verschillende aandachtsstrategieën werden onthuld bij het analyseren van hoe de ratten bewegen wanneer ze in de nabijheid van de neus poke openingen tijdens de 5CSRTT (Figuur 11C\u2012E). In de eerste strategie vertoonden ratten een uiterst gerichte aanpak, waarbij ze een centrale positie hadden in het grootste deel van de ITI(figuur 11C, Video 7). Daarentegen, ratten vaststelling van de andere strategie voortdurend verplaatst hun hoofd tussen de verschillende openingen in een zoek-achtige manier (Figuur 11D, Video 8). Dit soort gedragsverschillen kan gemakkelijk worden gekwantificeerd door de hoeveelheid tijd die wordt besteed in de nabijheid van de verschillende openingen te berekenen(figuur 11E). Ten slotte kan door te analyseren welke opening van de rat het dichtst bij op het moment van cue licht presentatie(Figuur 11F), kan worden aangetoond dat in een centrale positie (Figuur 11G) en / of in de nabijheid van de locatie van de cued opening (Figuur 11H) lijkt gunstig te zijn voor nauwkeurige prestaties op de test.

Figure 1
Figuur 1: Schets van de genoemde microcomputer. Het schema toont de positie van verschillende onderdelen van belang op het microcomputer moederbord. Deze zijn gemarkeerd met omcirkelde nummers als volgt: 1: Connector voor cameralintkabel; 2: LED-licht dat aangeeft wanneer de computer actief is; 3: Micro USB voor voedingskabel; 4: Micro USB voor muis/toetsenbord; 5: Input/output penns voor algemeen gebruik (GPIO-pinnen), deze pinnen worden gebruikt om de microcomputer aan te sluiten op LED's, schakelaars en de IR-LED-module; 6: Mini HDMI-uitgang; 7: Micro SD-kaartsleuf. In het onderste gedeelte van de figuur wordt een bijgesneden en vergroot deel van de GPIO-pinnen weergegeven om aan te geven hoe ze mee kunnen tellen om de positie van een specifieke pin correct te identificeren. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 2
Figuur 2: Het bouwen van de hoofdtekst van de camera. De cijfers illustreerden de belangrijkste stappen voor het bouwen van het lichaam van de camera. (A) Bevestig de magnetische metalen ring aan de camerastandaard. (B) Bevestig de cameramodule aan de camerastandaard. (C) Sluit de cameramodule via de platte lintkabel aan op de microcomputer. Let op de witte pijlen die aangeven hoe u de camerapoorten op zowel de microcomputer als de cameramodule openen en sluiten. (D) Plaats de microcomputer in de plastic behuizing en steek een micro-SD-kaart in. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 3
Figuur 3: Het besturingssysteem van de microcomputer bijwerken en de randapparatuur inschakelen. De figuur toont vier verschillende screenshots die de gebruikersinterface van de microcomputer weergeven. (A) Terminal ramen kunnen worden geopend door te klikken op de "terminal" pictogram in de linkerbovenhoek van het scherm. (B) Binnen de terminal kan men verschillende soorten opdrachten typen, zoals beschreven in de protocoltekst. De schermafbeelding geeft de opdracht weer voor het bijwerken van de softwarepakketten van het systeem. (C) De screenshot geeft weer hoe te navigeren naar de configuraties menu, waar men kan het gebruik van de camera module en de I2C GPIO pinnen mogelijk te maken. (D) De screenshot toont de /home/pi-map, waar het camerascript in stap 1.10 van het protocol moet worden gekopieerd. Het venster wordt geopend door op het aangegeven pictogram in de linkerbovenhoek van het scherm te klikken. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 4
Figuur 4: Het rc.local-bestand van de microcomputer configureren. De figuur toont twee screenshots van het rc.local-bestand van de microcomputer, wanneer deze wordt geopend via de terminal zoals beschreven in stap 1.11.1. (A) Een screenshot van de rc.local bestand in zijn oorspronkelijke formaat. De pijl geeft de ruimte aan waar tekst moet worden ingevoerd om de functie voor automatisch starten van de camera in te schakelen. (B) Een screenshot van de rc.local bestand nadat het is bewerkt om de IR LED's schijnen en start de python script het regelen van de camera bij het opstarten van de microcomputer. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 5
Figuur 5: Het aansluiten van schakelaars en LED's op de GPIO-pinnen van microcomputers. (A) Schematisch met een knop schakelaar met vrouwelijke jumper kabels (boven) en een LED met weerstand en vrouwelijke jumper kabels (onderkant). (1) Knopschakelaar, (2) vrouwelijke jumperkabels, (3) LED, (4) weerstand. (B) Schematische afbeelding laten zien hoe de twee knop schakelaars, de gekleurde LED's en de IR LED-bord zijn aangesloten op de GPIO pinnen van de microcomputer. Blauwe kabels en GPIO-pinnen geven grond aan. De positie van twee GPIO-pinnen wordt aangegeven in de figuur (GPIO-pinnen #2 en #40): (1) Knop voor het starten/stoppen van video-opname. (2) LED die aangeeft wanneer video wordt opgenomen. (3) Knop voor het uitschakelen van de camera. (4) LED die aangeeft wanneer de camera is opgestart en klaar is voor gebruik. (5) IR LED-module. Houd er rekening mee dat circuits met LED's ook 330 Ω weerstanden bevatten. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 6
Figuur 6: DeepLabCut-tracking van de protocolstapindicator gebruiken om sequenties van interesse in full-length video's te identificeren. (A) Schematisch van de stappen van een enkele proef in de 5-keuze seriële reactietijd test (5CSRTT): (1) Ten eerste is er een korte wachttijd (ITI). Pijl geeft een actief glanzend huislicht aan. (2) Aan het einde van de ITI, zal een licht schijnen in een van de vijf neus poke openingen (pijl). (3) Als een rat nauwkeurig reageert door het uitvoeren van een neus porren in de cued opening, een beloning wordt geleverd (pijl). (4) De rat mag de beloning terughalen. (5) Om het gebruik van het huislicht als protocolstapindicator mogelijk te maken, wordt een korte pauzestap uitgevoerd waarbij het huislicht wordt uitgeschakeld (pijl) voordat de volgende proef begint. Merk op dat het huis licht schijnt tijdens de volgende stappen van de proef. (B) Een voorbeeldgrafiek met de x-coördinaat van het actieve huislicht, zoals bijgehouden door DeepLabCut, tijdens een videosegment van een 5CSRTT-test. Tijdens segmenten waar het huislicht schijnt (indicator actief - 1), wordt de positie bijgehouden tot een consistent en stabiel punt (let ook op de rode markering (aangegeven door pijl) in het voorbeeldvideoframe), vergelijkbaar met die van de positie van het huislicht in figuur 8C (x, y: 163, 503). Tijdens segmenten waar het huislicht niet schijnt (indicator inactief - 2, let op de witte pijl in het voorbeeldvideoframe), is de bijgehouden positie niet stabiel en ver weg van de werkelijke coördinaat van het huislicht. (C) Tabel 1 toont een voorbeeld van verwerkte output verkregen uit DeepLabCut tracking van een protocol stap indicator. In deze uitvoer is het startpunt voor elke gelegenheid waarin de indicator actief is, vermeld. Tabel 2 toont een voorbeeld van gegevens verkregen uit het operntconditioneringssysteem, met relevante details voor individuele proeven. In dit voorbeeld zijn de duur van de ITI, de positie van de cued-opening en latencies om een antwoord uit te voeren en de beloning op te halen, vastgelegd. Tabel 3 toont een voorbeeld van gegevens die zijn verkregen door trackingresultaten van DeepLabCut samen te voegen en gegevens die zijn opgenomen uit het opperconditioneringssysteem. Hierdoor zijn de videoframes voor het startpunt van de ITI (stap 1 in A), het startpunt van de cue light presentatie (stap 2 in A), de respons (stap 3 in A) en ophalen (stap 4 in A) voor een voorbeeld proef verkregen. (D) Een voorbeeld grafiek die de x-coördinaat van het huis licht, zoals bijgehouden door DeepLabCut, tijdens een gefilmde 5CSRTT trial. De verschillende stappen van het protocol worden aangegeven: (1) ITI; (2) presentatie van een keetje (positie aangegeven met witte pijl); 3. antwoord; (4) beloning ophalen. De identificatie van videoframes die de start en stop van deze verschillende protocolstappen weergeven, werd gedaan door middel van een proces dat vergelijkbaar is met dat in D. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 7
Figuur 7: Beeldkenmerken van de camera. (A) Niet-bijgevolkt beeld verkregen van een camera geplaatst op de top van een operant conditionering kamer. Het beeld werd vastgelegd terwijl de kamer werd geplaatst in een fel verlichte kamer. Let op de (1) huis licht en (2) beloning pellet trog langs de linker muur van de kamer en (3) de rij van vijf neus porren openingen langs de rechter muur van de kamer. Elke neus poke opening bevat een kleine cue licht. (B) Niet-bijgevolkt beeld met de sterke reflectie veroorzaakt door (1) de metalen dropping pan, evenals reflecties veroorzaakt door suboptimale positionering van de camera (2) indicator LED's en (3) IR LED-module. (C) Bijgesneden beeld van de kamer in volledige duisternis. Merk op dat de lichten van de IR-balk breuk detectoren in de vijf neus poke openingen langs de rechter muur van de kamer zijn duidelijk zichtbaar (pijl). (D) Bijgesneden beeld van de kamer wanneer fel verlicht. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 8
Figuur 8: Positionele tracking van protocol stap indicator en lichaamsdelen van belang. (A) De foto toont de positie van een protocol stap indicator (rood) evenals de kop (geel) en staart (groen) van een rat, zoals bijgehouden door DeepLabCut. Zoals aangegeven door het bijhouden van het verlichte huislicht, wordt het videoframe genomen uit een momentopname van een actieve proef. (B) De foto toont de positie van het hoofd (geel) en staart (groen) zoals bijgehouden door DeepLabCut tijdens een moment dat een proef niet actief is. Let op het gebrek aan huis licht tracking. c) de posities van de bezienswaardigheden die worden gebruikt bij de analyse van de in figuur 6 en figuur 11vermelde gegevens ; (1) Huislicht, in dit geval gebruikt als protocol stap indicator, (2\u20126) Neus poke openingen #1\u20125. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 9
Figuur 9: Beeldvervorming van fisheye lens. (A) Afbeelding van een checker-board patroon met even grote en gesprede zwart-wit vierkanten genomen met de camera beschreven in dit protocol. Beeld werd genomen op een hoogte vergelijkbaar met die gebruikt bij het opnemen van video's van operant conditionering kamers. Zwarte vierkanten langs de centrale horizontale en verticale lijnen zijn gemarkeerd met DeepLabCut. (B) Grafiek die aangeeft hoe de afstand van de gemarkeerde vierkanten in (A) verandert met de nabijheid van het afbeeldingscentrum. (C) Beeld weergave metingen genomen om de impact van fisheye vervorming effect op video's verzameld uit operant kamers te evalueren. De hoeken en middelpunten langs de rand van het vloeroppervlak, de centrale positie van elke individuele vloerbedekking en de positie van de vijf neus poke openingen zijn aangegeven met DeepLabCut (gekleurde stippen); (1) afstand van vloerloop, (2) breedte van de kamervloer langs het midden van de kamer, (3) afstand van neusprikopeningen. (D) Afstand van vloerloop (gemiddeld voor elke set van drie opeenvolgende sporten), genummerd van links naar rechts in (C). Er is een klein effect van de fisheye vervorming, wat resulteert in de centrale sporten worden verdeeld ongeveer 3 pixels (8%) verder uit elkaar dan sporten die aan de randen van de kamervloer zijn geplaatst. (E) Breedte van de kamervloer in (C) gemeten aan de linker- en rechterranden, evenals het middelpunt. Er is een klein effect van de fisheye vervorming, wat resulteert in de breedte gemeten op het middelpunt wordt ongeveer 29 pixels (5%) langer dan de andere metingen. (F) Afstand van neus poke openingen in (C), genummerd vanaf de bovenkant van het beeld. Er is een klein effect van de fisheye-vervorming, waardoor de afstand tussen de centrale drie openingen (H2, H3, H5) ongeveer 5 pixels (4%) bedraagt. breder dan de afstand tussen H1-H2 en H4-H5. Voor D-F werden gegevens verzameld van vier video's en grafieken tonen groepsge mean + standaardfout. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 10
Figuur 10: Nauwkeurigheid van DeepLabCut-tracking bekijken. (A) Een tabel met opleidingsinformatie voor twee neurale netwerken die zijn opgeleid om ratten in operantkamers op te sporen. Netwerk #1 een kleinere trainingsgegevensset gebruikt, maar een groot aantal trainingsal iteraties in vergelijking met netwerk #2. Beide netwerken behaalden een lage foutscore van de evaluatiefunctie van DeepLabCut (DLC-testfout) en vertoonden tegen het einde van de training een laag trainingsverlies. Ondanks dit, Network #1 toonde zeer slechte tracking nauwkeurigheid bij handmatige evaluatie van gemarkeerde videoframes (gemeten nauwkeurigheid, geschat op 150 videoframes die een video segment vergelijkbaar met die in Video 2 en Video 3). Netwerk #2 vertegenwoordigt de verbeterde versie van Network #1, nadat het extra videoframes heeft opgenomen van actief bewegende ratten naar de trainingsgegevensset, zoals beschreven in (E). (B) Afbeelding van een rat opfok en die het huis licht van de kamer (Figuur 7A) met zijn hoofd, het verstoren van het bijhouden van het. (C) Videoframe vastleggen van een reactie gemaakt tijdens een 5CSRTT trial (Figuur 6A: 3). Het bewegingspad van het hoofd tijdens de respons en voorafgaand aan ITI is in het geel op de afbeelding geplaatst. De tracking wordt beschouwd als nauwkeurig. Let op de vloeiende tracking tijdens bewegingen (witte pijl). Een bijbehorende video is beschikbaar als Video 2. Netwerk #2 (zie A) werd gebruikt voor het bijhouden. (D) Videoframe vastleggen van een reactie gemaakt tijdens een 5CSRTT trial (Figuur 6A: 3). Het bewegingspad van het hoofd tijdens de respons en voorafgaand aan ITI is in het geel op de afbeelding geplaatst. Gegevens hebben betrekking op dezelfde proef als in (C), maar geanalyseerd met Netwerk #1 (zie A). De tracking wordt beschouwd als onjuist. Let op de gekartelde verschijning van het pad met meerdere rechte lijnen (witte pijlen), veroorzaakt door af en toe het bijhouden van het hoofd naar verre onjuiste posities (zwarte pijlen). Een bijbehorende video is beschikbaar als Video 3. (E) Grafiek met de dynamische veranderingen in de bewegingssnelheid van de koptracking in (C) en (D). Herkenbaar in de grafiek zijn drie belangrijke bewegingen gezien in Video 2 en 3, waar de rat voor het eerst draait om de neus poke openingen gezicht (initiële beurt), maakt een kleine aanpassing aan verdere aanpak van hen (aanpassing), en ten slotte voert een reactie. Het snelheidsprofiel voor de goede tracking verkregen door Network #2 (A) toont vloeiende bochten van veranderingen in bewegingssnelheid (blauwe pijlen), wat wijst op een nauwkeurige tracking. Het snelheidsprofiel voor de slechte tracking verkregen door Network #1 (A) toont meerdere plotselinge pieken in bewegingssnelheid (rode pijlen) indicatief voor incidentele tracking fouten in enkele videoframes. Het is vermeldenswaard dat deze tracking problemen specifiek optreden tijdens bewegingen. Om dit recht te zetten, werd de initiële trainingsset die wordt gebruikt om Network #1 te trainen uitgebreid met een grote hoeveelheid videoframes die actief bewegende ratten afbeelden. Dit werd vervolgens gebruikt om Network #2 te trainen, waardoor dit trackingprobleem efficiënt werd verwijderd. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 11
Figuur 11: Gebruik van positionele tracking via DeepLabCut als aanvulling op de gedragsanalyse van operant conditioning tests. (A) Een hoogste mening van de binnenkant van een operant conditioneringskamer. Drie delen van de kamer zijn aangegeven. Het gebied dicht bij de beloning pellet trog (Pellet), de centrale kamer gebied (Centrum) en het gebied rond de neus poke openingen (Openingen). (B) Een grafiek die de relatieve hoeveelheid tijd afgeeft die ratten doorbrengen in de drie verschillende gebieden van de operantkamer die in (A) zijn beschreven tijdens de ITI-stap van de 5CSRTT. Merk op dat op proeven met een reactie, ratten in eerste instantie de neiging om dicht bij de pellet trog (zwart) en kamercentrum (grijs), maar als de ITI vordert, verschuiven ze naar positionering zich rond de neus porren openingen (wit). In tegenstelling, op typische omissie proeven, ratten blijven gepositioneerd rond de pellet trog en kamer centrum. Op een subset van omissieproeven (ongeveer 20%) ratten duidelijk verschuiven hun focus naar de neus poke openingen, maar nog steeds niet om een reactie uit te voeren wanneer gevraagd. Twee-weg ANOVA analyse van de tijd doorbrengen rond de neus poke openingen met behulp van trial type als tussen-onderwerp factor en tijd als binnen-onderwerp factor onthullen significante tijd (p < 0.001, F(4,8) = 35.13), trial type (p < 0.01, F(2,4) = 57.33) and time x trial type interaction (p < 0.001, F(8,16) = 15.3) effects. Data gathered from four animals performing 100 trials each. Graph displays mean + standard error. (C) Heat map met alle hoofdposities bijgehouden in de nabijheid van de neus poke openingen, door een specifieke rat tijdens 50 ITI's van een 5CSRTT testsessie. Merk op dat de rat heeft een sterke neiging om zijn hoofd te houden op een plek dicht bij de centrale neus porren opening. (D) Heat map met alle hoofdposities bijgehouden in de nabijheid van de neus poke openingen, door een specifieke rat tijdens 50 ITI's van een 5-CSRTT testsessie. Houd er rekening mee dat de rat geen duidelijke voorkeur heeft voor een specifieke opening. (E) Grafiek met de relatieve hoeveelheid tijd die de twee ratten weergegeven in (C) en (D) besteden het dichtst bij de verschillende neus poke openingen tijdens 50 ITI's van de 5CSRTT. De rat die een gerichte strategie (C) (zwart) toont een sterke voorkeur voor het dichtst bij de centrale opening, terwijl de rat met een zoek-achtige strategie (D) (wit) toont geen voorkeur voor een bepaalde opening. De grafiek toont de gemiddelde + standaardfout. (F) Een afbeelding van een rat op het moment van cue presentatie op een 5CSRTT trial (Figuur 6A). Merk op dat de rat zijn hoofd het dichtst bij de centrale opening (witte pijl) heeft geplaatst, omdat het twee openingen verwijderd is van de cued-opening (zwarte pijl). (G) Een grafiek met de nauwkeurigheid van de prestaties op de 5CSRTT (d.w.z. de frequentie van het uitvoeren van correcte reacties) in relatie tot de vraag of het hoofd van de ratten het dichtst bij de centrale opening of een van de andere openingen was op het moment van de cue-presentatie (Figuur 6A2). Gegevens verzameld van vier dieren die elk ongeveer 70 reacties uitvoeren. Grafiek geeft groepsge mean + standaardfout weer (overeenkomende t-test: p < 0.05). (H) Een grafiek met de nauwkeurigheid van de prestaties op de 5CSRTT in verhouding tot de afstand tussen de positie van de cued opening en de positie van het hoofd van een rat, op het punt van signaalpresentatie. De afstand heeft betrekking op het aantal openingen tussen de hoofdpositie van de ratten en de positie van de gesignaleerde opening. Gegevens verzameld van vier dieren die elk ongeveer 70 reacties uitvoeren. Grafiekdisplays gemiddelde + standaardfout (gematched one-way ANOVA: p < 0.01). For the presented analysis, Network #2 described in Figuur 10A werd gebruikt. De volledige geanalyseerde gegevensset bevatte ongeveer 160.000 videoframes en 400 proefversies. Hiervan werd 2,5% van de videoframes uitgesloten omdat de geconstateerde bewegingssnelheid van het dier boven de 3.000 pixels/s ligt, wat wijst op foutieve tracking (Figuur 10E). Volledige proeven werden niet uitgesloten. Klik hier om een grotere versie van dit cijfer te bekijken.

Video 1: Representatieve tracking prestaties van goed getraind neuraal netwerk. De video toont een montage van een rat die 45 proeven uitvoert met de juiste reacties tijdens een 5CSRTT-testsessie (zie figuur 6A voor protocoldetails). Tracking van het huislicht (rode markering), staartbasis (groene markering) en hoofd (blauwe markering) worden aangegeven in de video. De opleiding van het netwerk (Network #2 in figuur 10A) benadrukte nauwkeurigheid voor bewegingen gemaakt langs de kamervloer in de nabijheid van de neus poke openingen (rechter muur, figuur 7A). Tracking van deze segmenten toont gemiddeld >90% nauwkeurigheid. Het bijhouden van episodes van opfoken en verzorgen is onjuist, omdat de trainingsset geen frames van dit gedrag heeft opgenomen. Houd er rekening mee dat de video is gecomprimeerd om de bestandsgrootte te verkleinen en niet vertegenwoordigd is van de videokwaliteit die met de camera is verkregen. Klik hier om deze video te downloaden.

Video 2: Voorbeeld van nauwkeurig bijgehouden dier. De video toont een goed bijgehouden proef van een rat het uitvoeren van een juiste reactie tijdens de 5CSRTT. Tracking van het huislicht (rode markering), staartbasis (groene markering) en hoofd (blauwe markering) worden aangegeven in de video. Neurale netwerk #2 beschreven in figuur 10A werd gebruikt voor het bijhouden. Merk op hoe de markeringen de bewegingen van het dier nauwkeurig volgen. Ook verwijzen naar figuur 10C, E voor de uitgezet pad en bewegingssnelheid voor het hoofd bijhouden in deze videoclip. Klik hier om deze video te downloaden.

Video 3: Voorbeeld van slecht bijgehouden dier. De video toont een enkele slecht bijgehouden proef van een rat het uitvoeren van een juiste reactie tijdens de 5CSRTT. Tracking van het huislicht (rode markering), staartbasis (groene markering) en hoofd (blauwe markering) worden aangegeven in de video. Neurale netwerk #1 beschreven in figuur 10A werd gebruikt voor het bijhouden. De videoclip is hetzelfde als die in Video 2. Merk op dat de marker voor het hoofd niet betrouwbaar is geplaatst op de top van het hoofd van de rat. Ook verwijzen naar figuur 10D, E voor de uitgezet pad en bewegingssnelheid voor het hoofd bijhouden in deze videoclip. Klik hier om deze video te downloaden.

Video 4: Voorbeeld van bewegingen gemaakt tijdens een 5CSRTT trial met een reactie. De video toont een goed bijgehouden proef van een rat het uitvoeren van een juiste reactie tijdens de 5-CSRTT. Tracking van het huislicht (rode markering), staartbasis (groene markering) en hoofd (blauwe markering) worden aangegeven in de video. Merk op hoe de rat in eerste instantie is gepositioneerd in duidelijke nabijheid van de pellet recipiënt (linker muur, figuur 7A)en vervolgens beweegt over om zijn aandacht te richten op de rij van de neus poke openingen. Klik hier om deze video te downloaden.

Video 5: Voorbeeld van een typische omissie trial tijdens de 5CSRTT. De video toont een goed bijgehouden proef van een rat het uitvoeren van een typische omissie tijdens de 5CSRTT. Tracking van het huislicht (rode markering), staartbasis (groene markering) en hoofd (blauwe markering) worden aangegeven in de video. Merk op hoe de rat zijn positie rond de pelletrecipiënt (linkerwand, figuur 7A)en het kamercentrum behoudt, in plaats van zich om te draaien om de neusschurenopeningen onder ogen te zien (rechterwand, figuur 7A). Het weergegeven gedrag en de oorzaak van de omissie kan worden aangevoerd om een lage interesse in het uitvoeren van de test weer te geven. Klik hier om deze video te downloaden.

Video 6: Voorbeeld van een atypische omissie proef tijdens de 5CSRTT. De video toont een goed bijgehouden proef van een rat het uitvoeren van een atypische omissie tijdens de 5CSRTT. Tracking van het huislicht (rode markering), staartbasis (groene markering) en hoofd (blauwe markering) worden aangegeven in de video. Merk op hoe de rat zich positioneert naar de neus steken openingen langs de rechterwand van de kamer(Figuur 7A). Dit kan worden aangevoerd om aan te geven dat het dier geïnteresseerd is in het uitvoeren van de test. Echter, de rat gezichten uit de buurt van de cued opening (centrale positie) wanneer de cue wordt gepresenteerd (5 s in de clip). In tegenstelling tot de omissie weergegeven in Video 4, de hier gezien is waarschijnlijk gerelateerd aan sub-optimale visuospatial aandacht processen. Klik hier om deze video te downloaden.

Video 7: Voorbeeld van een dier dat een gerichte centrale positie behoudt tijdens een ITI van de 5CSRTT. De video toont een goed bijgehouden proef van een rat het uitvoeren van een juiste reactie op een proef van de 5CSRTT. Merk op hoe de rat een centrale positie behoudt tijdens de ITI, waarbij het hoofd stabiel blijft in de nabijheid van de centrale neusprikopening langs de kamers rechtermuur(figuur 7A). Tracking van het huislicht (rode markering), staartbasis (groene markering) en hoofd (blauwe markering) worden aangegeven in de video. Klik hier om deze video te downloaden.

Video 8: Voorbeeld van een dier dat een zoek-achtige aandachtsstrategie toont tijdens een ITI van de 5CSRTT. De video toont een goed bijgehouden proef van een rat het uitvoeren van een juiste reactie op een proef van de 5CSRTT. Merk op hoe de rat vaak zijn hoofd verplaatst naar verschillende neus poke openingen langs de rechterwand van de kamer(Figuur 7A). Tracking van het huislicht (rode markering), staartbasis (groene markering) en hoofd (blauwe markering) worden aangegeven in de video. Klik hier om deze video te downloaden.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Dit protocol beschrijft hoe u een goedkope en flexibele videocamera bouwen die kan worden gebruikt om video's op te nemen van operant conditioningkamers en andere gedragstestopstellingen. Het laat verder zien hoe deeplabcut te gebruiken om een sterk lichtsignaal in deze video's te volgen, en hoe dat kan worden gebruikt om te helpen bij het identificeren van korte videosegmenten van belang in videobestanden die volledige testsessies dekken. Ten slotte beschrijft het hoe het bijhouden van het hoofd van een rat te gebruiken om de analyse van gedrag tijdens operant conditioneringstests aan te vullen.

Het protocol biedt een alternatief voor commercieel beschikbare video-opname oplossingen voor operant conditionering kamers. Zoals opgemerkt, het grote voordeel hiervan is dat ze integreren met de operant kamers, waardoor video-opnamen van specifieke gebeurtenissen. De benadering van het identificeren van videosegmenten van belang beschreven in dit protocol is meer omslachtig en tijdrovend in vergelijking met het gebruik van een volledig geïntegreerd systeem om specifieke gebeurtenissen op te nemen. Het is echter aanzienlijk goedkoper (een recente kostenraming voor video monitoring apparatuur voor 6 operant kamers werd ingesteld op ongeveer 13.000 USD. Ter vergelijking, de bouw van zes van de hier genoemde camera's zou ongeveer 720 USD kosten). Daarnaast kunnen de camera's worden gebruikt voor meerdere andere gedragstestopstellingen. Bij het werken met de camera is het belangrijk om rekening te houden met de gebieden van blootgestelde elektronica (de achterkant van de cameracomponent en de IR LED-component), zodat ze niet in contact komen met vloeistoffen. Bovendien kan de lintkabel die de cameramodule aan de microcomputer bevestigt en kabels die de LED's en schakelaars aansluiten op de GPIO-pinnen loskomen als de camera vaak wordt verplaatst. Zo kan het aanpassen van het ontwerp van de camera behuizing gunstig zijn voor sommige toepassingen.

Het gebruik van DeepLabCut om videosegmenten van belang te identificeren en bewegingen van dieren te volgen, biedt een aanvulling en/of alternatief voor handmatige video-analyse. Hoewel de eerste niet ongeldig de laatste, hebben we geconstateerd dat het een handige manier van het analyseren van bewegingen en gedrag in operant kamers biedt. Het verstrekt met name positionele gegevens van het dier, die meer gedetailleerde informatie bevatten dan wat gewoonlijk wordt gewonnen via handmatige scores (d.w.z. werkelijke coördinaten in vergelijking met kwalitatieve positionele informatie zoals "voor", "naast" enz.).

Bij het selecteren van een protocol stap indicator, is het belangrijk om er een te kiezen die consequent een bepaalde stap van het gedragsprotocol aangeeft, en dat is waarschijnlijk niet te worden geblokkeerd door het dier. Als de laatste problematisch is, kan men overwegen het plaatsen van een lamp buiten de operant kamer en film het door de kamer muren. Veel opertende conditioneringskamers zijn modulair en stellen gebruikers in staat om vrij te bewegen lichten, sensoren en andere componenten rond. Opgemerkt moet worden dat er andere softwarepakketten zijn waarmee gebruikers ook neurale netwerken kunnen trainen bij het herkennen en bijhouden van door de gebruiker gedefinieerde objecten in video's24,25,26. Deze kunnen waarschijnlijk worden gebruikt als alternatieven voor DeepLabCut in het huidige protocol.

Het protocol beschrijft hoe het centrale deel van het hoofd van een ratten te volgen om bewegingen te meten in de operant kamers. Omdat DeepLabCut volledige vrijheid biedt bij het selecteren van lichaamsdelen of objecten van belang, kan dit met gemak worden aangepast aan studiespecifieke interesses. Een natuurlijke uitbreiding van het volgen hierin beschreven is om ook de positie van de oren en neus van de ratten te volgen, om niet alleen hoofdpositie maar ook richtlijn beter te beoordelen. De representatieve gegevens hier getoond werd opnieuw gecodeerd met Long Evans ratten. Deze ratten vertonen een aanzienlijke inter-individuele variatie in hun pigmentatiepatroon, met name naar hun staartbasis. Dit kan resulteren in een aantal problemen met het toepassen van een enkele getrainde neurale netwerk voor het bijhouden van verschillende individuen. Om deze problemen te beperken, is het het beste om videoframes van alle dieren van belang in de trainingsset voor het netwerk op te nemen. De zwarte kop van de Long Evans rat zorgt voor een redelijk sterk contrast met de metalen oppervlakken van de hier gebruikte kamer. Dus, het verkrijgen van nauwkeurige tracking van hun hoofden waarschijnlijk vereist minder inspanning dan met albino stammen. De meest kritieke stap van het verkrijgen van nauwkeurige tracking met DeepLabCut of vergelijkbare softwarepakketten is het selecteren van een groot aantal diverse videoframes voor de training van het neurale netwerk. Als het bijhouden van een interessant object als suboptimaal wordt beschouwd, moet het verhogen van de set trainingsframes altijd de eerste stap zijn om de resultaten te verbeteren.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Hoewel materialen en middelen van de stichting Raspberry Pi in dit manuscript zijn gebruikt en aangehaald, was de stichting niet actief betrokken bij de voorbereiding of het gebruik van apparatuur en gegevens in dit manuscript. Hetzelfde geldt voor Pi-Supply. De auteurs hebben niets te onthullen.

Acknowledgments

Dit werk werd ondersteund door subsidies van de Swedish Brain Foundation, de Zweedse Parkinson Foundation, en de Zweedse regering Fondsen voor Klinisch Onderzoek (M.A.C.), evenals de Wenner-Gren stichtingen (M.A.C, E.K.H.C), Åhlén foundation (M.A.C) en de stichting Blanceflor Bongnim ludmoovisi, n Bildéet (S.F).

Materials

Name Company Catalog Number Comments
32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

DOWNLOAD MATERIALS LIST

References

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user's manual. Coulbourn instruments. , Holliston, Massachusetts. 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer's manual. Med Associates Inc. , St. Albans, Vermont. 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat's behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user's manual. Med Associates Inc. , St. Albans, Vermont. 26-30 (2004).
  14. Coulbourn Instruments. Coulbourn Instruments. , Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020).
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. Raspberry Pi foundation. Raspberry Pi foundation. , Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020).
  19. Pi-supply. Pi-supply. , Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018).
  20. Python. Python. , Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020).
  21. MathWorks. MathWorks. , Available from: https://mathworks.com/academia/highschool/ (2020).
  22. Cran.R-Project.org. Cran.R-Project.org. , Available from: https://cran.r-project.org/manuals.html (2020).
  23. Liu, Y., Tian, C., Huang, Y. Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Tags

Gedrag Operant conditionering cognitie video-opname knaagdier gedrag Raspberry Pi DeepLabCut
Het bijhouden van ratten in Operant Conditioning Kamers met behulp van een veelzijdige zelfgemaakte videocamera en DeepLabCut
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Clemensson, E. K. H., Abbaszadeh,More

Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter