Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Tracking Rats i Operant Conditioning Chambers med hjälp av en mångsidig hemlagad videokamera och DeepLabCut

Published: June 15, 2020 doi: 10.3791/61409

Summary

Detta protokoll beskriver hur man bygger en liten och mångsidig videokamera, och hur man använder videor som erhållits från den för att träna ett neuralt nätverk för att spåra positionen för ett djur inuti operant konditionering kammare. Detta är ett värdefullt komplement till standardanalyser av dataloggar som erhållits från operant konditioneringstester.

Abstract

Operant konditioneringskammare används för att utföra ett brett spektrum av beteendetester inom neurovetenskap. De inspelade uppgifterna baseras vanligtvis på utlösning av spak- och nossäcksensorer som finns inne i kamrarna. Även om detta ger en detaljerad bild av när och hur djur utför vissa svar, kan den inte användas för att utvärdera beteenden som inte utlöser några sensorer. Som sådan är det sällan möjligt att bedöma hur djur positionerar sig och rör sig inne i kammaren. För att få denna information måste forskare i allmänhet spela in och analysera videor. Tillverkare av operant konditioneringskammare kan vanligtvis förse sina kunder med högkvalitativa kamerainställningar. Dessa kan dock vara mycket kostsamma och passar inte nödvändigtvis kammare från andra tillverkare eller andra beteendemässiga testinställningar. Det nuvarande protokollet beskriver hur man bygger en billig och mångsidig videokamera med hjälp av hobbyelektronikkomponenter. Den beskriver vidare hur man använder bildanalysprogramvarapaketet DeepLabCut för att spåra status för en stark ljussignal, liksom positionen för en råtta, i videor som samlats in från en operant konditioneringskammare. Den förra är ett bra stöd vid val av korta segment av intresse för videor som täcker hela testsessioner, och den senare möjliggör analys av parametrar som inte kan erhållas från de dataloggar som produceras av operant kamrarna.

Introduction

Inom beteendeneurovetenskap använder forskare ofta operant konditioneringskammare för att bedöma ett brett spektrum av olika kognitiva och psykiatriska egenskaper hos gnagare. Även om det finns flera olika tillverkare av sådana system, de vanligtvis delar vissa attribut och har en nästan standardiserad design1,2,3. Kamrarna är i allmänhet kvadratiska- eller rektangelformade, med en vägg som kan öppnas för att placera djur inuti, och en eller två av de återstående väggarna som innehåller komponenter som spakar, näsa-poke öppningar, belöning brickor, svar hjul och lampor av olika slag1,2,3. De lampor och sensorer som finns i kamrarna används både för att styra testprotokollet och spåra djurens beteenden1,,2,,3,,4,5. De typiska operantkonditioneringssystemen möjliggör en mycket detaljerad analys av hur djuren interagerar med de olika operanda och öppningar som finns i kamrarna. I allmänhet kan alla tillfällen där sensorer utlöses registreras av systemet, och från dessa data användare kan få detaljerade loggfiler som beskriver vad djuret gjorde under specifika steg i testet4,5. Även om detta ger en omfattande representation av ett djurs prestanda, kan det bara användas för att beskriva beteenden som direkt utlöser en eller flera sensorer4,5. Som sådan beskrivs inte aspekter relaterade till hur djuret positionerar sig och rör sig inne i kammaren under olika faser av testet inte väl beskrivna6,,7,,8,9,10. Detta är olyckligt, eftersom sådan information kan vara värdefull för att fullt ut förstå djurets beteende. Det kan till exempel användas för att klargöra varför vissa djur presterar dåligt på ett visst test6, för att beskriva de strategier som djur kan utveckla för att hantera svåra uppgifter6,7,8,9,10, eller för att uppskatta den verkliga komplexiteten i förment enkla beteenden11,12. För att få sådan artikulera information, forskare vänder sig ofta till manuell analys av videor6,7,8,9,10,11.

När du spelar in videor från operant konditioneringskammare är valet av kamera avgörande. Kamrarna är ofta belägna i isoleringsbås, med protokoll som ofta använder sig av steg där inget synligt ljus lyser3,,6,,7,,8,9. Därför är det nödvändigt att använda infraröd (IR) belysning i kombination med en IR-känslig kamera, eftersom den ger synlighet även i fullständigt mörker. Vidare är det utrymme som finns tillgängligt för att placera en kamera inuti isoleringsbåset ofta mycket begränsat, vilket innebär att man drar starkt nytta av att ha små kameror som använder linser med ett brett synfält (t.ex. fish-eye linser)9. Medan tillverkare av operant konditioneringssystem ofta kan leverera högkvalitativa kamerainställningar till sina kunder, kan dessa system vara dyra och inte nödvändigtvis passar kamrar från andra tillverkare eller inställningar för andra beteendetester. En anmärkningsvärd fördel med att använda fristående videokameror är dock att dessa inställningar ofta kan samverka direkt med operant konditioneringssystemen13,14. Genom detta kan de ställas in för att endast registrera specifika händelser snarare än fullständiga testsessioner, vilket i hög grad kan underlätta i den analys som följer.

Det nuvarande protokollet beskriver hur man bygger en billig och mångsidig videokamera med hjälp av hobbyelektronikkomponenter. Kameran använder en fisheye lins, är känslig för IR-belysning och har en uppsättning IR lysdioder (IR lysdioder) fäst vid den. Dessutom är den byggd för att ha en platt och smal profil. Tillsammans gör dessa aspekter den idealisk för att spela in videor från de flesta kommersiellt tillgängliga operant konditioneringskammare samt andra beteendetestinställningar. Protokollet beskriver vidare hur man bearbetar videor som erhållits med kameran och hur man använder mjukvarupaketet DeepLabCut15,16 för att hjälpa till att extrahera videosekvenser av intresse samt spåra ett djurs rörelser däri. Detta kringgår delvis dragningen av att använda en fristående kamera över de integrerade lösningar som tillhandahålls av operant tillverkare av konditioneringssystem, och erbjuder ett komplement till manuell bedömning av beteenden.

Ansträngningar har gjorts för att skriva protokollet i ett allmänt format för att belysa att den övergripande processen kan anpassas till videor från olika operant konditionering tester. För att illustrera vissa nyckelbegrepp används videor av råttor som utför 5-vals seriell reaktionstidstest (5CSRTT)17 som exempel.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alla förfaranden som omfattar djurhantering har godkänts av Malmö-Lunds etiska kommitté för djurforskning.

1. Bygga videokameran

OBS: En lista över de komponenter som behövs för att bygga kameran finns i tabellen över material. Se även figur 1, figur 2, figur 3, figur 4, figur 5.

  1. Fäst magnetmetallringen (som medföljer fisheye-linspaketet) runt kameraställets öppning (bild 2A). Detta gör att fisheye objektivet som ska placeras framför kameran.
  2. Fäst kameramodulen på kamerastället (bild 2B). Detta kommer att ge viss stabilitet till kameramodulen och erbjuda ett visst skydd till de elektroniska kretsarna.
  3. Öppna kameraportarna på kameramodulen och mikrodatorn(bild 1)genom att försiktigt dra i kanterna på sina plastklämmor (bild 2C).
  4. Placera bandkabeln i kameraportarna så att de silverkontakterna är vända mot kretskorten (Bild2C). Lås kabeln på plats genom att trycka in plastklämmorna på kameraportarna.
  5. Placera mikrodatorn i plasthöljet och sätt i det angivna mikro-SD-kortet (bild 2D).
    Micro SD-kortet fungerar som mikrodatorns hårddisk och innehåller ett komplett operativsystem. Det listade micro SD-kortet levereras med en installationschef förinstallerad på den (New Out Of Box Software (NOOBS). Som ett alternativ kan man skriva en bild av den senaste versionen av mikrodatorns operativsystem (Raspbian eller Rasberry Pi OS) till ett generiskt mikro-SD-kort. För stöd till detta, se officiella webbresurser18. Det är bättre att använda en klass 10 micro SD-kort med 32 Gb lagringsutrymme. Större SD-kort kanske inte är helt kompatibla med den angivna mikrodatorn.
  6. Anslut en bildskärm, ett tangentbord och en mus till mikrodatorn och anslut sedan strömförsörjningen.
  7. Följ stegen enligt installationsguiden för att utföra en fullständig installation av mikrodatorns operativsystem (Raspbian eller Rasberry Pi OS). När mikrodatorn har startat, se till att den är ansluten till internet antingen via en Ethernet-kabel eller Wi-Fi.
  8. Följ stegen nedan för att uppdatera mikrodatorns förinstallerade programvarupaket.
    1. Öppna ett terminalfönster (bild 3A).
    2. Skriv "sudo apt-get update" (exklusive citattecken) och tryck på Enter(bild 3B). Vänta tills processen är klar.
    3. Skriv "sudo apt full-upgrade" (exklusive citattecken) och tryck enter. Gör knappsvar när du uppmanas och vänta tills processen är klar.
  9. Under Start-menyn väljer du Inställningar och Raspberry Pi-konfigurationer (Bild 3C). I det öppnade fönstret går du till fliken Gränssnitt och klickar för att aktivera kameran och I2C. Detta krävs för att mikrodatorn ska fungera med kameran och IR LED-modulerna.
  10. Byt namn på tilläggsfil 1 till "Pi_video_camera_Clemensson_2019.py". Kopiera den till ett USB-minne och därefter i mikrodatorns /home/pi-mapp (Bild 3D). Den här filen är ett Python-skript, som gör att videoinspelningar kan göras med knappväxlar som är anslutna i steg 1.13.
  11. Följ stegen nedan för att redigera mikrodatorns rc.local-fil. Detta gör att datorn startar skriptet kopieras i steg 1.10 och starta IR-lysdioder bifogas i steg 1.13 när den startar.
    VARNING: Den här autostartfunktionen fungerar inte tillförlitligt med andra mikrodatorkort än den angivna modellen.
    1. Öppna ett terminalfönster, skriv "sudo nano /etc/rc.local" (exklusive citattecken) och tryck enter. Då öppnas en textfil (bild 4A).
    2. Använd tangentbordets piltangenter för att flytta markören nedåt till avståndet mellan "fi" och "exit 0" (bild 4A).
    3. Lägg till följande text som visas i bild 4Boch skriv varje textsträng på en ny rad:
      sudo i2cset -y 1 0x70 0x00 0xa5 &
      sudo i2cset -y 1 0x70 0x09 0x0f &
      sudo i2cset -y 1 0x70 0x01 0x32 &
      sudo i2cset -y 1 0x70 0x03 0x32 &
      sudo i2cset -y 1 0x70 0x06 0x32 &
      sudo i2cset -y 1 0x70 0x08 0x32 &
      sudo python /home/pi/Pi_video_camera_Clemensson_2019.py &
    4. Spara ändringarna genom att trycka på Ctrl + x följt av y och Retur.
  12. Löda ihop de nödvändiga komponenterna enligt figur 5Aoch som beskrivs nedan.
    1. För de två färgade lysdioderna, fäst ett motstånd och en hongelkabel på ett ben och en honktorkabel till den andra (figur 5A). Försök att hålla kablarna så korta som möjligt. Notera vilken av lysdiodernas elektroder som är den negativa (vanligtvis den korta), eftersom den måste anslutas till marken på mikrodatorns generella ingångs-/utgångsstift (GPIO).
    2. För de två knappbrytarna, fäst en honkrängelkabel på varje ben (bild 5A). Gör kablarna långa för en av växlarna, och kort för den andra.
    3. För att montera IR LED-modulen, följ instruktionerna som finns på dess officiella webbresurser19.
    4. Täck de lödda fogarna med krympslang för att begränsa risken för kortslutning av komponenterna.
  13. Stäng av mikrodatorn och anslut strömbrytare och lysdioder till dess GPIO-stift enligt figur 5Boch beskrivs nedan.
    VARNING: Kabeldragning av komponenterna till fel GPIO-stift kan skada dem och/eller mikrodatorn när kameran slås på.
    1. Anslut en LED så att dess negativa ände ansluts till stift #14 och dess positiva ansluter till stift #12. Denna LED kommer att lysa när mikrodatorn har startat och kameran är redo att användas.
    2. Anslut knappbrytaren med långa kablar så att en kabel ansluts till stift #9 och den andra för att fästa #11. Den här knappen används för att starta och stoppa videoinspelningarna.
      Skriptet som styr kameran har skrivits så att den här knappen inte svarar i några sekunder strax efter att du har startat eller stoppat en videoinspelning.
    3. Anslut en LED så att dess negativa ände ansluts till stift #20 och dess positiva ände ansluter till stift #13. Denna lysdiod lyser när kameran spelar in en video.
    4. Anslut knappbrytaren med de korta kablarna så att en kabel ansluts till stift #37 och den andra för att fästa #39. Denna strömbrytare används för att stänga av kameran.
    5. Anslut IR LED-modulen enligt beskrivningen i dess officiella webbresurser19.

2. Utformning av operant konditionering protokoll av intresse

Om du vill använda DeepLabCut för att spåra protokollprogressionen i videor som spelats in från operatammer måste beteendeprotokollen struktureras på specifika sätt, som förklaras nedan.

  1. Ställ in protokollet så att kammarens huslampa, eller en annan stark ljussignal, används som en indikator på ett visst steg i protokollet (t.ex. start av enskilda försök eller testsessionen) (figur 6A). Denna signal kommer att kallas "protokollstegsindikatorn" i resten av detta protokoll. Närvaron av denna signal gör det möjligt att spåra protokollprogression i de inspelade videorna.
  2. Ange att protokollet ska registrera alla svar av intresse med enskilda tidsstämplar i förhållande till när protokollstegsindikatorn blir aktiv.

3. Inspelning av videor av djur som utför beteendetest av intresse

  1. Placera kameran ovanpå operattammarna så att den spelar in en övre vy av området inuti (bild 7).
    OBS: Detta är särskilt lämpligt för att fånga djurens allmänna position och hållning inne i kammaren. Undvik att placera kamerans indikatorlampor och IR LED-modulen nära kameralinsen.
  2. Starta kameran genom att ansluta den till ett eluttag via nätkabeln.
    OBS: Före första användningen är det fördelaktigt att ställa in kamerans fokus med hjälp av det lilla verktyget som medföljer kameramodulen.
  3. Använd knappen som är ansluten i steg 1.13.2 för att starta och stoppa videoinspelningar.
  4. Stäng av kameran genom att följa dessa steg.
    1. Tryck och håll ned knappen ansluten i steg 1.13.4 tills lysdioden är ansluten i steg 1.13.1 stängs av. Detta initierar kamerans avstängningsprocess.
    2. Vänta tills den gröna lysdioden som syns ovanpå mikrodatorn (bild 1) har slutat blinka.
    3. Ta bort kamerans strömförsörjning.
      VARNING: Att koppla ur strömförsörjningen medan mikrodatorn fortfarande är igång kan orsaka skador på data på mikro-SD-kortet.
  5. Anslut kameran till en bildskärm, tangentbord, mus och USB-lagringsenhet och hämta videofilerna från skrivbordet.
    Filerna namnges enligt datum och tid då videoinspelningen startades. Mikrodatorn har dock ingen intern klocka och uppdaterar bara tidsinställningen när den är ansluten till internet.
  6. Konvertera de inspelade videorna från .h264 till . MP4, eftersom den senare fungerar bra med DeepLabCut och de flesta mediespelare.
    Det finns flera sätt att uppnå detta. Den ena beskrivs i tilläggsfil 2.

4. Analysera videor med DeepLabCut

OBS: DeepLabCut är ett mjukvarupaket som tillåter användare att definiera alla objekt av intresse i en uppsättning videoramar, och därefter använda dessa för att träna ett neuralt nätverk för att spåra objektens positioner i fullängdsvideor15,16. Detta avsnitt ger en grov översikt för hur man använder DeepLabCut för att spåra status för protokollet stegindikator och positionen för en råtta huvud. Installation och användning av DeepLabCut beskrivs väl i andra publicerade protokoll15,16. Varje steg kan göras via specifika Python-kommandon eller DeepLabCuts grafiska användargränssnitt, som beskrivs någon annanstans15,16.

  1. Skapa och konfigurera ett nytt DeepLabCut-projekt genom att följa stegen i16.
  2. Använd DeepLabCuts ramgreppsfunktion för att extrahera 700\u2012900-videobildrutor från en eller flera av de videor som spelats in i avsnitt 3.
    OBS: Om djuren skiljer sig avsevärt i pälspigmentering eller andra visuella egenskaper, är det lämpligt att 700\u2012900 extraherade videoramar delas över videor av olika djur. Genom detta kan ett tränat nätverk användas för att spåra olika individer.
    1. Se till att inkludera videobildrutor som visar både den aktiva (bild 8A) och inaktiv(bild 8B)tillståndet för protokollstegsindikatorn.
    2. Se till att inkludera videoramar som täcker de olika positioner, ställningar och huvudrörelser som råttan kan visa under testet. Detta bör omfatta videoramar där råttan står stilla i olika delar av kammaren, med huvudet pekar i olika riktningar, samt videoramar där råttan aktivt rör sig, in näsa peta öppningar och in i pelleten tråg.
  3. Använd DeepLabCut's Labeling Toolbox för att manuellt markera positionen för råttans huvud i varje videoram som extraheras i steg 4.2. Använd muspekaren för att placera en "huvud"-etikett i ett centralt läge mellan råttans öron (bild 8A,B). Markera dessutom placeringen av kammarens huslampa (eller annan protokollstegsindikator) i varje videobildruta där den aktivt lyser (figur 8A). Lämna huset ljus omärkt i ramar där det är inaktivt (figur 8B).
  4. Använd DeepLabCuts funktioner "skapa träningsdatauppsättning" och "tågnätverk" för att skapa en träningsdatauppsättning från videoramarna som är märkta i steg 4.3 och starta utbildningen av ett neuralt nätverk. Se till att välja "resnet_101" för den valda nätverkstypen.
  5. Stoppa utbildningen i nätverket när träningsförlusten har planat ut under 0,01. Detta kan ta upp till 500.000 utbildning iterationer.
    Obs: När du använder en GPU-maskin med cirka 8 GB minne och en träningsuppsättning på cirka 900 videoramar (upplösning: 1640 x 1232 pixlar), har utbildningsprocessen visat sig ta cirka 72 timmar.
  6. Använd DeepLabCuts videoanalysfunktion för att analysera videor som samlats in i steg 3, med hjälp av neurala nätverk som tränas i steg 4.4. Detta kommer att ge en CSV-fil som listar de spårade positionerna för råttans huvud och protokollstegsindikatorn i varje videobildruta i de analyserade videorna. Dessutom kommer det att skapa markerade videofiler där spårade positioner visas visuellt (Videos 1-8).
  7. Utvärdera spårningens riktighet genom att följa stegen nedan.
    1. Använd DeepLabCuts inbyggda utvärdera funktion för att få en automatiserad utvärdering av nätverkets spårningsnoggrannhet. Detta baseras på de videobildrutor som har märkts i steg 4.3 och beskriver hur långt bort i genomsnitt den position som spåras av nätverket är från den manuellt placerade etiketten.
    2. Välj en eller flera korta videosekvenser (på cirka 100\u2012200 videoramar vardera) i de markerade videorna som erhålls i steg 4.6. Gå igenom videosekvenser, bildruta för bildruta och notera i hur många bildrutor etiketterna korrekt anger positionerna för råttans huvud, svans, etc., och i hur många bildrutor etiketterna är placerade i felaktiga lägen eller inte visas.
      1. Om etiketten på en kroppsdel eller ett objekt ofta förloras eller placeras i en felaktig position, identifiera de situationer där spårningen misslyckas. Extrahera och lägg till märkta ramar av dessa tillfällen genom att upprepa steg 4.2. och 4.3. Sedan träna om nätverket och analysera videorna genom att upprepa steg 4.4-4.7. I slutändan bör spårningsnoggrannhet på >90% noggrannhet uppnås.

5. Erhålla koordinater för intressanta platser i operantkamrarna

  1. Använd DeepLabCut enligt beskrivningen i steg 4.3 för att manuellt markera intressanta platser i operatammarna (t.ex. nossäcköppningar, spakar etc.) i en enda videoram (figur 8C). Dessa väljs manuellt beroende på studiespecifika intressen, även om protokollstegsindikatorns position alltid bör inkluderas.
  2. Hämta koordinaterna för de markerade intressepunkterna från CSV-filen som DeepLabCut automatiskt lagrar under "märkta data" i projektmappen.

6. Identifiera videosegment där protokollstegsindikatorn är aktiv

  1. Ladda CSV filer som erhållits från DeepLabCut videoanalys i steg 4.6 i en datahantering programvara val.
    OBS: På grund av mängden och komplexiteten i data som erhållits från DeepLabCut och operant konditioneringssystem, datahantering görs bäst genom automatiserade analys skript. För att komma igång med detta, se ingångsnivå guider tillgängliga någon annanstans20,,21,22.
  2. Observera i vilka videosegment protokollstegsindikatorn spåras inom 60 bildpunkter från den position som erhålls i avsnitt 5. Det är perioder där protokollstegsindikatorn är aktiv (bild 6B).
    OBS: Under videosegment där protokollstegsindikatorn inte lyser kan den markerade videon tyckas indikera att DeepLabCut inte spårar den till någon position. Detta är dock sällan fallet, och det spåras i stället vanligtvis till flera utspridda platser.
  3. Extrahera den exakta startpunkten för varje period där protokollstegsindikatorn är aktiv (bild 6C: 1).

7. Identifiera videosegment av intresse

  1. Beakta de punkter där protokollstegsindikatorn blir aktiv (figur 6C:1) och tidsstämplarna för svar som registrerats av operatärkamrarna (avsnitt 2, figur 6C: 2).
  2. Använd den här informationen för att avgöra vilka videosegment som täcker specifika intressanta händelser, till exempel intervall mellan försöksstudier, svar, belöningshämtningar etc. (figur 6C:3, figur 6D).
    OBS: För detta, tänk på att kameran beskrivs häri registrerar videor på 30 fps.
  3. Observera de specifika videobildrutor som täcker dessa händelser av intresse.
  4. (Valfritt) Redigera videofiler med fullständiga testsessioner så att de bara omfattar de specifika segmenten av intresse.
    Det finns flera sätt att uppnå detta. Den ena beskrivs i tilläggsfil 2 och 3. Detta hjälper till att lagra ett stort antal videor och kan också göra det bekvämare att granska och presentera resultat.

8. Analysera ett djurs position och rörelser under specifika videosegment

  1. Delmängd den fullständiga spårningsdata för huvudet position som erhållits från DeepLabCut i steg 4.6 att endast inkludera video segment noteras under avsnitt 7.
  2. Beräkna djurets huvuds placering i förhållande till en eller flera av de referenspunkter som valts enligt avsnitt 5 (figur 8C). Detta möjliggör jämförelser av spårning och position över olika videor.
  3. Utför relevant djupgående analys av djurets position och rörelser.
    OBS: Den specifika analys som utförs kommer att vara starkt studiespecifik. Nedan ges några exempel på parametrar som kan analyseras.
    1. Visualisera banspårningar genom att rita alla koordinater som upptäckts under en markerad period inom ett diagram.
    2. Analysera närheten till en viss intressepunkt med hjälp av följande formel:
      Equation 1
    3. Analysera förändringar i hastighet under en rörelse genom att beräkna avståndet mellan spårade koordinater i på varandra följande bildrutor och dividera med 1/fps av kameran.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Videokameraprestanda

De representativa resultaten samlades i operant konditioneringskammare för råttor med golvytor på 28,5 cm x 25,5 cm och höjder på 28,5 cm. Med fisheye-linsen fäst fångar kameran hela golvytan och stora delar av de omgivande väggarna när den placeras ovanför kammaren (figur 7A). Som sådan kan en bra utsikt erhållas, även om kameran är placerad från mitten på kammarens topp. Detta bör gälla för jämförbara operantkammare. IR-lysdioderna kan tända hela kammaren (bild 7B,C), vilket ger en bra utsikt, även när alla andra lampor inuti kammaren är avstängda (figur 7C). Belysningen i sådana situationer är dock inte helt jämn, och kan leda till vissa svårigheter att få korrekt spårning. Om en sådan analys är av intresse kan ytterligare källor till IR-belysning krävas. Det är också värt att notera att vissa kammare använder metall släppa kastruller för att samla urin och avföring. Om kameran placeras direkt ovanför sådana ytor syns starka reflektioner av IR-lysdiodernas ljus i de inspelade videorna (bild 7B). Detta kan dock undvikas genom att placera pappershanddukar i droppplattan, vilket ger en mycket förbättrad bild (figur 7C). Om du placerar kamerans IR-lysdioder eller färgade lysdioder för nära kameralinsen kan de synas i bildperiferin(bild 7B). Eftersom kameran är IR-känslig kan alla IR-ljuskällor som finns inuti kamrarna vara synliga i videorna. För många inställningar kommer detta att omfatta kontinuerlig lysande av IR-strålbrytningssensorer (figur 7C). Den kontinuerliga belysningen från kamerans IR-lysdioder stör inte bildkvaliteten på väl upplysta kammare (bild 7D). Storleken på de videor som spelats in med kameran är cirka 77 Mb/min. Om ett 32 Gb micro SD-kort används för kameran bör det finnas cirka 20 Gb tillgängligt efter installationen av operativsystemet. Detta ger plats för cirka 260 min inspelade bilder.

Fisheye-objektivet gör att kameran har ett något ojämnt fokus, är skarp i mitten av bilden men minskad skärpa mot kanterna. Detta verkar inte påverka riktigheten i spårning. Dessutom resulterar fisheye linsen i den inspelade bilden förvrängs. Avstånden mellan lika fördelade punkter längs raka linjer visar till exempel artificiellt minskat avstånd mot bildens periferi (bild 9A,B). Om kameran används för tillämpningar där de flesta synfält eller absoluta mätningar av avstånd och hastighet är av intresse, är det värt att överväga att korrigera data för denna förvrängning23 (Tilläggsfil 4). Distorsionen är dock relativt mild i mitten av bilden (Figur 9B). För videor som samlats in i vår operantkammare är intresseområdet begränsat till de centrala 25% av kamerans synfält. Inom detta område är effekten av fisheye distorsion minimal (Figur 9C\u2012F).

Riktigheten i spårning med DeepLabCut

De viktigaste faktorerna som avgör spårningsnoggrannheten för ett tränat nätverk är (i) antalet märkta ramar i sin utbildningsdatauppsättning, (ii) hur väl de märkta bildrutorna fångar upp intressets beteende och (iii) antalet träningsiterationer som används. DeepLabCut innehåller en utvärdera funktion, som rapporterar en uppskattning av hur långt bort (i antal pixlar) dess spårning kan förväntas vara från den faktiska platsen för ett objekt. Detta ger dock inte nödvändigtvis en bra beskrivning av antalet ramar där ett objekt går förlorat och/eller felmärkt (figur 10A), vilket föranleder behovet av ytterligare manuell bedömning av spårningsnoggrannheten.

För att analysera beteenden inuti en operantkammare bör ett vältränat nätverk möjliggöra korrekt identifiering av alla händelser där protokollstegsindikatorn är aktiv. Om inte, omskolning av nätverket eller välja en annan indikator kan behövas. Trots att spårningen av protokollstegsindikatorn ibland har ett vältränat nätverk kan den störas av djur som blockerar kamerans vy (figur 10B). Detta kommer att orsaka avbrott i spårning som påminner om episoder där indikatorn är inaktiv. Frekvensen av detta händer beror på djur stam, typ av beteendemässiga protokoll och val av protokoll steg indikator. I exempeldata från 5CSRTT som används här inträffade den på fyra av 400 försök (data visas inte). Alla tillfällen var lätta att identifiera, eftersom deras varaktighet inte matchade den för paussteget som hade inkluderats i protokolldesignen (figur 6A). I slutändan, välja en indikator som placeras högt upp i kammaren och bort från komponenter som djur interagerar med kommer sannolikt att vara till hjälp.

Ett välutbildadt nätverk bör ge >90 % noggrannhet när man spårar ett djurs huvud under videosegment av intresse (Video 1). Med detta måste endast en liten delmängd av videoramar uteslutas från den efterföljande analysen och användbara spårningsdata kan erhållas från praktiskt taget alla försök inom en testsession. Korrekt spårning kan tydligt identifieras genom markörer efter ett djur under hela dess rörelser(Video 2)och ritade vägar som ser släta ut (figur 10C). Däremot kännetecknas felaktig spårning av markörer som inte på ett tillförlitligt sätt stannar på målet (Video 3) och av ritade vägar som ser ojämna ut (figur 10D). Det senare orsakas av att objektet spåras till avlägsna felaktiga positioner i enskilda videoramar inom sekvenser av korrekt spårning. Som ett resultat av detta orsakar felaktig spårning vanligtvis plötsliga förändringar i beräknade rörelsehastigheter (figur 10E). Detta kan användas för att identifiera videoramar där spårning är felaktig, för att utesluta dem från efterföljande analys. Om det finns betydande problem med spårningsnoggrannheten bör de tillfällen då spårning misslyckas identifieras och nätverket omskolas med hjälp av en utökad utbildningssats som innehåller märkta videoramar för dessa händelser(figur 10A,E).

Användning av videospårning för att komplettera analys av operantbeteenden

Analysera hur ett djur rör sig och positionerar sig under operant tester kommer att ge flera insikter i den komplexa och mångfacetterade karaktär deras beteenden. Genom att spåra var ett djur befinner sig under en testsession kan man bedöma hur olika rörelsemönster relaterar till prestanda (figur 11A,B). Genom att ytterligare undersöka huvudrörelser under specifika protokollsteg kan man upptäcka och karakterisera användningen av olika strategier (Figur 11C\u2012E).

För att exemplifiera, beakta de representativa uppgifter som presenteras för råttor som utför 5CSRTT-testet (figur 6A, figur 11). I detta test presenteras djur med flera försök som var och en börjar med ett väntesteg på 5 sekunder (intervall mellan försök - ITI) (figur 6A: 1). I slutet av detta kommer ett ljus att lysa inuti en av näsan peta öppningar (slumpmässigt vald position på varje försök, Figur 6A:2). Nos-peta in i cued öppning anses vara ett korrekt svar och belönas(Figur 6A: 3). Att svara på en annan öppning anses vara felaktigt. Underlåtenhet att svara inom 5 s efter presentationen av ljuset anses vara ett utelämnande. Spårning huvudet rörelser under ITI av detta test har visat att på försök där råttor utföra ett svar, de är snabba på att gå mot området runt näsan peta öppningar (Figur 11A, B, Video 4). På de flesta försök med utelämnande närmar sig råttorna däremot inte området runt öppningarna (figur 11B, Video 5). Detta beteende är i linje med den gemensamma tolkningen av utelämnanden är nära relaterade till en låg motivation att utföra testet3,16. Men på en delmängd av utelämnande försök (cirka 20% av den aktuella datauppsättningen), råttorna visade ett tydligt fokus mot öppningarna(Figur 11B, Video 6) men misslyckades med att notera den exakta platsen för cued öppning. Uppgifterna tyder alltså på att det finns minst två olika typer av utelämnanden, en som är relaterad till en eventuell ointresse för den pågående rättegången, och en annan som är mer beroende av otillräcklig visuospatial uppmärksamhet3. Head tracking kan också användas för att skilja uppenbara strategier. Som ett exempel, två distinkta attentional strategier avslöjades när man analyserar hur råttorna rör sig när de är i närheten av näsan peta öppningar under 5CSRTT(Figur 11C\u2012E). I den första strategin visade råttor en extremt fokuserad strategi, upprätthålla en central position under större delen av ITI(Figur 11C, Video 7). Däremot råttor anta den andra strategin ständigt flyttat huvudet mellan de olika öppningarna på ett sökliknande sätt (Figur 11D, Video 8). Denna typ av beteendemässiga skillnader kan enkelt kvantifieras genom att beräkna hur mycket tid som tillbringas i närheten av de olika öppningarna (figur 11E). Slutligen, genom att analysera vilken öppning av råttan som är närmast vid tidpunkten för cue ljus presentation (Figur 11F), kan det visas att vara i ett centralt läge (figur 11G) och / eller i närheten av placeringen av cued öppning (figur 11H) verkar vara fördelaktigt för korrekt prestanda på testet.

Figure 1
Figur 1: Skiss av den listade mikrodatorn. Schemat visar positionen för flera komponenter av intresse på mikrodatorns moderkort. Dessa är markerade med inringade nummer enligt följande: 1: Kontakt för kamerabandkabel; 2: LED-lampa som indikerar när datorn är igång; 3: Micro USB för strömkabel; 4: Micro USB för mus / tangentbord; 5: Allmänna ingångs-/utgångsstift (GPIO-stift), dessa stift används för att ansluta mikrodatorn till lysdioder, brytare och IR LED-modulen. 6: Mini HDMI-utgång; 7: Micro SD-kortplats. I den nedre delen av figuren visas en beskuren och förstorad del av GPIO-stiften för att ange hur man räknar längs dem för att korrekt identifiera positionen för en viss stift. Klicka här för att se en större version av denna siffra.

Figure 2
Bild 2: Bygga kamerans huvuddel. Figurerna illustrerade de viktigaste stegen för att bygga kroppen av kameran. (A) Fäst den magnetiska metallringen på kamerastället. (B) Fäst kameramodulen på kamerastället. (C) Anslut kameramodulen till mikrodatorn via den platta bandkabeln. Notera de vita pilarna som anger hur du öppnar och stänger kameraportarna som finns på både mikrodatorn och kameramodulen. (D)Placera mikrodatorn i plasthöljet och sätt i ett mikro-SD-kort. Klicka här för att se en större version av denna siffra.

Figure 3
Bild 3: Uppdatera mikrodatorns operativsystem och aktivera kringutrustningen. Figuren visar fyra olika skärmdumpar som visar mikrodatorns användargränssnitt. (A) Terminal fönster kan öppnas genom att klicka på "terminal" ikonen i det övre vänstra hörnet av skärmen. (B) Inom terminalen kan man skriva in olika typer av kommandon, som beskrivs i protokolltexten. Skärmbilden visar kommandot för att uppdatera systemets programpaket. (C)Skärmbilden visar hur man navigerar till konfigurationsmenyn, där man kan aktivera användningen av kameramodulen och I2C GPIO-stiften. (D)Skärmbilden visar mappen /home/pi, där kameraskriptet ska kopieras i steg 1.10 i protokollet. Fönstret öppnas genom att klicka på den angivna ikonen längst upp till vänster på skärmen. Klicka här för att se en större version av denna siffra.

Figure 4
Bild 4: Konfigurera mikrodatorns rc.local-fil. Figuren visar två skärmdumpar av mikrodatorns rc.local-fil, när den nås via terminalen enligt beskrivningen i steg 1.11.1. (A)En skärmdump av filen rc.local i sitt ursprungliga format. Pilen anger det utrymme där text måste anges för att aktivera kamerans automatiska startfunktion. (B)En skärmdump av rc.local filen efter det har redigerats för att lysa IR lysdioder och starta python skript som styr kameran vid start av mikrodatorn. Klicka här för att se en större version av denna siffra.

Figure 5
Bild 5: Anslutning av brytare och lysdioder till mikrodatorns GPIO-stift. (A) Schematisk visar en knappbrytare med kvinnliga bygelkablar (överst) och en LED med motstånd och kvinnliga bygelkablar (botten). (1) Knappbrytare, (2) kvinnliga bygelkablar, (3) LED, (4) motstånd. (B) Schematisk bild som visar hur de två knappbrytarna, de färgade lysdioderna och IR-LED-kortet är anslutna till mikrodatorns GPIO-stift. Blå kablar och GPIO-stift indikerar jord. Positionen för två GPIO-stift anges i figuren (GPIO-stift #2 och #40): (1) Knapp för start/stoppa videoinspelning. (2) LED som indikerar när video spelas in. (3) Knapp för att stänga av kameran. (4) LYSDIODning som anger när kameran har startat och är klar att användas. (5) IR LED-modul. Observera att kretsar med lysdioder också innehåller 330 Ω motstånd. Klicka här för att se en större version av denna siffra.

Figure 6
Bild 6: Använda DeepLabCut-spårning av protokollstegsindikator för att identifiera sekvenser av intresse för fullängdsvideor. (A) Schematisk av stegen i en enda rättegång i 5-val seriell reaktion tidstest (5CSRTT): (1) För det första finns det en kort väntetid (ITI). Pilen indikerar ett aktivt skinande husljus. (2) I slutet av ITI, kommer ett ljus lysa i en av de fem näsa peta öppningar (pil). (3) Om en råtta reagerar korrekt genom att utföra en näsa peta i cued öppning, en belöning levereras (pil). (4) Råttan får hämta belöningen. (5) För att möjliggöra användning av huslampan som protokollstegsindikator implementeras ett kort paussteg där huslampan sleds (pil) innan nästa försök börjar. Observera att huset ljuset lyser under efterföljande steg av rättegången. (B)Ett exempel diagram som visar x-koordinaten för det aktiva huset ljus, som spåras av DeepLabCut, under ett videosegment av en 5CSRTT test. Under segment där huslampan lyser (indikator aktiv - 1) spåras positionen till en jämn och stabil punkt (notera även den röda markeringen (indikerad med pil) i exempelvideoramen), jämförbar med huslampans position i figur 8C (x, y: 163, 503). Under segment där huslampan inte lyser (indikator inaktiv - 2, notera den vita pilen i exemplet videobild), är den spårade positionen inte stabil, och långt borta från huslampans faktiska koordinat. (C)Tabell 1 visar ett exempel på bearbetad utdata från DeepLabCut-spårning av en protokollstegsindikator. I den här utgången har utgångspunkten för varje tillfälle där indikatorn är aktiv listats. Tabell 2 visar ett exempel på data från operantkonditioneringssystemet, med relevanta uppgifter för enskilda försök. I det här exemplet har varaktigheten för ITI, positionen för cued-öppningen och svarstider för att utföra ett svar och hämta belöningen registrerats. Tabell 3 visar ett exempel på data som erhållits genom att slå samman spårningsresultat från DeepLabCut och data som registrerats från operantkonditioneringssystemet. Genom detta har videobildrutorna för startpunkten för ITI (steg 1 i A), utgångspunkten för köljuspresentationen (steg 2 i A), svaret (steg 3 i A) och hämtning (steg 4 i A) för en exempelstudie erhållits. (D)Ett exempel diagram som visar x-koordinaten för huset ljus, som spåras av DeepLabCut, under en filmad 5CSRTT rättegång. De olika stegen i protokollet anges: (1) ITI; 2) Presentation av en signallampa (position indikerad med vit pil). 3. Svar. (4) belöning hämtning. Identifieringen av videoramar som visar start och stopp för dessa olika protokollsteg gjordes genom en process som är jämförbar med den som anges i D. Klicka här för att se en större version av denna siffra.

Figure 7
Bild 7: Kamerans bildegenskaper. (A)Uncropped bild som erhållits från en kamera placerad ovanpå en operant konditioneringskammare. Bilden togs medan kammaren placerades i ett ljust upplyst rum. Notera (1) hus ljus och (2) belöning pellet tråg längs kammarens vänstra vägg och (3) raden med fem näsa peta öppningar längs kammarens högra vägg. Varje näsa peta öppning innehåller en liten kö ljus. (B) Uncropped bild som visar den starka reflektion som orsakas av (1) metall droppande pan, samt reflektioner som orsakas av suboptimal positionering av kamerans (2) indikator lysdioder och (3) IR LED-modul. (C)Beskuren bild av kammaren i totalt mörker. Observera att lamporna från IR-strålens brytdetektorer i de fem nossäcköppningarna längs kammarens högra vägg är tydligt synliga (pil). (D)Beskuren bild av kammaren när den är starkt upplyst. Klicka här för att se en större version av denna siffra.

Figure 8
Figur 8: Positionsspårning av protokollstegsindikator och kroppsdelar av intresse. (A) Bilden visar positionen för en protokollstegsindikator (röd) samt huvudet (gul) och svansen (grön) på en råtta, som spåras av DeepLabCut. Som framgår av spårning av det upplysta huset ljuset, är videoramen tas från en ögonblicksbild av en aktiv rättegång. (B) Bilden visar huvudets position (gul) och svans (grön) som spåras av DeepLabCut under en tidpunkt då en rättegång inte är aktiv. Observera bristen på hus ljus spårning. C)De positioner som används för att analysera uppgifter i figur 6 och figur 11. (1) House ljus, i detta fall används som protokoll steg indikator, (2\u20126) Näsa peta öppningar #1\u20125. Klicka här för att se en större version av denna siffra.

Figure 9
Bild 9: Bildförvrängning från fisheye-objektiv. (A)Bild av ett rut-board mönster med lika stora och fördelade svartvita rutor tagna med kameran som beskrivs i detta protokoll. Bilden togs på en höjd jämförbar med den som användes när du spelar in videor från operant konditioneringskammare. Svarta rutor längs de centrala horisontella och vertikala linjerna har markerats med DeepLabCut. (B) Diagram som visar hur avståndet mellan de markerade rutorna i (A) förändras med närhet till bildcentret. (C)Bild som visar mätningar som gjorts för att utvärdera effekterna av fisheye distorsion effekt på videor som samlats in från operant kammare. Hörnen och mittpunkterna längs kanten av golvytan, den centrala positionen för varje enskild golv steg och placeringen av de fem näsa peta öppningar har indikerats med DeepLabCut (färgade prickar); (1) avstånd av golv stegpinnar, (2) bredd av kammaren golvet längs mitten av kammaren, (3) avstånd av näsa peta öppningar. DDAvstånd för golvsteg (i genomsnitt för varje uppsättning av tre på varandra följande steg), numrerade från vänster till höger i (C). Det finns en liten effekt av fisheye distorsion, vilket resulterar i den centrala stegpinnarna är fördelade ungefär 3 pixlar (8%) längre ifrån varandra än stegpinnar som är placerade vid kanterna på kammaren golvet. (E)Bredd på kammaren golvet i (C) mätt vid dess vänstra och högra kanter, samt mittpunkten. Det finns en liten effekt av fisheye distorsion, vilket resulterar i bredden mätt vid mittpunkten är ungefär 29 pixlar (5%) längre än de andra mätningarna. F)Avstånd för nossäcksöppningar i (C), numrerade från bildens överkant. Det finns en liten effekt av fisheye distorsion, vilket resulterar i avståndet mellan de centrala tre öppningarna (H2, H3, H5) är ungefär 5 pixlar (4%) bredare än avståndet mellan H1-H2 och H4-H5. För D-F samlades data in från fyra videor och diagram visar gruppmedelvärde + standardfel. Klicka här för att se en större version av denna siffra.

Figure 10
Bild 10: Granska noggrannheten i DeepLabCut spårning. (A)En tabell med utbildningsinformation för två neurala nätverk som är utbildade för att spåra råttor inom operantkammare. Network #1 använt en mindre utbildningsdatauppsättning, men ett stort antal träningsiterationer jämfört med Network #2. Båda nätverken uppnådde en låg felpoäng från DeepLabCuts utvärderingsfunktion (DLC-testfel) och visade en låg träningsförlust mot slutet av utbildningen. Trots detta visade Network #1 mycket dålig spårningsnoggrannhet vid manuell utvärdering av markerade videoramar (uppmätt noggrannhet, uppskattad från 150 videoramar som täcker ett videosegment jämförbart med dem i video 2 och video 3). Network #2 representerar den förbättrade versionen av Network #1, efter att ha inkluderat ytterligare videoramar av aktivt rörliga råttor i träningsdatauppsättningen, enligt beskrivningen i (E). (B)Bild som visar en råtta uppfödning upp och täcker kammarens hus ljus(Figur 7A)med huvudet, störa spårning av den. (C)Videobild som fångar ett svar som gjorts under en 5CSRTT-studie(figur 6A: 3). Huvudets rörelsebana under responsen och föregående ITI har lagts ovanpå bilden i gult. Spårningen anses vara korrekt. Notera den jämna spårningen under rörelser (vit pil). En motsvarande video finns tillgänglig som Video 2. Nätverks #2 (se A) användes för spårning. (D)Videobild som fångar ett svar som gjorts under en 5CSRTT-studie(figur 6A: 3). Huvudets rörelsebana under responsen och föregående ITI har lagts ovanpå bilden i gult. Data gäller samma utvärderingsversion som visas i (C) men analyseras med Network #1 (se A). Spårningen anses vara felaktig. Notera banans ojämna utseende med flera raka linjer (vita pilar), som orsakas av tillfällig spårning av huvudet till avlägsna felaktiga positioner (svarta pilar). En motsvarande video finns tillgänglig som Video 3. (E)Diagram som visar de dynamiska förändringarna i rörelsehastigheten för huvudspårningen i (C) och (D). Identifierbar i diagrammet är tre stora rörelser sett i Video 2 och 3, där råttan först vänder sig mot näsan peta öppningar (första sväng), gör en liten justering för att ytterligare närma sig dem (justering), och slutligen utför ett svar. Hastighetsprofilen för den goda spårning som erhållits av Network #2 (A) visar jämna kurvor av förändringar i rörelsehastighet (blå pilar), vilket indikerar en korrekt spårning. Hastighetsprofilen för den dåliga spårning som erhållits av Network #1 (A) visar flera plötsliga spikar i rörelsehastighet (röda pilar) som indikerar tillfälliga spårningsfel i enskilda videoramar. Det är värt att notera att dessa spårningsproblem specifikt uppstår under rörelser. För att rätta till detta utökades den grundläggande utbildningsuppsättningen som används för att träna Network #1 med en stor mängd videoramar som visar aktivt rörliga råttor. Detta användes senare för att träna Network #2, som effektivt tog bort det här spårningsproblemet. Klicka här för att se en större version av denna siffra.

Figure 11
Figur 11: Användning av positionsspårning genom DeepLabCut för att komplettera beteendeanalysen av operantkonditioneringstester. (A) En ovansida på insidan av en operant konditioneringskammare. Tre områden i kammaren anges. Området nära belöningspelletttråget (Pellet), det centrala kammarområdet (Mitten) och området runt nosöppningarna (Öppningar). (B) Ett diagram som visar den relativa tid råttor tillbringar i de tre olika områdena i operant kammaren beskrivs i (A) under ITI-steget i 5CSRTT. Observera att vid försök med ett svar, råttor tenderar inledningsvis att placeras nära pelleten tråg (svart) och kammaren centrum (grå), men som ITI fortskrider, de skiftar mot positionering sig runt näsan peta öppningar (vit). Däremot på typiska utelämnande försök, råttor kvar placerade runt pelleten tråg och kammare centrum. På en delmängd av försummelser (cirka 20%) råttor tydligt flytta fokus mot näsan peta öppningar, men ändå misslyckas med att utföra ett svar när uppmanas. Tvåvägs ANOVA-analys av tiden runt näsan peta öppningar med försökstyp som mellan-ämne faktor och tid som inom-ämne faktor avslöjar betydande tid (p < 0.001, F(4,8) = 35.13), trial type (p < 0.01, F(2,4) = 57.33) and time x trial type interaction (p < 0.001, F(8,16) = 15.3) effects. Data gathered from four animals performing 100 trials each. Graph displays mean + standard error. (C) Värmekarta som visar alla huvudpositioner spåras i närheten av nossäcköppningarna, av en specifik råtta under 50 ITI:er för en 5CSRTT-testsession. Observera att råttan har en stark tendens att hålla huvudet på en plats nära den centrala näsan peta öppning. (D) Värmekarta som visar alla huvudpositioner spåras i närheten av näsan peta öppningar, av en specifik råtta under 50 ITI av en 5-CSRTT testsession. Observera att råttan inte visar någon tydlig preferens för någon specifik öppning. () Diagram som visar den relativa tid som de två råttorna som visas i (C) och (D) tillbringar som närmast de olika nossäcköppningarna under 50 ITI:er i 5CSRTT. Råttan som visar en fokuserad strategi (C) (svart) visar en stark preferens för att vara närmast den centrala öppningen medan råttan med en sökliknande strategi (D) (vit) inte visar någon preferens för någon särskild öppning. Diagrammet visar genomsnittligt + standardfel. (F) En bild av en råtta vid tidpunkten för cue presentation på en 5CSRTT rättegång (Bild 6A). Observera att råttan har placerat huvudet närmast den centrala öppningen (vit pil), är två öppningar bort från cued öppning (svart pil). (G) Ett diagram som visar prestandanoggrannhet på 5CSRTT (dvs. frekvensen för att utföra korrekta svar) i förhållande till om råtthuvudet var närmast den centrala öppningen eller en av de andra öppningarna vid tidpunkten för köpresentationen (Figur 6A2). Uppgifter från fyra djur som utför ungefär 70 svar vardera. Diagram visar gruppmedelvärde + standardfel (matchat t-test: p < 0.05). (H) Ett diagram som visar prestandanoggrannhet på 5CSRTT i förhållande till avståndet mellan den cued öppningens position och positionen för en råttas huvud, vid signalpresentationens punkt. Avståndet avser antalet öppningar mellan råttornas huvudposition och den signalerade öppningens position. Uppgifter från fyra djur som utför ungefär 70 svar vardera. Diagram visar medelvärdet + standardfel (matchas enkelriktad ANOVA: p < 0.01). For the presented analysis, Network #2 described in Figur 10A användes. Den fullständiga analyserade datauppsättningen inkluderade cirka 160 000 videobildrutor och 400 utvärderingsversioner. Av dessa uteslöts 2,5 % av videobildrutorna på grund av att djurets noterade rörelsehastighet var över 3 000 pixlar/s, vilket indikerar felaktig spårning (Figur 10E). Inga fullständiga försök uteslöts. Klicka här för att se en större version av denna siffra.

Video 1: Representativ spårning prestanda välutbildade neurala nätverk. Videon visar ett montage av en råtta som utför 45 försök med korrekta svar under en 5CSRTT-testsession (se figur 6A för protokolldetaljer). Spårning av husets ljus (röd markör), svansbas (grön markör) och huvud (blå markör) anges i videon. Utbildningen av nätverket (Network #2 i figur 10A) betonade noggrannhet för rörelser som görs längs kammaren golvet i närheten av näsan peta öppningar (höger vägg, figur 7A). Spårning av dessa segment visar i genomsnitt >90% noggrannhet. Spårning av episoder av uppfödning och grooming är felaktiga, eftersom utbildningsuppsättningen inte innehöll ramar för dessa beteenden. Observera att videon har komprimerats för att minska filstorleken och inte kan representera den videokvalitet som erhålls med kameran. Klicka här för att ladda ner den här videon.

Video 2: Exempel på korrekt spårade djur. Videon visar en enda väl spårad studie av en råtta som utför ett korrekt svar under 5CSRTT. Spårning av husets ljus (röd markör), svansbas (grön markör) och huvud (blå markör) anges i videon. Neurala nätverk #2 som beskrivs i figur 10A användes för spårning. Notera hur markrarna följer djurets rörelser korrekt. Se även figur 10C,E för plottade vägen och rörelsehastigheten för huvudspårningen i det här videoklippet. Klicka här för att ladda ner den här videon.

Video 3: Exempel på dåligt spårat djur. Videon visar en enda dåligt spårad studie av en råtta som utför ett korrekt svar under 5CSRTT. Spårning av husets ljus (röd markör), svansbas (grön markör) och huvud (blå markör) anges i videon. Neurala nätverk #1 som beskrivs i figur 10A användes för spårning. Videoklippet är detsamma som det som används i video 2. Observera att markören för huvudet inte är tillförlitligt placerad ovanpå råttans huvud. Se även figur 10D,E för plottade vägen och rörelsehastigheten för huvudspårningen i det här videoklippet. Klicka här för att ladda ner den här videon.

Video 4: Exempel på rörelser som gjorts under en 5CSRTT-studie med ett svar. Videon visar en enda väl spårad studie av en råtta som utför ett korrekt svar under 5-CSRTT. Spårning av husets ljus (röd markör), svansbas (grön markör) och huvud (blå markör) anges i videon. Notera hur råttan först är placerad i tydlig närhet till pelletskärlet (vänster vägg, figur 7A) och sedan flyttar över för att fokusera sin uppmärksamhet på raden av nossäcköppningar. Klicka här för att ladda ner den här videon.

Video 5: Exempel på en typisk underlåtenhet rättegång under 5CSRTT. Videon visar en enda väl spårad studie av en råtta som utför en typisk underlåtenhet under 5CSRTT. Spårning av husets ljus (röd markör), svansbas (grön markör) och huvud (blå markör) anges i videon. Notera hur råttan behåller sitt läge runt pelletskärlet (vänster vägg, figur 7A) och kammarcenter, i stället för att vända sig om för att möta nossäcköppningarna (höger vägg, figur 7A). Det visade beteendet och orsaken till utelämnandet kan hävdas återspegla lågt intresse för att utföra testet. Klicka här för att ladda ner den här videon.

Video 6: Exempel på en atypisk underlåtenhet rättegång under 5CSRTT. Videon visar en enda väl spårad studie av en råtta utför en atypisk underlåtenhet under 5CSRTT. Spårning av husets ljus (röd markör), svansbas (grön markör) och huvud (blå markör) anges i videon. Notera hur råttan placerar sig mot nossäcköppningarna längs kammarens högra vägg (bild 7A). Detta kan hävdas tyda på att djuret är intresserat av att utföra testet. Råttan är dock vänd bort från cued öppning (central position) när kö presenteras (5 s i klippet). I motsats till utelämnandet visas i Video 4, den som ses här är sannolikt relaterad till suboptimala visuospatial uppmärksamhet processer. Klicka här för att ladda ner den här videon.

Video 7: Exempel på ett djur som upprätthåller en fokuserad central position under en ITI av 5CSRTT. Videon visar en enda väl spårad studie av en råtta som utför ett korrekt svar på en rättegång av 5CSRTT. Notera hur råttan har ett centralt läge under ITI och håller huvudet stadigt i närheten av den centrala nosöppningen längs kamrarnas högra vägg (figur 7A). Spårning av husets ljus (röd markör), svansbas (grön markör) och huvud (blå markör) anges i videon. Klicka här för att ladda ner den här videon.

Video 8: Exempel på ett djur som visar en sökliknande uppmärksamhetsstrategi under en ITI av 5CSRTT. Videon visar en enda väl spårad studie av en råtta som utför ett korrekt svar på en rättegång av 5CSRTT. Notera hur råttan ofta flyttar huvudet mot olika nossäcköppningar längs kammarens högra vägg (bild 7A). Spårning av husets ljus (röd markör), svansbas (grön markör) och huvud (blå markör) anges i videon. Klicka här för att ladda ner den här videon.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Detta protokoll beskriver hur man bygger en billig och flexibel videokamera som kan användas för att spela in videor från operant konditioneringskammare och andra beteendetestinställningar. Det visar vidare hur man använder DeepLabCut för att spåra en stark ljussignal inom dessa videor, och hur det kan användas för att hjälpa till att identifiera korta videosegment av intresse för videofiler som täcker hela testsessioner. Slutligen beskriver den hur man använder spårning av en råtta huvud för att komplettera analysen av beteenden under operant konditionering tester.

Protokollet presenterar ett alternativ till kommersiellt tillgängliga videoinspelningslösningar för operant konditioneringskammare. Som nämnts är den största fördelen med dessa att de integreras med operant kamrarna, vilket möjliggör videoinspelningar av specifika händelser. Metoden för att identifiera videosegment av intresse som beskrivs i detta protokoll är mer mödosam och tidskrävande jämfört med att använda ett helt integrerat system för att registrera specifika händelser. Det är dock betydligt billigare (en färsk kostnadsberäkning för videoövervakningsutrustning för 6 operantkammare sattes till cirka 13 000 USD. I jämförelse, bygga sex av de kameror som anges här skulle kosta ca 720 USD). Dessutom kan kamerorna användas för flera andra beteendetestinställningar. När du arbetar med kameran är det viktigt att vara uppmärksam på de områden av exponerad elektronik (baksidan av kameran komponenten samt IR LED-komponent), så att de inte kommer i kontakt med vätskor. Dessutom kan bandkabeln som fäster kameramodulen på mikrodatorn och kablarna som förbinder lysdioderna och växlar till GPIO-stiften lossna om kameran ofta flyttas runt. Därför kan det vara fördelaktigt att justera utformningen av kamerahöljet för vissa program.

Användningen av DeepLabCut för att identifiera videosegment av intresse och spåra djurrörelser erbjuder ett komplement och/eller alternativ till manuell videoanalys. Medan den förra inte ogiltigförklara den senare, har vi funnit att det ger ett bekvämt sätt att analysera rörelser och beteenden inuti operant kammare. I synnerhet ger den positionsdata för djuret, som innehåller mer detaljerad information än vad som normalt utvinns genom manuell bedömning (dvs. faktiska koordinater jämfört med kvalitativ positionsinformation såsom "framför", "bredvid" etc.).

När du väljer en indikator för protokollsteg är det viktigt att välja en som konsekvent anger ett visst steg i beteendeprotokollet, och det är osannolikt att blockeras av djuret. Om det senare är problematiskt kan man överväga att placera en lampa utanför operatkammaren och filma den genom kammarens väggar. Många operant konditioneringskammare är modulära och tillåter användare att fritt flytta lampor, sensorer och andra komponenter runt. Det bör noteras att det finns andra programpaket som också tillåter användare att träna neurala nätverk i att känna igen och spåra användardefinierade objekt i videor24,25,26. Dessa kan sannolikt användas som alternativ till DeepLabCut i det aktuella protokollet.

Protokollet beskriver hur man spårar den centrala delen av ett råttorhuvud för att mäta rörelser inne i operantkamrarna. Eftersom DeepLabCut erbjuder full frihet att välja kroppsdelar eller föremål av intresse, kan detta med bekvämlighet modifieras för att passa studiespecifika intressen. En naturlig förlängning av spårning beskrivs häri är att också spåra positionen för råttornas öron och näsa, för att bättre bedöma inte bara huvudet position utan också orientering. De representativa data som visas här var omkodas med Long Evans råttor. Dessa råttor visar betydande inter-individuell variation i deras pigmentering mönster, särskilt mot deras svans bas. Detta kan resultera i vissa svårigheter att tillämpa ett enda utbildad neuralt nätverk för spårning av olika individer. För att begränsa dessa problem är det bäst att inkludera videobildrutor från alla djur av intresse i utbildningen som fastställts för nätverket. Den svarta huvudet på Long Evans råtta ger en någorlunda stark kontrast mot metallytor i kammaren som används här. Således, att få korrekt spårning av deras huvuden kräver sannolikt mindre ansträngning än med albino stammar. Det mest kritiska steget för att få korrekt spårning med DeepLabCut eller jämförbara mjukvarupaket är att välja ett stort antal olika videoramar för utbildning av neurala nätverk. Som sådan, om spårning av ett objekt av intresse anses vara suboptimala, öka uppsättningen av utbildningsramar bör alltid vara det första steget mot att förbättra resultaten.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Medan material och resurser från Raspberry Pi stiftelsen har använts och citeras i detta manuskript, var stiftelsen inte aktivt involverad i utarbetandet eller användningen av utrustning och data i detta manuskript. Detsamma gäller för Pi-Supply. Författarna har inget att avslöja.

Acknowledgments

Detta arbete stöddes av anslag från Hjärnstiftelsen, Parkinsonstiftelsen och Statens medel för klinisk forskning (M.A.C.), samt Wenner-Gren-stiftelserna (M.A.C, E.K.H.C), Åhléns stiftelse (M.A.C) och stiftelsen Blanceflor Boncompagni Ludovisi, född Bildt (S.F).

Materials

Name Company Catalog Number Comments
32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

DOWNLOAD MATERIALS LIST

References

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user's manual. Coulbourn instruments. , Holliston, Massachusetts. 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer's manual. Med Associates Inc. , St. Albans, Vermont. 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat's behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user's manual. Med Associates Inc. , St. Albans, Vermont. 26-30 (2004).
  14. Coulbourn Instruments. Coulbourn Instruments. , Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020).
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. Raspberry Pi foundation. Raspberry Pi foundation. , Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020).
  19. Pi-supply. Pi-supply. , Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018).
  20. Python. Python. , Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020).
  21. MathWorks. MathWorks. , Available from: https://mathworks.com/academia/highschool/ (2020).
  22. Cran.R-Project.org. Cran.R-Project.org. , Available from: https://cran.r-project.org/manuals.html (2020).
  23. Liu, Y., Tian, C., Huang, Y. Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Tags

Beteende Operant konditionering kognition videoinspelning gnagare beteende Raspberry Pi DeepLabCut
Tracking Rats i Operant Conditioning Chambers med hjälp av en mångsidig hemlagad videokamera och DeepLabCut
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Clemensson, E. K. H., Abbaszadeh,More

Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter