Waiting
Login-Verarbeitung ...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Sporing rotter i Operant Conditioning Chambers ved hjælp af en alsidig hjemmelavet videokamera og DeepLabCut

Published: June 15, 2020 doi: 10.3791/61409

Summary

Denne protokol beskriver, hvordan man opbygger et lille og alsidigt videokamera, og hvordan man bruger videoer fra det til at træne et neuralt netværk til at spore placeringen af et dyr inde i operant conditioning kamre. Dette er et værdifuldt supplement til standardanalyser af datalogs fra operant conditioning tests.

Abstract

Operant conditioning kamre bruges til at udføre en bred vifte af adfærdsmæssige tests inden for neurovidenskab. De registrerede data er typisk baseret på udløsning af håndtag og næse-poke sensorer til stede inde i kamrene. Mens dette giver en detaljeret visning af, hvornår og hvordan dyr udfører visse reaktioner, kan det ikke bruges til at evaluere adfærd, der ikke udløser nogen sensorer. Som sådan er det sjældent muligt at vurdere, hvordan dyr positionerer sig og bevæger sig inde i kammeret. For at få disse oplysninger, forskere generelt nødt til at optage og analysere videoer. Producenter af operant conditioning kamre kan typisk forsyne deres kunder med høj kvalitet kamera opsætninger. Men, disse kan være meget dyrt og ikke nødvendigvis passer kamre fra andre producenter eller andre adfærdsmæssige test opsætninger. Den nuværende protokol beskriver, hvordan man opbygger en billig og alsidig videokamera ved hjælp af hobby elektronik komponenter. Den beskriver endvidere, hvordan man bruger billedanalysesoftwarepakken DeepLabCut til at spore status for et stærkt lyssignal samt en rottes position i videoer indsamlet fra et operant conditioning kammer. Førstnævnte er en stor hjælp, når du vælger korte segmenter af interesse for videoer, der dækker hele testsessioner, og sidstnævnte gør det muligt at analysere parametre, der ikke kan fås fra de datalogs, der produceres af operantkamrene.

Introduction

Inden for adfærdsmæssig neurovidenskab, forskere almindeligt bruger operant conditioning kamre til at vurdere en bred vifte af forskellige kognitive og psykiatriske træk i gnavere. Mens der er flere forskellige producenter af sådanne systemer, de typisk deler visse attributter og har en næsten standardiseret design1,2,3. Kamrene er generelt firkantede- eller rektangelformede, med en væg, der kan åbnes for at placere dyr inde, og en eller to af de resterende vægge, der indeholder komponenter såsom håndtag, næse-poke åbninger, belønning bakker, svar hjul og lys af forskellig art1,2,3. De lys ogsensorer,der er til stede i kamrene , anvendes både til at styre testprotokollen og sporedyrenes adfærd 1,2,,3,4,5. De typiske operantkonditioneringsanlæg giver mulighed for en meget detaljeret analyse af, hvordan dyrene interagerer med de forskellige operanda og åbninger, der findes i kamrene. Generelt kan alle tilfælde, hvor sensorer udløses, registreres af systemet, og fra disse data kan brugerne få detaljerede logfiler, der beskriver, hvad dyret gjorde under specifikke trin i testen4,5. Mens dette giver en omfattende repræsentation af et dyrs ydeevne, kan det kun bruges til at beskrive adfærd, der direkte udløser en eller flere sensorer4,5. Som sådan er aspekter vedrørende , hvordan dyret positionerer sig selv og bevæger sig inde i kammeret i forskellige faser aftesten,ikke godtbeskrevet 6,7,8,9,10. Dette er uheldigt, da sådanne oplysninger kan være værdifulde for fuldt ud at forstå dyrets adfærd. For eksempel kan det bruges til at præcisere, hvorfor visse dyr klarer sig dårligt på en given test6, til at beskrive de strategier, som dyr kan udvikle til at håndtere vanskeligeopgaver 6,,7,,8,,9,10, eller at værdsætte den sande kompleksitet angiveligt simple adfærd11,12. For at opnå sådanne artikulere oplysninger, forskere almindeligvis henvende sig til manuel analyseaf videoer 6,7,8,9,10,11.

Når du optager videoer fra operant conditioning kamre, valget af kameraet er kritisk. Kamrene er almindeligt placeret i isolation sengebåse, med protokoller ofte gør brug aftrin,hvor ingen synligt lys skinner3,6,7,8,9. Derfor er brugen af infrarød (IR) belysning i kombination med et IR-følsomt kamera nødvendig, da det giver synlighed selv i komplet mørke. Endvidere er den plads, der er til rådighed til at placere et kamera inde i isolationskabinen, ofte meget begrænset, hvilket betyder, at man har stor fordel af at have små kameraer, der bruger objektiver med et bredt synsfelt (f.eks. fiskeøjelinser)9. Mens producenter af operant conditioning systemer ofte kan levere høj kvalitet kamera opsætninger til deres kunder, kan disse systemer være dyrt og ikke nødvendigvis passer kamre fra andre producenter eller opsætninger til andre adfærdsmæssige tests. Men en bemærkelsesværdig fordel i forhold til at bruge enkeltstående videokameraer er, at disse opsætninger ofte kan interface direkte med operant conditioning systemer13,14. Gennem dette, kan de sættes op til kun at registrere specifikke begivenheder i stedet for fuld test sessioner, som i høj grad kan støtte i den analyse, der følger.

Den nuværende protokol beskriver, hvordan man opbygger en billig og alsidig videokamera ved hjælp af hobby elektronik komponenter. Kameraet bruger et fiskeøjeobjektiv, er følsomt over for IR-belysning og har et sæt IR-lysdioder (IR LED'er), der er knyttet til det. Desuden er det bygget til at have en flad og slank profil. Sammen gør disse aspekter den ideel til optagelse af videoer fra de fleste kommercielt tilgængelige operant conditioning kamre samt andre adfærdsmæssige test opsætninger. Protokollen beskriveryderligere,hvordan man behandler videoer opnået med kameraet, og hvordan man bruger softwarepakken DeepLabCut15,16 til at hjælpe med at udtrække videosekvenser af interesse samt spore et dyrs bevægelser deri. Dette delvist omgår draw-back for at bruge en stand-alone kamera over de integrerede løsninger, som operant producenter af konditioneringssystemer, og tilbyder et supplement til manuel scoring af adfærd.

Der er gjort en indsats for at skrive protokollen i et generelt format for at fremhæve, at den overordnede proces kan tilpasses videoer fra forskellige operant conditioning tests. For at illustrere visse nøglebegreber bruges videoer af rotter, der udfører 5-valg seriel reaktionstidstest (5CSRTT)17 som eksempler.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle procedurer, der omfatter dyrehåndtering, er godkendt af Malmö-Lunds etiske udvalg for dyreforsøg.

1. Opbygning af videokamera

BEMÆRK: Der findes en liste over de komponenter, der er nødvendige for at opbygge kameraet, i materialetabellen. Se også figur 1, Figur 2, Figur 3, Figur 4, Figur 5.

  1. Fastgør den magnetiske metalring (der følger med fiskeøjelinsepakken) omkring kameraets åbning (Figur 2A). Dette vil gøre det muligt fiskeøjelinsen, der skal placeres foran kameraet.
  2. Fastgør kameramodulet til kameraholderen (figur 2B). Dette vil give en vis stabilitet til kameraet modul og tilbyde en vis beskyttelse til de elektroniske kredsløb.
  3. Åbn kameraportene på kameramodulet og mikrocomputeren (Figur 1) ved forsigtigt at trække i kanterne af deres plastikclips (Figur 2C).
  4. Placer båndkablet i kameraportene, så sølvstikkene vender ud mod printpladerne (Figure2C). Lås kablet på plads ved at trykke kameraportenes plastikclips ind.
  5. Anvend mikrocomputeren i plastetuiet, og indsæt det anførte mikro-SD-kort( Figur 2D).
    BEMÆRK: Micro SD-kortet vil fungere som mikrocomputerens harddisk og indeholder et komplet operativsystem. Det anførte micro SD-kort leveres med en installationsstyring forudinstalleret på det (New Out of Box Software (NOOBS). Som et alternativ, kan man skrive et billede af den nyeste version af mikrocomputerens operativsystem (Raspbian eller Rasberry Pi OS) til en generisk mikro SD-kort. For støtte med dette, henvises til officielle web ressourcer18. Det er at foretrække at bruge en klasse 10 micro SD-kort med 32 Gb lagerplads. Større SD-kort er muligvis ikke fuldt kompatible med den angivne mikrocomputer.
  6. Tilslut en skærm, et tastatur og en mus til mikrocomputeren, og tilslut derefter dens strømforsyning.
  7. Følg trinene som bedt om af installationsvejledningen til at udføre en fuld installation af mikrocomputerens operativsystem (Raspbian eller Rasberry Pi OS). Når mikrocomputeren er startet op, skal du sikre dig, at den har forbindelse til internettet enten via et Ethernet-kabel eller Wi-Fi.
  8. Følg nedenstående trin for at opdatere mikrocomputerens forudinstallerede softwarepakker.
    1. Åbn et terminalvindue (Figur 3A).
    2. Skriv "sudo apt-get update" (eksklusive anførselstegn), og tryk på Enter -Figur 3B). Vent på, at processen afsluttes.
    3. Skriv "sudo apt full-upgrade" (undtagen anførselstegn), og tryk på Enter. Forefinde knapsvar, når du bliver bedt om det, og vent på, at processen afsluttes.
  9. Vælg Indstillinger og Raspberry Pi-konfigurationer ( Figur3C) under menuen Start . Preferences Gå til fanen Grænseflader i det åbnede vindue, og klik for at aktivere kameraet og I2C. Dette er nødvendigt for at få mikrocomputeren til at fungere med kamera- og IR LED-modulerne.
  10. Omdøb supplerende fil 1 til "Pi_video_camera_Clemensson_2019.py". Kopier det på en USB memory stick, og efterfølgende ind i mikrocomputeren 's / home / pi mappe (Figur 3D). Denne fil er et Python-script, som gør det muligt at lave videooptagelser med de knapkontakter, der er vedhæftet i trin 1.13.
  11. Følg nedenstående trin for at redigere mikrocomputerens rc.local-fil. Dette gør computeren starte scriptet kopieret i trin 1,10 og starte IR lysdioder vedlagt i trin 1,13, når den starter.
    FORSIGTIG: Denne auto-start funktion fungerer ikke pålideligt med andre mikrocomputerkort end den angivne model.
    1. Åbn et terminalvindue, skriv "sudo nano /etc/rc.local" (undtagen anførselstegn), og tryk på Enter. Dette åbner en tekstfil (Figur 4A).
    2. Brug tastaturets piletasterne til at flytte markøren ned til mellemrummet mellem "fi" og "exit 0" (Figur 4A).
    3. Tilføj følgende tekst som vist i Figur 4B, og skrivning af hver tekststreng på en ny linje:
      sudo i2cset -y 1 0x70 0x00 0xa5 &
      sudo i2cset -y 1 0x70 0x09 0x0f &
      sudo i2cset -y 1 0x70 0x01 0x32 &
      sudo i2cset -y 1 0x70 0x03 0x32 &
      sudo i2cset -y 1 0x70 0x06 0x32 &
      sudo i2cset -y 1 0x70 0x08 0x32 &
      sudo python /home/pi/Pi_video_camera_Clemensson_2019.py &
    4. Gem ændringerne ved at trykke på Ctrl + x efterfulgt af y og Enter.
  12. Lodde sammen de nødvendige komponenter som angivet i figur 5A, og som beskrevet nedenfor.
    1. For de to farvede lysdioder, vedhæfte en modstand og en kvindelig jumper kabel til det ene ben, og en kvindelig jumper kabel til den anden (Figur 5A). Prøv at holde kablerne så korte som muligt. Vær opmærksom på, hvilken af LED's elektroder der er den negative (typisk den korte), da dette skal forbindes til jorden på mikrocomputerens generelle input/output -stifter (GPIO).
    2. For de to knapkontakter fastgøres et kvindeligt jumperkabel til hvert ben (Figur 5A). Gør kablerne lange for en af kontakterne, og kort for den anden.
    3. Hvis du vil samle IR LED-modulet, skal du følge de instruktioner, der er tilgængelige på dets officiellewebressourcer 19.
    4. Dæk loddedeled med krympeslanger for at begrænse risikoen for kortslutning af komponenterne.
  13. Sluk for mikrocomputeren, og tilslut kontakterne og led'erne til gpio-stifterne som angivet i figur 5B, og beskrevet nedenfor.
    FORSIGTIG: Ledning af komponenterne til de forkerte GPIO-stifter kan beskadige dem og/eller mikrocomputeren, når kameraet er tændt.
    1. Tilslut en LED, så dens negative ende forbinder til pin #14 og dens positive ende forbinder til pin #12. Denne LED vil skinne, når mikrocomputeren er startet op, og kameraet er klar til brug.
    2. Tilslut knapkontakten med lange kabler, så det ene kabel tilsluttes til pin #9 og det andet for at fastgøre #11. Denne knap bruges til at starte og stoppe videooptagelserne.
      BEMÆRK: Det script, der styrer kameraet, er blevet skrevet, så denne knap ikke svarer i et par sekunder lige efter at have startet eller stoppet en videooptagelse.
    3. Tilslut en LED, så dens negative ende forbinder til pin #20 og dens positive ende forbinder til pin #13. Denne LED vil skinne, når kameraet optager en video.
    4. Tilslut knapkontakten med de korte kabler, så det ene kabel tilsluttes til pin #37 og det andet for at fastgøre #39. Denne kontakt bruges til at slukke for kameraet.
    5. Tilslut IR LED-modulet som beskrevet i dets officielle webressourcer19.

2. Design af operant conditioning protokol af interesse

BEMÆRK: For at bruge DeepLabCut til at spore protokolprogressionen i videoer optaget fra operantkamre skal de adfærdsmæssige protokoller struktureres på bestemte måder, som forklaret nedenfor.

  1. Indstil protokollen til at bruge kammerets hus lys, eller en anden stærk lyssignal, som en indikator for et bestemt trin i protokollen (såsom starten af individuelle forsøg, eller testsession) (Figur 6A). Dette signal vil blive omtalt som "protokol trin indikator" i resten af denne protokol. Tilstedeværelsen af dette signal vil gøre det muligt at spore protokol progression i de optagede videoer.
  2. Indstil protokollen til at registrere alle svar af interesse med individuelle tidsstempler i forhold til, hvornår protokoltrinindikatoren bliver aktiv.

3. Optagelse af videoer af dyr, der udfører adfærdsmæssige test af interesse

  1. Placer kameraet oven på operantkamrene, så det optager en topvisning af området indeni (Figur 7).
    BEMÆRK: Dette er særligt velegnet til at opfange en dyrenes generelle position og kropsholdning inde i kammeret. Undgå at placere kameraets indikatorlamper og IR LED-modulet tæt på kameralinsen.
  2. Start kameraet ved at slutte det til en stikkontakt via strømforsyningskablet.
    BEMÆRK: Før første brug er det en fordel at indstille kameraets fokus ved hjælp af det lille værktøj, der følger med kameramodulet.
  3. Brug den knap, der er tilsluttet i trin 1.13.2, til at starte og stoppe videooptagelser.
  4. Sluk kameraet ved at følge disse trin.
    1. Tryk på og hold den knap nede, der er tilsluttet i trin 1.13.4, indtil LED'en, der er tilsluttet i trin 1.13.1, slukkes. Dette indleder kameraets nedlukningsproces.
    2. Vent, indtil den grønne LED synlig oven på mikrocomputeren (Figur 1) er holdt op med at blinke.
    3. Fjern kameraets strømforsyning.
      FORSIGTIG: Hvis du frakobler strømforsyningen, mens mikrocomputeren stadig kører, kan det forårsage beskadigelse af dataene på mikro-SD-kortet.
  5. Tilslut kameraet til en skærm, tastatur, mus og USB-lagerenhed, og hent videofilerne fra skrivebordet.
    BEMÆRK: Filerne navngives i henhold til den dato og det klokkeslæt, hvor videooptagelsen blev startet. Mikrocomputeren har dog ikke et internt ur og opdaterer kun sin tidsindstilling, når den er tilsluttet internettet.
  6. Konverter de optagede videoer fra .h264 til . MP4, da sidstnævnte fungerer godt med DeepLabCut og de fleste medieafspillere.
    BEMÆRK: Der er flere måder at opnå dette på. Den ene er beskrevet i supplerende fil 2.

4. Analyse af videoer med DeepLabCut

BEMÆRK: DeepLabCut er en softwarepakke, der giver brugerne mulighed for at definere ethvert objekt af interesse i et sæt af videorammer, og efterfølgende bruge disse til at træne en neurale netværk i sporing af objekter positioner i fuld længde videoer15,16. Dette afsnit giver en grov skitse til, hvordan man bruger DeepLabCut til at spore status for protokollen trin indikator og placeringen af en rotte hoved. Installation og brug af DeepLabCut er godt beskrevet i andre offentliggjorte protokoller15,16. Hvert trin kan gøres gennem specifikke Python kommandoer eller DeepLabCut's grafiske brugergrænseflade, som beskrevet andetsteds15,16.

  1. Opret og konfigurer et nyt DeepLabCut-projekt ved at følge de trin, der er beskreveti 16.
  2. Brug DeepLabCut's ramme sensationsprægede funktion til at udtrække 700 \u2012900 videobilleder fra en eller flere af de videoer optaget i afsnit 3.
    BEMÆRK: Hvis dyrene afviger betydeligt i pels pigmentering eller andre visuelle egenskaber, er det tilrådeligt, at 700 \ u2012900 udvundet videorammer er opdelt på tværs af videoer af forskellige dyr. Gennem dette kan et uddannet netværk bruges til at spore forskellige personer.
    1. Sørg for at medtage videobilleder, der viser både den aktive (Figur 8A) og den inaktive(Figur 8B)tilstand for protokoltrinindikatoren.
    2. Sørg for at inkludere videorammer, der dækker de forskellige positioner, stillinger og hovedbevægelser, som rotten kan vise under testen. Dette bør omfatte videobilleder, hvor rotten står stille i forskellige områder af kammeret, med hovedet peger i forskellige retninger, samt videobilleder, hvor rotten aktivt bevæger sig, ind næse poke åbninger og ind i pellet trug.
  3. Brug DeepLabCut's Mærkning Værktøjskasse til manuelt at markere placeringen af rottens hoved i hver video ramme udvundet i trin 4.2. Brug musemarkøren til at placere en "hoved"-etiket i en central position mellem rottens ører (Figur 8A,B). Desuden markere placeringen af kammerets hus lys (eller anden protokol trin indikator) i hver video ramme, hvor det er aktivt skinner (Figur 8A). Lad husets lys være umærket i rammer, hvor det er inaktivt (Figur 8B).
  4. Brug DeepLabCut's "skabe uddannelse datasæt" og "tog netværk" funktioner til at skabe en uddannelse datasæt fra video frames mærket i trin 4.3 og starte uddannelsen af en neurale netværk. Sørg for at vælge "resnet_101" for den valgte netværkstype.
  5. Stop uddannelsen af netværket, når uddannelsestabet har plateaued under 0,01. Dette kan tage op til 500.000 trænings iterationer.
    BEMÆRK: Når du bruger en GPU-maskine med ca. 8 GB hukommelse og et træningssæt på ca. 900 videorammer (opløsning: 1640 x 1232 pixel), har træningsprocessen vist sig at tage ca. 72 timer.
  6. Brug DeepLabCut's video analyse funktion til at analysere videoer indsamlet i trin 3, ved hjælp af neurale netværk uddannet i trin 4.4. Dette vil give en .csv fil med en liste over de sporede positioner af rottens hoved og protokollen trin indikator i hver video ramme af de analyserede videoer. Desuden vil det skabe markerede videofiler, hvor de sporede positioner vises visuelt (Videoer 1-8).
  7. Vurder nøjagtigheden af sporingen ved at følge nedenstående trin.
    1. Brug DeepLabCuts indbyggede evalueringsfunktion til at opnå en automatisk evaluering af netværkets sporingsnøjagtighed. Dette er baseret på de videobilleder, der var mærket i trin 4.3, og beskriver, hvor langt væk den position, der spores af netværket, i gennemsnit er fra den manuelt placerede etiket.
    2. Vælg en eller flere korte videosekvenser (på ca. 100\u2012200 videobilleder hver) i de markerede videoer, der blev opnået i trin 4.6. Gennemgå videosekvenserne, billede for billede og noter, hvor mange rammer etiketterne korrekt angiver placeringen af rottens hoved, hale osv., og i hvor mange rammer etiketterne er placeret i fejlagtige positioner eller ikke vist.
      1. Hvis etiketten på en kropsdel eller et legemabel ofte går tabt eller placeres i en forkert position, skal du identificere de situationer, hvor sporingen mislykkes. Uddrag og tilføj mærkede rammer af disse lejligheder ved at gentage trin 4.2. og 4.3. Derefter omskole netværket og reanalysere videoerne ved at gentage trin 4.4-4.7. I sidste ende bør sporingsnøjagtigheden på >90 % nøjagtighed opnås.

5. Indhentning af koordinater for interessepunkter i operantkamrene

  1. Brug DeepLabCut som beskrevet i trin 4.3 til manuelt at markere interessepunkter i operantkamrene (såsom næseproppeåbninger, håndtag osv.) i et enkelt videobillede (Figur 8C). Disse vælges manuelt afhængigt af studiespecifikke interesser, selv om placeringen af protokoltrinindikatoren altid bør medtages.
  2. Hent koordinaterne for de markerede interessepunkter fra .csv-filen, som DeepLabCut automatisk gemmer under "mærkede data" i projektmappen.

6. Identifikation af videosegmenter, hvor protokoltrinindikatoren er aktiv

  1. Indlæs .csv-filerne fra DeepLabCut-videoanalysen i trin 4.6 i en efter eget valg software til datastyring.
    BEMÆRK: På grund af mængden og kompleksiteten af data fra DeepLabCut og operant conditioning systemer, datastyring sker bedst gennem automatiserede analyse scripts. For at komme i gang med dette, henvises til entry-level vejledninger til rådighed andresteder 20,,21,22.
  2. Bemærk, hvor videosegmenter protokoltrinindikatoren spores inden for 60 pixel af den position, der er opnået i afsnit 5. Det vil være perioder, hvor protokoltrinindikatoren er aktiv (figur 6B).
    BEMÆRK: Under videosegmenter, hvor protokoltrinindikatoren ikke skinner, kan den markerede video synes at indikere, at DeepLabCut ikke sporer den til nogen position. Dette er dog sjældent tilfældet, og det spores i stedet typisk til flere spredte placeringer.
  3. Udtræk det nøjagtige udgangspunkt for hver periode, hvor protokoltrinindikatoren er aktiv (Figur 6C: 1).

7. Identifikation af videosegmenter af interesse

  1. Overvej de punkter, hvor protokoltrinindikatoren bliver aktiv (figur 6C: 1) og tidsstemplerne for besvarelse, der er registreret af operantkamrene (afsnit 2, figur 6C: 2).
  2. Brug disse oplysninger til at afgøre, hvilke videosegmenter der dækker specifikke interessante begivenheder, f.eks.Figure 6C
    BEMÆRK: For dette, huske på, at kameraet er beskrevet heri optager videoer på 30 fps.
  3. Bemærk de specifikke videobilleder, der dækker disse begivenheder af interesse.
  4. (Valgfrit) Rediger videofiler med hele testsessioner, så de kun omfatter de specifikke segmenter af interesse.
    BEMÆRK: Der er flere måder at opnå dette på. Den ene er beskrevet i supplerende fil 2 og 3. Dette hjælper i høj grad, når du gemmer et stort antal videoer og kan også gøre gennemgang og præsentation af resultater mere bekvemt.

8. Analyse af et dyrs position og bevægelser under specifikke videosegmenter

  1. Delmængde den fulde tracking data af hovedet position opnået fra DeepLabCut i trin 4.6 til kun at omfatte video segmenter noteret under afsnit 7.
  2. Dyrets hoveds hoved beregnes i forhold til et eller flere af de referencepunkter, der er valgt i henhold til afsnit 5 (Figur 8C). Dette gør det muligt at sammenligne sporing og placering på tværs af forskellige videoer.
  3. Udføre relevant dybdegående analyse af dyrets position og bevægelser.
    BEMÆRK: Den specifikke analyse, der udføres, vil være stærkt studiespecifik. Nogle eksempler på parametre, der kan analyseres, er angivet nedenfor.
    1. Visualiser kurvespor ved at afbilde alle koordinater, der er registreret i en valgt periode inden for én graf.
    2. Analysér nærheden til et givet interessepunkt ved hjælp af følgende formel:
      Equation 1
    3. Analysér ændringer i hastighed under en bevægelse ved at beregne afstanden mellem sporede koordinater i sammenhængende rammer og dividere med 1/fps af kameraet.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Videokameras ydeevne

De repræsentative resultater blev samlet i operant conditioning kamre for rotter med gulvarealer på 28,5 cm x 25,5 cm, og højder på 28,5 cm. Med fiskeøjelinsen fastgjort, kameraet fanger hele gulvareal og store dele af de omkringliggende vægge, når de placeres over kammeret (Figur 7A). Som sådan kan en god udsigt opnås, selv om kameraet er placeret off-center på kammerets top. Dette bør være tilfældet for sammenlignelige operant kamre. IR-LED'erne er i stand til at belyse helekammeret (figur 7B,C), hvilket giver et godt udsyn, selv når alle andre lys inde i kammeret er slukket (Figur 7C). Men belysningen i sådanne situationer er ikke helt lige, og kan resultere i nogle vanskeligheder med at opnå præcis sporing. Hvis en sådan analyse er af interesse, kan der være behov for yderligere kilder til infrarød belysning. Det er også værd at bemærke, at nogle kamre bruger metal slippe pander til at indsamle urin og afføring. Hvis kameraet er placeret direkte over sådanne overflader, vil stærke refleksioner af IR-led'ernes lys være synlige i de optagede videoer (Figur 7B). Dette kan dog undgås ved at placere papirservietter i den faldende gryde, hvilket giver et meget forbedret image (Figur 7C). Hvis kameraets IR eller farvede LED'er placeres for tæt på kameralinsen, kan det medføre, at de er synlige i billedets periferi (Figur 7B). Da kameraet er IR følsomme, eventuelle IR lyskilder, der er til stede inde i kamrene kan være synlige i videoerne. For mange opsætninger, vil dette omfatte den kontinuerlige skinnende af IR stråle pause sensorer (Figur 7C). Den kontinuerlige belysning fra kameraets IR-led'er forstyrrer ikke billedkvaliteten i veloplyste kamre (figur 7D). Størrelsen af de videoer optaget med kameraet er ca 77 Mb / min. Hvis der bruges et 32 Gb micro SD-kort til kameraet, skal der være ca. 20 Gb til rådighed efter installationen af operativsystemet. Dette giver plads til ca. 260 min af optagede optagelser.

Fiskeøjelinsen får kameraet til at have et lidt ujævnt fokus, der er skarpt i midten af billedet, men reduceret skarphed mod kanterne. Dette synes ikke at påvirke nøjagtigheden af sporing. Desuden fiskeøje linse resulterer i det optagede billede bliver forvrænget. For eksempel vil afstandene mellem lige store punkter langs lige linjer vise kunstigt reduceret afstand mod billedets periferi (Figur 9A,B). Hvis kameraet anvendes til applikationer, hvor det meste af synsfeltet eller absolutte målinger af afstand og hastighed er af interesse, er det værd at overveje at korrigere dataene for denne forvrængning23 (supplerende fil 4). Forvrængningen er dog relativt mild i midten af billedet (Figur 9B). For videoer samlet i vores operant kammer, er det område af interesse begrænset til den centrale 25% af kameraets synsfelt. Inden for dette område er effekten af fiskeøjeforvrængningen minimal (figur 9C\u2012F).

Nøjagtigheden af sporing med DeepLabCut

De vigtigste faktorer, der vil bestemme sporingsnøjagtigheden af et uddannet netværk er (i) antallet af mærkede rammer i sit træningsdatasæt, (ii) hvor godt disse mærkede rammer fange adfærd interesse og (iii) antallet af uddannelse iterationer anvendes. DeepLabCut indeholder en evalueringsfunktion, som rapporterer et estimat over, hvor langt væk (i antal pixels) dens sporing kan forventes at være fra et objekts faktiske placering. Dette giver dog ikke nødvendigvis en god beskrivelse af antallet af rammer, hvor et objekt går tabt og/eller er forkert mærket (figur 10A), hvilket medfører, at der er behov for yderligere manuel vurdering af sporingsnøjagtigheden.

Til analyse af adfærd inde i et operantkammer bør et veluddannet netværk muliggøre nøjagtig identifikation af alle hændelser, hvor protokoltrinindikatoren er aktiv. Hvis ikke, kan det være nødvendigt at omskole netværket eller vælge en anden indikator. På trods af et veluddannet netværk kan sporing af protokoltrinindikatoren til tider blive afbrudt af dyr, der blokerer kameraets syn (Figur 10B). Dette vil medføre brud i sporingen, der minder om episoder, hvor indikatoren er inaktiv. Hyppigheden af dette sker, vil afhænge af animalsk stamme, type adfærdsmæssige protokol og valg af protokol trin indikator. I eksempeldataene fra 5CSRTT, der bruges her, skete det på fire ud af 400 forsøg (data blev ikke vist). Alle lejligheder var let identificerbare, da deres varighed ikke svarede til varigheden af pausetrinnet, der var medtaget i protokoldesignet (Figur 6A). I sidste ende, at vælge en indikator, der er placeret højt oppe i kammeret og væk fra komponenter, som dyr interagerer med, vil sandsynligvis være nyttigt.

Et veluddannet netværk bør give > 90% nøjagtighed, når sporing et dyrs hoved under video segmenter af interesse (Video 1). Med dette skal kun en lille delmængde af videobilleder udelukkes fra den efterfølgende analyse, og brugbare sporingsdata kan hentes fra stort set alle forsøg i en testsession. Nøjagtig sporing kan tydeligt identificeres ved markører efter et dyr i hele dets bevægelser (Video 2) og afbildede stier vises glat (Figur 10C). I modsætning hertil er unøjagtig sporing karakteriseret ved markører, der ikke opholder sig pålideligt på målet (Video 3) og ved afbildede stier, der vises takkede (Figur 10D). Sidstnævnte er forårsaget af objektet spores til fjerne fejlagtige positioner i enkelt videobilleder inden sekvenser af nøjagtig sporing. Som et resultat af dette, unøjagtige sporing typisk forårsager pludselige ændringer i beregnede bevægelseshastigheder (Figur 10E). Dette kan bruges til at identificere videobilleder, hvor sporing er unøjagtig, for at udelukke dem fra efterfølgende analyse. Hvis der er betydelige problemer med sporingsnøjagtigheden, bør de tilfælde, hvor sporingen mislykkes, identificeres, og netværket bør omskoles ved hjælp af et udvidet træningssæt, der indeholder mærkede videobilleder af disse begivenheder (figur 10A, E).

Brug af videosporing som supplement til analyse af operantadfærd

Analyse af, hvordan et dyr bevæger sig og positionerer sig under operanttest, vil give flere indsigter i den komplekse og mangesidede karakter af deres adfærd. Ved at spore, hvor et dyr befinder sig under en testsession, kan man vurdere, hvordan forskellige bevægelsesmønstre relaterer til ydeevnen (figur 11A,B). Ved yderligere at undersøge hovedbevægelser under specifikke protokoltrin kan man registrere og karakterisere brugen af forskellige strategier (Figur 11C\u2012E).

For at eksemplificere skal du overveje de repræsentative data, der præsenteres for rotter, der udfører 5CSRTT-testen (figur 6A, figur 11). I denne test, dyr præsenteres med flere forsøg, der hver starter med en 5 s ventetrin (inter-trial interval - ITI) (Figur 6A:1). I slutningen af dette, vil et lys skinne inde i en af næsen stikke åbninger (tilfældigt valgt position på hvert forsøg, Figur 6A: 2). Næse-stikke ind i cued åbning betragtes som en korrekt reaktion og belønnes(Figur 6A:3). Det anses for forkert at svare på en anden åbning. Undlade at reagere inden for 5 s efter præsentationen af lyset betragtes som en udeladelse. Tracking hoved bevægelser under ITI af denne test har vist, at på forsøg, hvor rotter udføre en reaktion, de er hurtige til at bevæge sig mod området omkring næsen stikke åbninger (Figur 11A, B, Video 4). I modsætning hertil, på de fleste udeladelse forsøg, rotterne undlader at nærme sig området omkring åbningerne (Figur 11B, Video 5). Denne adfærd er i overensstemmelse med den almindelige fortolkning af udeladelser, der er tæt forbundet med en lav motivation til at udføre testen3,16. Men på en delmængde af udeladelsesforsøg (ca. 20% af det nuværende datasæt) viste rotterne et klart fokus mod åbningerne(Figur 11B, Video 6), men undlod at bemærke den nøjagtige placering af cued-åbningen. Dataene viser således, at der er mindst to forskellige typer udeladelser, en relateret til en mulig manglende interesse i den igangværende retssag, og en anden, der er mere afhængig af utilstrækkelig visuospatial opmærksomhed3. Head tracking kan også bruges til at skelne tilsyneladende strategier. Som et eksempel, to forskellige opmærksomhedsstrategier blev afsløret, når man analyserer, hvordan rotterne bevæger sig, når de er i nærheden af næsen stikke åbninger i løbet af 5CSRTT(Figur 11C \ u2012E). I den første strategi, rotter viste en yderst fokuseret tilgang, opretholde en central position i det meste af ITI (Figur 11C, Video 7). I modsætning hertil rotter vedtage den anden strategi konstant flyttet deres hoveder mellem de forskellige åbninger i en søgning-lignende måde (Figur 11D, Video 8). Denne type adfærdsmæssige forskelle kan nemt kvantificeres ved at beregne den tid, der bruges i nærheden af de forskellige åbninger (Figur 11E). Endelig kan det ved at analysere, hvilken åbning rotten der er tættest på på tidspunktet for præsentation af cue-lys (figur 11F), påvises, at det at være i en central position (figur 11G) og/eller tæt på placeringen af den åbne åbning (figur 11H) synes at være gavnligt for den nøjagtige ydeevne på testen.

Figure 1
Figur 1: Skitse af den angivne mikrocomputer. Den skematiske viser placeringen af flere komponenter af interesse på mikrocomputer bundkortet. Disse er markeret med cirkeltal som følger: 1: Stik til kamerabåndskabel; 2: LED-lys, der angiver, når computeren kører; 3: Micro USB til strømkabel; 4: Micro USB til mus/tastatur; 5: Generelle input / output stifter (GPIO stifter), disse stifter bruges til at forbinde mikrocomputer til lysdioder, afbrydere, og IR LED modul; 6: Mini HDMI-udgang; 7: Micro SD-kort slot. I den nederste del af figuren vises en beskåret og forstørret del af GPIO-stifterne for at angive, hvordan de skal tælles med for at identificere placeringen af en bestemt nål korrekt. Klik her for at se en større version af dette tal.

Figure 2
Figur 2: Opbygning af kameraets hoveddele. Tallene illustrerede de vigtigste trin til opbygning af kroppen af kameraet. (A)Fastgør den magnetiske metalring til kamerastabelken. (B)Fastgør kameramodulet til kameraholderen. (C) Tilslut kameramodulet til mikrocomputeren via det flade båndkabel. Bemærk de hvide pile, der angiver, hvordan du åbner og lukker de kameraporte, der er til stede på både mikrocomputeren og kameramodulet. (D) Sæt mikrocomputeren i plasthuset, og indsæt et mikro-SD-kort. Klik her for at se en større version af dette tal.

Figure 3
Figur 3: Opdatering af mikrocomputerens operativsystem og aktivering af eksterne enheder. Figuren viser fire forskellige skærmbilleder, der viser mikrocomputerens brugergrænseflade. (A) Terminal vinduer kan åbnes ved at klikke på "terminal" ikonet i øverste venstre hjørne af skærmen. (B) I terminalen kan man skrive forskellige typer kommandoer, som beskrevet i protokolteksten. Skærmbilledet viser kommandoen til opdatering af systemets softwarepakker. (C) Skærmbilledet viser, hvordan man navigerer til konfigurationsmenuen, hvor man kan aktivere brugen af kameramodulet og I2C GPIO-stifterne. (D) Skærmbilledet viser mappen /home/pi, hvor kamerascriptet skal kopieres i trin 1.10 i protokollen. Vinduet åbnes ved at klikke på det angivne ikon i øverste venstre hjørne af skærmen. Klik her for at se en større version af dette tal.

Figure 4
Figur 4: Konfiguration af mikrocomputerens rc.local-fil. Figuren viser to skærmbilleder af mikrocomputerens rc.local-fil, når den åbnes gennem terminalen som beskrevet i trin 1.11.1. (A) Et skærmbillede af rc.local-filen i det oprindelige format. Pilen angiver det rum, hvor teksten skal indtastes for at aktivere kameraets automatiske startfunktion. (B)Et skærmbillede af rc.local fil, efter at det er blevet redigeret til at skinne IR lysdioder og starte python script styre kameraet ved opstart af mikrocomputer. Klik her for at se en større version af dette tal.

Figure 5
Figur 5: Tilslutning af kontakter og lysdioder til mikrocomputerens GPIO-stifter. (A) Skematisk viser en knapkontakt med kvindelige jumperkabler (øverst) og en LED med modstand og kvindelige jumperkabler (nederst). (1) Knapkontakt, (2) kvindelige jumperkabler, (3) LED, (4) modstand. (B) Skematisk billede, der viser, hvordan de to knapkontakter, de farvede lysdioder og IR LED-brættet er forbundet til mikrocomputerens GPIO-stifter. Blå kabler og GPIO stifter angiver jorden. Placeringen af to GPIO-stifter er angivet i figuren (GPIO-stifter #2 og #40): (1) Knap til start/stop af videooptagelse. (2) LED, der angiver, når der optages video. (3) Knap til at slukke kameraet. (4) LED, der angiver, når kameraet er startet op og er klar til brug. (5) IR LED-modul. Bemærk, at kredsløb med lysdioder også indeholder 330 Ω-modstande. Klik her for at se en større version af dette tal.

Figure 6
Figur 6: Brug DeepLabCut sporing af protokol trin indikator til at identificere sekvenser af interesse i fuld længde videoer. (A) Skematisk af trinene i et enkelt forsøg i 5-valg seriel reaktionstid test (5CSRTT): (1) For det første er der en kort ventetid (ITI). Arrow angiver et aktivt skinnende hus lys. (2) I slutningen af ITI, vil et lys skinne i en af de fem næse poke åbninger (pil). (3) Hvis en rotte reagerer præcist ved at udføre en næse stikke ind i cued åbning, en belønning leveres (pil). (4) Rotten har lov til at hente belønningen. (5) For at muliggøre brugen af husets lys som en protokol trin indikator, en kort pause trin, hvor huset lys er slukket (pil) er gennemført, før den næste retssag begynder. Bemærk, at husets lys skinner under de efterfølgende trin i retssagen. (B) Et eksempel graf skildrer x-koordinat af det aktive hus lys, som spores af DeepLabCut, under en video segment af en 5CSRTT test. Under segmenter, hvor huslyset skinner (indikator aktiv - 1), spores positionen til et ensartet og stabilt punkt (bemærk også den røde markør (angivet med pil) i eksempelvideorammen), der kan sammenlignes med huslysets position i figur 8C (x, y: 163, 503). Under segmenter, hvor husets lys ikke skinner (indikator inaktiv - 2, bemærk den hvide pil i eksemplet videoramme), den sporede position er ikke stabil, og langt væk fra huset lys faktiske koordinat. (C) Tabel 1 viser et eksempel på forarbejdet output fra DeepLabCut-sporing af en protokoltrinindikator. I dette output er udgangspunktet for hver gang, indikatoren er aktiv, angivet. Tabel 2 viser et eksempel på data fra det operant konditioneringssystem, der giver relevante oplysninger om de enkelte forsøg. I dette eksempel er varigheden af ITI, placeringen af cued åbning og latencies til at udføre et svar og hente belønningen blevet registreret. Tabel 3 viser et eksempel på data, der er opnået ved at flette sporingsresultater fra DeepLabCut og data optaget fra det operantkonditioneringssystem. Gennem dette er videobillederne for startpunktet for ITI (trin 1 i A), udgangspunktet for cue light-præsentationen (trin 2 i A), svaret (trin 3 i A) og hentning (trin 4 i A) for et eksempel forsøg opnået. (D) Et eksempel graf skildrer x-koordinat af huset lys, som spores af DeepLabCut, under en filmet 5CSRTT retssag. De forskellige trin i protokollen er angivet: (1) ITI; 2) præsentation af en cue lys (position angivet med hvid pil); 3) reaktion (4) belønning hentning. Identifikationen af videobilleder, der viser starten og stop af disse forskellige protokoltrin, blev udført gennem en proces, der kan sammenlignes med den, der er angivet i D. Klik her for at se en større version af dette tal.

Figure 7
Figur 7: Kameraets billedegenskaber. (A) Ubeskronet billede fra et kamera placeret oven på et operant conditioning kammer. Billedet blev taget, mens kammeret blev placeret i et stærkt oplyst rum. Bemærk (1) hus lys og (2) belønning pellet trug langs kammerets venstre væg og (3) rækken af fem næse stikke åbninger langs kammerets højre væg. Hver næse poke åbning indeholder en lille cue lys. (B) Ubeskronet billede, der viser den stærke refleksion forårsaget af (1) metal slippe pan, samt refleksioner forårsaget af sub-optimal positionering af kameraets (2) indikator lysdioder og (3) IR LED modul. (C) Beskåret billede af kammeret i komplet mørke. Bemærk, at lysene fra IR-strålens bruddetektorer i de fem næsestædåbninger langs kammerets højre væg er tydeligt synlige (pil). (D) Beskåret billede af kammeret, når stærkt oplyst. Klik her for at se en større version af dette tal.

Figure 8
Figur 8: Positionssporing af protokoltrinindikator og kropsdele af interesse. (A) Billedet viser placeringen af en protokol trin indikator (rød) samt hovedet (gul) og hale (grøn) af en rotte, som spores af DeepLabCut. Som det fremgår af sporingen af det oplyste hus lys, er videorammen taget fra et øjebliksbillede af en aktiv retssag. (B) Billedet viser placeringen af hovedet (gul) og hale (grøn) som sporet af DeepLabCut i et øjeblik, hvor et forsøg ikke er aktiv. Bemærk manglen på hus lys sporing. c)de interessepunkter , der anvendes ved analysen af de data , der er vist i figur 6 og figur 11; (1) House lys, i dette tilfælde bruges som protokol trin indikator, (2 \u20126) Næse poke åbninger #1 \ u20125. Klik her for at se en større version af dette tal.

Figure 9
Figur 9: Billedforvrængning fra fiskeøjelinsen. (A) Billede af en checker-board mønster med samme størrelse og afstand sort og hvid firkanter taget med kameraet er beskrevet i denne protokol. Billedet blev taget i en højde, der kan sammenlignes med den, der blev brugt ved optagelse af videoer fra operant conditioning kamre. Sorte firkanter langs de centrale vandrette og lodrette linjer er markeret med DeepLabCut. (B) Graf, der viser, hvordan afstanden mellem de markerede firkanter i (A) ændres med nærhed til billedcentret. (C) Billede af målinger, der er foretaget for at vurdere virkningen af fiskeøjeforvrængningseffekt på videoer indsamlet fra operantkamre. Hjørner og midtpunkter langs kanten af gulvarealet, den centrale position af hver enkelt gulv rung og placeringen af de fem næse poke åbninger er blevet angivet med DeepLabCut (farvede prikker); (1) afstand af gulv trin, (2) bredde kammergulv langs midten af kammeret, (3) afstand af næse stikke åbninger. (D) Afstand mellem gulv trin (gennemsnit for hvert sæt af tre på hinanden følgende trin), nummereret fra venstre mod højre i (C). Der er en lille effekt af fiskeøjeforvrængning, hvilket resulterer i, at de centrale trin er fordelt ca. 3 pixels (8 %) længere fra hinanden end trin, der er placeret i kanterne af kammergulvet. (E) Bredden af kammergulvet i (C) målt ved venstre og højre kant samt midtpunkt. Der er en lille effekt af fiskeøjeforvrængningen, hvilket resulterer i, at bredden målt ved midtpunktet er ca. 29 pixels (5%) længere end de andre målinger. (F) Afstand af næse stikke åbninger i (C), nummereret fra toppen af billedet. Der er en lille effekt af fiskeøjeforvrængningen, hvilket resulterer i, at afstanden mellem de centrale tre åbninger (H2, H3, H5) er ca. 5 pixels (4%) større end afstanden mellem H1-H2 og H4-H5. For D-F blev der indsamlet data fra fire videoer, og grafer viser gruppe gennemsnitlig + standardfejl. Klik her for at se en større version af dette tal.

Figure 10
Figur 10: Gennemgang af nøjagtigheden af DeepLabCut-sporing. (A) En tabel notering uddannelse oplysninger om to neurale netværk uddannet til at spore rotter i operant kamre. Netværksnetværk #1 et mindre træningsdatasæt, men et stort antal træningsgentagelser sammenlignet med netværks- #2. Begge netværk opnåede en lav fejlscore fra DeepLabCuts evalueringsfunktion (DLC-testfejl) og viste et lavt træningstab mod slutningen af træningen. På trods af dette, Network #1 viste meget dårlig tracking nøjagtighed ved manuel evaluering af markerede video frames (målt nøjagtighed, anslået fra 150 videobilleder, der dækker et videosegment sammenlignes med dem i Video 2 og Video 3). Netværksovervågning #2 den forbedrede version af Network #1, efter at have inkluderet yderligere videobilleder af aktivt at flytte rotter ind i træningsdatasættet, som beskrevet i (E). (B) Billede af en rotte, der opdrætr op og dækker kammerets huslys (figur 7A) med hovedet, hvilket forstyrrer sporingen af det. (C) Videoramme, der opfanger et svar under et 5CSRTT-forsøg (Figur 6A: 3). Hovedets bevægelsessti under reaktionen og den foregående ITI er blevet overlejret på billedet med gult. Sporingen anses for at være nøjagtig. Bemærk den jævne sporing under bevægelser (hvid pil). En tilsvarende video er tilgængelig som Video 2. Netværksregistrering #2 (se A) blev brugt til sporing. (D) Videoramme, der opfanger et svar under et 5CSRTT-forsøg (Figur 6A:3). Hovedets bevægelsessti under reaktionen og den foregående ITI er blevet overlejret på billedet med gult. Data vedrører den samme prøveversion som vist i (C), men analyseret med Network #1 (se A). Sporingen anses for at være unøjagtig. Bemærk kurvens takkede udseende med flere lige linjer (hvide pile), forårsaget af lejlighedsvis sporing af hovedet til fjerne fejlagtige positioner (sorte pile). En tilsvarende video er tilgængelig som Video 3. (E) Graf, der viser de dynamiske ændringer i hovedsporingens bevægelseshastighed i (C) og (D). Kan identificeres i grafen er tre store bevægelser ses i Video 2 og 3, hvor rotten først vender sig til ansigt næsen stikke åbninger (første tur), gør en lille justering for yderligere at nærme sig dem (justering), og endelig udfører et svar. Hastighedsprofilen for den gode sporing, der opnås af Network #2 (A), viser jævne kurver med ændringer i bevægelseshastigheden (blå pile), hvilket indikerer en nøjagtig sporing. Hastighedsprofilen for den dårlige sporing, der opnås af Network #1 (A), viser flere pludselige stigninger i bevægelseshastigheden (røde pile), der indikerer lejlighedsvise sporingsfejl i enkelte videobilleder. Det er værd at bemærke, at disse sporingsproblemer specifikt opstår under bevægelser. For at rette op på dette blev det indledende træningssæt, der blev brugt til at træne Network #1, udvidet med en stor mængde videobilleder, der skildrer aktivt bevægende rotter. Dette blev efterfølgende brugt til at træne Network #2, som effektivt fjernet denne tracking problem. Klik her for at se en større version af dette tal.

Figure 11
Figur 11: Brug af positionssporing gennem DeepLabCut som supplement til den adfærdsmæssige analyse af operant conditioningtest. (A) En topvisning af indersiden af et operant konditioneringskammer. Tre områder af kammeret er angivet. Området tæt på belønningspilletruget (Pellet), det centrale kammerområde (Center) og området omkring næsen stikker åbninger (Åbninger). (B) En graf, der viser den relative mængde tid, rotter tilbringer i de tre forskellige områder af det i (A) skitserede operakammer under ITI-trinnet i 5CSRTT. Bemærk, at på forsøg med en reaktion, rotter i første omgang tendens til at være placeret tæt på pellet trug (sort) og kammer center (grå), men som ITI skrider frem, de skifter i retning af positionering sig omkring næsen stikke åbninger (hvid). I modsætning hertil, på typiske udeladelse forsøg, rotter forblive placeret omkring pellet trug og kammer center. På en delmængde af udeladelsesforsøg (ca. 20 %) rotter klart flytte deres fokus mod næsen stikke åbninger, men stadig undlader at udføre en reaktion, når du bliver bedt om. Tovejs ANOVA-analyse af den tid, der tilbringes omkring næsestæsåbningerne ved hjælp af forsøgstype som mellem-emnefaktor og tid som faktor inden for forsøgspersonen, afslører betydelig tid (p < 0.001, F(4,8) = 35.13), trial type (p < 0.01, F(2,4) = 57.33) and time x trial type interaction (p < 0.001, F(8,16) = 15.3) effects. Data gathered from four animals performing 100 trials each. Graph displays mean + standard error. (C) Varmekort, der viser alle hovedpositioner, der spores i nærheden af næseproefåbnerne, af en bestemt rotte under 50 ITI'er i en 5CSRTT-testsession. Bemærk, at rotten har en stærk tendens til at holde hovedet på ét sted tæt på den centrale næse poke åbning. (D) Varmekort, der viser alle hovedpositioner, der spores i nærheden af næseproeveåbningerne, af en bestemt rotte under 50 IT-præparater af en 5-CSRTT-testsession. Bemærk, at rotten ikke har nogen klar præference for en bestemt åbning. (E) Graf, der viser den relative tid, som de to rotter, der vises i (C) og (D), bruger på at være tættest på de forskellige næsestegnåbninger under 50 ITI'er for 5CSRTT. Rotten viser en fokuseret strategi (C) (sort) viser en stærk præference for at være tættest på den centrale åbning, mens rotten med en søge-lignende strategi (D) (hvid) viser ingen præference for en bestemt åbning. Grafen viser gennemsnit + standard fejl. (F) Et billede af en rotte på tidspunktet for cue præsentation på en 5CSRTT forsøg (Figur 6A). Bemærk, at rotten har placeret sit hoved tættest på den centrale åbning (hvid pil), er to åbninger væk fra cued åbning (sort pil). (G) En graf, der viser nøjagtigheden af ydeevnen på 5CSRTT (dvs. hyppigheden af at udføre korrekte svar) i forhold til, om rotternes hoved var tættest på den centrale åbning eller en af de andre åbninger på tidspunktet for cue-præsentation (Figur 6A2). Data indsamlet fra fire dyr, der hver udfører ca. 70 besvarede dyr. Graf viser gruppe middelværdi + standard fejl (matchede t-test: p < 0.05). (H) En graf, der viser præstationsnøjagtigheden på 5CSRTT i forhold til afstanden mellem placeringen af den åbnede åbning og placeringen af en rottes hoved ved signalpræsentationen. Afstanden vedrører antallet af åbninger mellem rotters hovedposition og placeringen af den signalerede åbning. Data indsamlet fra fire dyr, der hver udfører ca. 70 besvarede dyr. Graf viser middel + standard fejl (matchede envejs ANOVA: p < 0.01). For the presented analysis, Network #2 described in Figur 10A blev brugt. Det komplette analyserede datasæt omfattede ca. 160.000 videorammer og 400 forsøg. Ud af disse blev 2,5 % af videobillederne udelukket, fordi dyrets noterede bevægelseshastighed var over 3.000 pixels/s, hvilket indikerer fejlagtig sporing (Figur 10E). Ingen komplette forsøg blev udelukket. Klik her for at se en større version af dette tal.

Video 1: Repræsentativ sporing ydeevne veluddannede neurale netværk. Videoen viser en montage af en rotte, der udfører 45 forsøg med korrekte svar under en 5CSRTT testsession (se Figur 6A for protokoldetaljer). Sporing af husets lys (rød markør), hale base (grøn markør) og hoved (blå markør) er angivet i videoen. Uddannelsen af netværket (Netværk #2 i figur 10A) understregede nøjagtigheden for bevægelser langs kammergulvet i nærheden af næsen stikke åbninger (højre væg, Figur 7A). Sporing af disse segmenter viser i gennemsnit >90% nøjagtighed. Sporing af episoder af opdræt og grooming er unøjagtige, da træningssættet ikke omfattede rammer af disse adfærdsmønstre. Bemærk, at videoen er komprimeret for at reducere filstørrelsen og ikke kan repræsenteres af den videokvalitet, der er opnået med kameraet. Klik her for at downloade denne video.

Video 2: Eksempel på præcist sporet dyr. Videoen viser en enkelt velsporet forsøg med en rotte udfører et korrekt svar i løbet af 5CSRTT. Sporing af husets lys (rød markør), hale base (grøn markør) og hoved (blå markør) er angivet i videoen. Neurale netværk #2 beskrevet i figur 10A blev brugt til sporing. Bemærk, hvordan markørerne følger dyrets bevægelser nøjagtigt. Se også figur 10C,E for den afbildede vej og bevægelseshastighed for hovedsporingen i dette videoklip. Klik her for at downloade denne video.

Video 3: Eksempel på dårligt sporet dyr. Videoen viser en enkelt dårligt spores forsøg med en rotte udfører et korrekt svar i løbet af 5CSRTT. Sporing af husets lys (rød markør), hale base (grøn markør) og hoved (blå markør) er angivet i videoen. Neurale netværk #1 beskrevet i figur 10A blev brugt til sporing. Videoklippet er det samme som det, der bruges i Video 2. Bemærk, at markøren for hovedet ikke er pålideligt placeret oven på rottens hoved. Se også figur 10D,E for den afbildede vej og bevægelseshastighed for hovedsporingen i dette videoklip. Klik her for at downloade denne video.

Video 4: Eksempel på bevægelser foretaget under en 5CSRTT-prøve med et svar. Videoen viser en enkelt velsporet forsøg med en rotte udfører et korrekt svar i løbet af 5-CSRTT. Sporing af husets lys (rød markør), hale base (grøn markør) og hoved (blå markør) er angivet i videoen. Bemærk, hvordan rotten i første omgang er placeret i klar nærhed til pellet beholder (venstre væg, Figur 7A) og derefter bevæger sig over for at fokusere sin opmærksomhed på rækken af næse poke åbninger. Klik her for at downloade denne video.

Video 5: Eksempel på en typisk udeladelse retssag under 5CSRTT. Videoen viser en enkelt velsporet forsøg med en rotte udfører en typisk udeladelse i løbet af 5CSRTT. Sporing af husets lys (rød markør), hale base (grøn markør) og hoved (blå markør) er angivet i videoen. Bemærk, hvordan rotten fastholder sin position omkring pellet beholderen (venstre væg, Figur 7A) og kammer center, snarere end at dreje rundt til ansigt næsen stikke åbninger (højre væg, Figur 7A). Den viste adfærd og årsag til udeladelsen kan hævdes at afspejle lav interesse i at udføre testen. Klik her for at downloade denne video.

Video 6: Eksempel på en atypisk udeladelse retssag under 5CSRTT. Videoen viser en enkelt velsporet forsøg med en rotte udfører en atypisk udeladelse under 5CSRTT. Sporing af husets lys (rød markør), hale base (grøn markør) og hoved (blå markør) er angivet i videoen. Bemærk, hvordan rotten positionerer sig mod næsen stikke åbninger langs højre væg af kammeret (Figur 7A). Dette kan hævdes at indikere, at dyret er interesseret i at udføre testen. Men rotten vender væk fra cued åbning (central position), når cue præsenteres (5 s i klippet). I modsætning til udeladelsen vises i Video 4, den ene ses her er sandsynligvis relateret til sub-optimale visuospatial opmærksomhed processer. Klik her for at downloade denne video.

Video 7: Eksempel på et dyr, der opretholder en fokuseret central position under en ITI af 5CSRTT. Videoen viser en enkelt velsporet forsøg med en rotte udfører et korrekt svar på et forsøg med 5CSRTT. Bemærk, hvordan rotten opretholder en central position under ITI, holde hovedet stabilt i nærheden af den centrale næse stikke åbning langs kamrene højre væg (Figur 7A). Sporing af husets lys (rød markør), hale base (grøn markør) og hoved (blå markør) er angivet i videoen. Klik her for at downloade denne video.

Video 8: Eksempel på et dyr, der viser en søgelignende opmærksomhedsstrategi under en ITI af 5CSRTT. Videoen viser en enkelt velsporet forsøg med en rotte udfører et korrekt svar på et forsøg med 5CSRTT. Bemærk, hvordan rotten ofte flytter hovedet til ansigt forskellige næse stikke åbninger langs højre væg af kammeret (Figur 7A). Sporing af husets lys (rød markør), hale base (grøn markør) og hoved (blå markør) er angivet i videoen. Klik her for at downloade denne video.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Denne protokol beskriver, hvordan man opbygger et billigt og fleksibelt videokamera, der kan bruges til at optage videoer fra operant conditioning kamre og andre adfærdsmæssige test opsætninger. Det viser yderligere, hvordan man bruger DeepLabCut til at spore et stærkt lyssignal i disse videoer, og hvordan det kan bruges til at hjælpe med at identificere korte videosegmenter af interesse i videofiler, der dækker hele testsessioner. Endelig beskriver det, hvordan man bruger sporing af en rotte hoved til at supplere analysen af adfærd under operant conditioning tests.

Protokollen præsenterer et alternativ til kommercielt tilgængelige videooptagelsesløsninger til operant conditioning kamre. Som nævnt, den største fordel ved disse er, at de integreres med operant kamre, så videooptagelser af specifikke begivenheder. Tilgangen til at identificere videosegmenter af interesse, der er beskrevet i denne protokol, er mere besværlig og tidskrævende sammenlignet med at bruge et fuldt integreret system til at registrere specifikke hændelser. Det er dog betydeligt billigere (en nylig omkostningsoverslag for videoovervågning udstyr til 6 operant kamre blev sat til ca 13.000 USD. Til sammenligning, konstruere seks af de kameraer, der er anført her ville koste omkring 720 USD). Desuden kan kameraerne bruges til flere andre adfærdsmæssige test opsætninger. Når du arbejder med kameraet, er det vigtigt at være opmærksom på de områder af eksponeret elektronik (bagsiden af kameraet komponent samt IR LED komponent), så de ikke kommer i kontakt med væsker. Desuden kan det båndkabel, der tilslutter kameramodulet til mikrocomputeren, og kabler, der forbinder LED'erne og skifter til GPIO-stifterne, løsne sig, hvis kameraet ofte flyttes rundt. Således kan det være gavnligt for nogle applikationer at justere kamerataskens design.

Brugen af DeepLabCut til at identificere videosegmenter af interesse og spore dyrebevægelser giver et supplement og/eller et alternativ til manuel videoanalyse. Mens førstnævnte ikke ugyldiggør sidstnævnte, har vi konstateret, at det giver en bekvem måde at analysere bevægelser og adfærd inde operant kamre. Den indeholder især positionsdata for dyret, som indeholder mere detaljerede oplysninger end det, der typisk udtrækkes via manuel pointgivning (dvs. faktiske koordinater sammenlignet med kvalitative positionsoplysninger som "foran", "ved siden af" osv.).

Når du vælger en protokol trin indikator, er det vigtigt at vælge en, der konsekvent angiver et givet trin i adfærdsmæssige protokol, og det er usandsynligt, at blive blokeret af dyret. Hvis sidstnævnte er problematisk, kan man overveje at placere en lampe uden for operantkammeret og filme den gennem kammervæggene. Mange operant conditioning kamre er modulære og giver brugerne mulighed for frit at flytte lys, sensorer og andre komponenter rundt. Det skal bemærkes, at der er andre softwarepakker , der også giver brugerne mulighed for at træne neurale netværk i at genkende og spore brugerdefinerede objekter i videoer24,25,26. Disse kan sandsynligvis bruges som alternativer til DeepLabCut i den nuværende protokol.

Protokollen beskriver, hvordan man sporer den centrale del af en rotters hoved for at måle bevægelser inde i operant kamre. Da DeepLabCut tilbyder fuld frihed til at vælge kropsdele eller genstande af interesse, kan dette med bekvemmelighed ændres, så det passer til studiespecifikke interesser. En naturlig forlængelse af sporing, der er beskrevet heri, er også at spore placeringen af rotterne ører og næse, for bedre at bedømme ikke kun hoved position, men også orientering. De repræsentative data vist her blev omkodet med Long Evans rotter. Disse rotter udviser betydelig inter-individuel variation i deres pigmenteringsmønster, især mod deres halebase. Dette kan resultere i nogle vanskeligheder med at anvende en enkelt uddannet neurale netværk til sporing af forskellige personer. For at begrænse disse problemer er det bedst at medtage videobilleder fra alle dyr af interesse i den uddannelse, der er fastsat for netværket. Den sorte leder af Long Evans rotte giver en rimelig stærk kontrast mod metaloverflader af kammeret, der anvendes her. Således, opnå præcis sporing af deres hoveder sandsynligvis kræver mindre indsats end med albino stammer. Det mest kritiske skridt for at opnå præcis sporing med DeepLabCut eller sammenlignelige softwarepakker er at vælge en lang række forskellige videorammer til træning af neurale netværk. Hvis sporing af et interesseobjekt anses for at være suboptimale, bør en forøgelse af uddannelsesrammerne derfor altid være det første skridt i retning af at forbedre resultaterne.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Mens materialer og ressourcer fra Raspberry Pi foundation er blevet brugt og citeret i dette manuskript, var fonden ikke aktivt involveret i forberedelsen eller brugen af udstyr og data i dette manuskript. Det samme gælder for Pi-Supply. Forfatterne har intet at afsløre.

Acknowledgments

Dette arbejde blev støttet af tilskud fra den svenske hjernefond, den svenske Parkinsonfond og de svenske regeringsmidler til klinisk forskning (M.A.C.) samt Wenner-Gren-fondene (M.A.C,E.K.H.C), Åhlén foundation (M.A.C. og fonden Blanceflor Boncompagni Ludovov, født Bildt (S.F).

Materials

Name Company Catalog Number Comments
32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

DOWNLOAD MATERIALS LIST

References

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user's manual. Coulbourn instruments. , Holliston, Massachusetts. 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer's manual. Med Associates Inc. , St. Albans, Vermont. 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat's behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user's manual. Med Associates Inc. , St. Albans, Vermont. 26-30 (2004).
  14. Coulbourn Instruments. Coulbourn Instruments. , Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020).
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. Raspberry Pi foundation. Raspberry Pi foundation. , Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020).
  19. Pi-supply. Pi-supply. , Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018).
  20. Python. Python. , Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020).
  21. MathWorks. MathWorks. , Available from: https://mathworks.com/academia/highschool/ (2020).
  22. Cran.R-Project.org. Cran.R-Project.org. , Available from: https://cran.r-project.org/manuals.html (2020).
  23. Liu, Y., Tian, C., Huang, Y. Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Tags

Adfærd Operant conditioning kognition videooptagelse gnaver adfærd Raspberry Pi DeepLabCut
Sporing rotter i Operant Conditioning Chambers ved hjælp af en alsidig hjemmelavet videokamera og DeepLabCut
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Clemensson, E. K. H., Abbaszadeh,More

Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter