Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Sporing rotter i operant condition kamre ved hjelp av en allsidig hjemmelaget videokamera og deeplabcut

Published: June 15, 2020 doi: 10.3791/61409

Summary

Denne protokollen beskriver hvordan du bygger et lite og allsidig videokamera, og hvordan du bruker videoer hentet fra det til å trene et nevrale nettverk for å spore posisjonen til et dyr inne i operant condition kamre. Dette er et verdifullt supplement til standard analyser av datalogger hentet fra operant kondisjoneringstester.

Abstract

Operant condition kamre brukes til å utføre et bredt spekter av atferdstester innen nevrovitenskap. De registrerte dataene er vanligvis basert på utløsing av spak- og nese-poke-sensorer som finnes inne i kamrene. Selv om dette gir en detaljert oversikt over når og hvordan dyr utfører visse svar, kan det ikke brukes til å evaluere atferd som ikke utløser noen sensorer. Som sådan er det sjelden mulig å vurdere hvordan dyr posisjonerer seg og beveger seg inne i kammeret. For å få denne informasjonen må forskerne vanligvis ta opp og analysere videoer. Produsenter av operant condition kamre kan vanligvis forsyne sine kunder med høy kvalitet kameraoppsett. Disse kan imidlertid være svært kostbare og passer ikke nødvendigvis kamre fra andre produsenter eller andre atferdstestoppsett. Den nåværende protokollen beskriver hvordan du bygger et billig og allsidig videokamera ved hjelp av hobbyelektronikkkomponenter. Den beskriver videre hvordan du bruker bildeanalyseprogramvarepakken DeepLabCut til å spore statusen til et sterkt lyssignal, samt posisjonen til en rotte, i videoer samlet fra et operant kondisjoneringskammer. Førstnevnte er et godt hjelpemiddel når du velger korte segmenter av interesse for videoer som dekker hele testøkter, og sistnevnte muliggjør analyse av parametere som ikke kan hentes fra dataloggene produsert av operantkamrene.

Introduction

Innen atferdsnevrovitenskap bruker forskere ofte operant kondisjoneringskamre for å vurdere et bredt spekter av forskjellige kognitive og psykiatriske egenskaper hos gnagere. Mens det er flere forskjellige produsenter av slike systemer, deler de vanligvis visse attributter og har en nesten standardisert design1,,2,,3. Kamrene er generelt firkantet- eller rektangelformede, med en vegg som kan åpnes for å plassere dyr inne, og en eller to av de gjenværende veggene som inneholder komponenter som spaker, nese-poke åpninger, belønning skuffer, responshjul og lys av ulike typer1,2,3. Lysene og sensorene som finnes i kamrene brukes til både å kontrollere testprotokollen og spore dyrenes atferd1,,2,,3,,4,5. De typiske operant condition systemer tillate en svært detaljert analyse av hvordan dyrene samhandler med de forskjellige operanda og åpninger tilstede i kamrene. Generelt kan alle anledninger der sensorer utløses registreres av systemet, og fra disse dataene kan brukerne få detaljerte loggfiler som beskriver hva dyret gjorde under bestemte trinn i testen4,5. Selv om dette gir en omfattende representasjon av et dyrs ytelse, kan det bare brukes til å beskrive atferd som direkte utløser en eller flere sensorer4,5. Som sådan er aspekter knyttet til hvordan dyret posisjonerer seg selv og beveger seg inne i kammeret i forskjellige faser av testen ikke godt beskrevet6,7,8,9,10. Dette er uheldig, da slik informasjon kan være verdifull for å forstå dyrets oppførsel fullt ut. For eksempel kan det brukes til å avklare hvorfor visse dyr utfører dårlig på en gitt test6, for å beskrive strategiene som dyr kan utvikle for å håndtere vanskelige oppgaver6,7,8,9,10, eller å sette pris på den sanne kompleksiteten av angivelig enkel atferd11,12. For å få slik artikulert informasjon, går forskerne vanligvis til manuell analyse av videoer6,7,8,9,10,11.

Når du tar opp videoer fra operant condition kamre, valg av kamera er kritisk. Kamrene er vanligvis plassert isolert båser, med protokoller ofte gjør bruk av trinn der ingen synlig lys skinner3,,6,7,8,9. Derfor er bruk av infrarød (IR) belysning i kombinasjon med et IR-sensitivt kamera nødvendig, da det tillater synlighet selv i fullstendig mørke. Videre er plassen som er tilgjengelig for å plassere et kamera inne i isolasjonskabinettet ofte svært begrenset, noe som betyr at man fordeler sterkt fra å ha små kameraer som bruker linser med et bredt synsfelt (f.eks fiskeøyelinser)9. Mens produsenter av operant condition-systemer ofte kan levere høykvalitets kameraoppsett til sine kunder, kan disse systemene være dyre og ikke nødvendigvis passe kamre fra andre produsenter eller oppsett for andre atferdstester. En bemerkelsesverdig fordel med frittstående videokameraer er imidlertid at disse oppsettene ofte kan grensesnitt direkte med de operant kondisjoneringssystemene13,,14. Gjennom dette kan de settes opp til å bare registrere bestemte hendelser i stedet for fullstendige testøkter, noe som i stor grad kan hjelpe til med analysen som følger.

Den nåværende protokollen beskriver hvordan du bygger et billig og allsidig videokamera ved hjelp av hobbyelektronikkkomponenter. Kameraet bruker en fisheye linse, er følsom for IR belysning og har et sett med IR lysdioder (IR lysdioder) festet til den. Videre er det bygget for å ha en flat og slank profil. Sammen gjør disse aspektene det ideelt for opptak av videoer fra de mest kommersielt tilgjengelige operant kondisjoneringskamrene, samt andre atferdstestoppsett. Protokollen beskriver videre hvordan man behandler videoer innhentet med kameraet og hvordan du bruker programvarepakken DeepLabCut15,16 for å hjelpe til med å trekke ut videosekvenser av interesse, samt spore et dyrs bevegelser deri. Dette omgår delvis tilbaketrekkingen av å bruke et frittstående kamera over de integrerte løsningene som tilbys av operaniske produsenter av kondisjoneringssystemer, og gir et supplement til manuell skåring av atferd.

Det er gjort forsøk på å skrive protokollen i et generelt format for å markere at den generelle prosessen kan tilpasses videoer fra forskjellige operant kondisjoneringstester. For å illustrere visse viktige begreper brukes videoer av rotter som utfører 5-valg seriell reaksjonstidstest (5CSRTT)17 som eksempler.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle prosedyrer som inkluderer dyrehåndtering er godkjent av Malmö-Lund Etisk utvalg for dyreforskning.

1. Bygge videokameraet

MERK: En liste over komponentene som trengs for å bygge kameraet, finnes i tabellen over materialer. Se også figur 1, figur 2, figur 3, figur 4, figur 5.

  1. Fest den magnetiske metallringen (som følger med fisheye-linsepakken) rundt åpningen av kamerastativet (Figur 2A). Dette gjør at fisheye-linsen kan plasseres foran kameraet.
  2. Fest kameramodulen til kamerastativet (Figur 2B). Dette vil gi litt stabilitet til kameramodulen og gi litt beskyttelse til de elektroniske kretsene.
  3. Åpne kameraportene på kameramodulen og mikrodatamaskinen (Figur 1) ved å trekke forsiktig på kantene på plastklemmene (Figur 2C).
  4. Plasser båndkabelen i kameraportene slik at sølvkontaktene vender mot kretskortene (Figur2C). Lås kabelen på plass ved å skyve inn plastklemmene på kameraportene.
  5. Plasser mikrodatamaskinen i plastkassen, og sett inn det oppførte micro SD-kortet (Figur 2D).
    MERK: Micro SD-kortet fungerer som mikrodatamaskinens harddisk og inneholder et fullt operativsystem. Det oppførte micro SD-kortet leveres med en installasjonsbehandling forhåndsinstallert på den (New Out Of Box Software (NOOBS). Som et alternativ kan man skrive et bilde av den nyeste versjonen av mikrodatamaskinens operativsystem (Raspbian eller Rasberry Pi OS) til et generisk micro SD-kort. For hjelp med dette, vennligst se offisielle webressurser18. Det er å foretrekke å bruke et klasse 10 micro SD-kort med 32 Gb lagringsplass. Større SD-kort er kanskje ikke fullt kompatible med den oppførte mikrodatamaskinen.
  6. Koble en skjerm, et tastatur og en mus til mikrodatamaskinen, og koble deretter strømforsyningen.
  7. Følg trinnene som du blir bedt om å utføre en fullstendig installasjon av mikrodatamaskinens operativsystem (Raspbian eller Rasberry Pi OS). Når mikrodatamaskinen har startet opp, må du kontrollere at den er koblet til Internett enten via en Ethernet-kabel eller Wi-Fi.
  8. Følg trinnene som er beskrevet nedenfor for å oppdatere mikrodatamaskinens forhåndsinstallerte programvarepakker.
    1. Åpne et terminalvindu (Figur 3A).
    2. Skriv inn "sudo apt-get update" (unntatt anførselstegn) og trykk på Enter nøkkel (Figur 3B). Vent til prosessen er ferdig.
    3. Skriv inn "sudo apt full-upgrade" (unntatt anførselstegn) og trykk enter. Gjør knappesvar når du blir bedt om det, og vent til prosessen er ferdig.
  9. Under Start-menyen velger du Innstillinger og Raspberry Pi-konfigurasjoner (Figur 3C). Gå til Grensesnitt-fanen i det åpne vinduet, og klikk for å aktivere kameraet og I2C. Dette er nødvendig for at mikrodatamaskinen skal fungere med kameraet og IR LED-modulene.
  10. Gi nytt navn til tilleggsfil 1 til "Pi_video_camera_Clemensson_2019.py". Kopier den til en USB-minnepinne, og deretter inn i mikrodatamaskinens /home/pi-mappe (Figur 3D). Denne filen er et Python-skript, som gjør det mulig å lage videoopptak med knappebryterne som er festet i trinn 1.13.
  11. Følg trinnene som er beskrevet nedenfor for å redigere mikrodatamaskinens rc.local-fil. Dette gjør at datamaskinen starter skriptet kopiert i trinn 1.10 og starter IR-lysdiodene som er festet i trinn 1.13 når det starter.
    FORSIKTIG: Denne funksjonen for automatisk start fungerer ikke pålitelig med andre mikrodatamaskinkort enn den oppførte modellen.
    1. Åpne et terminalvindu, skriv inn "sudo nano /etc/rc.local" (unntatt anførselstegn) og trykk enter. Dette åpner en tekstfil (Figur 4A).
    2. Bruk tastaturets piltastene til å flytte markøren ned til mellomrommet mellom "fi" og "exit 0" (Figur 4A).
    3. Legg til følgende tekst som vist i Figur 4B, skriver du hver tekststreng på en ny linje:
      sudo i2cset -y 1 0x70 0x00 0xa5 og
      sudo i2cset -y 1 0x70 0x09 0x0f &
      sudo i2cset -y 1 0x70 0x01 0x32 og
      sudo i2cset -y 1 0x70 0x03 0x32 og
      sudo i2cset -y 1 0x70 0x06 0x32 og
      sudo i2cset -y 1 0x70 0x08 0x32 og
      sudo python /home/pi/Pi_video_camera_Clemensson_2019.py &
    4. Lagre endringene ved å trykke Ctrl + x etterfulgt av y og Enter.
  12. Lodding sammen de nødvendige komponentene som angitt i figur 5A, og som beskrevet nedenfor.
    1. For de to fargede lysdiodene fester du en motstandsmotstand og en kvinnelig jumperkabel til det ene benet, og en kvinnelig jumperkabel til den andre (Figur 5A). Prøv å holde kablene så korte som mulig. Legg merke til hvilke av LED-elektrodene som er den negative (vanligvis den korte), da dette må kobles til bakken på mikrodatamaskinens generelle inngangs-/utgangspinner (GPIO).
    2. For de to knappebryterne fester du en kvinnelig jumperkabel til hvert ben (Figur 5A). Gjør kablene lange for en av bryterne, og kort for den andre.
    3. For å montere IR LED-modulen, følg instruksjonene som er tilgjengelige på de offisielle webressursene19.
    4. Dekk de loddete leddene med krympeslang for å begrense risikoen for kortslutning av komponentene.
  13. Slå av mikrodatamaskinen og koble bryterne og lysdiodene til GPIO-pinnene som angitt i figur 5B, og beskrevet nedenfor.
    FORSIKTIG: Ledning av komponentene til feil GPIO-pinner kan skade dem og/eller mikrodatamaskinen når kameraet er slått på.
    1. Koble til en LED slik at den negative enden kobles til #14 og den positive enden kobles til #12. Denne LED-lampen vil skinne når mikrodatamaskinen har startet opp og kameraet er klart til bruk.
    2. Koble knappebryteren med lange kabler slik at én kabel kobles til #9 og den andre for å feste #11. Denne knappen brukes til å starte og stoppe videoopptakene.
      MERK: Skriptet som styrer kameraet, er skrevet slik at denne knappen ikke svarer i noen sekunder like etter at du har startet eller stoppet et videoopptak.
    3. Koble til en LED slik at den negative enden kobles til #20 og den positive enden kobles til #13. Denne LED-lampen vil lyse når kameraet tar opp en video.
    4. Koble knappebryteren til de korte kablene slik at én kabel kobles til #37 og den andre for å feste #39. Denne bryteren brukes til å slå av kameraet.
    5. Koble IR LED-modulen som beskrevet i sine offisielle webressurser19.

2. Utforme den operante kondisjoneringsprotokollen av interesse

MERK: For å bruke DeepLabCut til å spore protokollprogresjonen i videoer som er tatt opp fra operantkamre, må atferdsprotokollene struktureres på bestemte måter, som forklart nedenfor.

  1. Angi protokollen for å bruke kammerets huslys, eller et annet sterkt lyssignal, som en indikator på et bestemt trinn i protokollen (for eksempel starten på individuelle forsøk eller testøkten) (Figur 6A). Dette signalet vil bli referert til som "protokolltrinnindikatoren" i resten av denne protokollen. Tilstedeværelsen av dette signalet vil tillate sporingsprotokollprogresjon i de innspilte videoene.
  2. Angi protokollen for å registrere alle interessesvar med individuelle tidsstempler i forhold til når protokolltrinnindikatoren blir aktiv.

3. Opptak av videoer av dyr som utfører atferdstesten av interesse

  1. Plasser kameraet på toppen av operantkamrene, slik at det registrerer en toppvisning av området inne (Figur 7).
    MERK: Dette er spesielt egnet for å fange et dyrs generelle posisjon og holdning inne i kammeret. Unngå å plassere kameraets indikatorlamper og IR LED-modulen nær kameralinsen.
  2. Start kameraet ved å koble det til en stikkontakt via strømforsyningskabelen.
    MERK: Før første gangs bruk er det nyttig å stille inn kameraets fokus ved hjelp av det lille verktøyet som følger med kameramodulen.
  3. Bruk knappen som er koblet til i trinn 1.13.2, for å starte og stoppe videoopptak.
  4. Slå av kameraet ved å følge disse trinnene.
    1. Trykk og hold knappen tilkoblet i trinn 1.13.4 til LED-lampen som er koblet til i trinn 1.13.1, slås av. Dette starter kameraets avslutningsprosess.
    2. Vent til den grønne led-lampen som er synlig på toppen av mikrodatamaskinen (figur 1),har sluttet å blinke.
    3. Fjern kameraets strømforsyning.
      FORSIKTIG: Hvis du kobler fra strømforsyningen mens mikrodatamaskinen fortsatt kjører, kan det føre til skade på dataene på micro SD-kortet.
  5. Koble kameraet til en skjerm, tastatur, mus og USB-lagringsenhet og hent videofilene fra skrivebordet.
    MERK: Filene er navngitt i henhold til dato og klokkeslett da videoopptak ble startet. Mikrodatamaskinen har imidlertid ikke en intern klokke og oppdaterer bare tidsinnstillingen når den er koblet til Internett.
  6. Konverter de innspilte videoene fra .h264 til . MP4, som sistnevnte fungerer bra med DeepLabCut og de fleste mediespillere.
    MERK: Det finnes flere måter å oppnå dette på. Den ene er beskrevet i tilleggsfilen 2.

4. Analysere videoer med DeepLabCut

MERK: DeepLabCut er en programvarepakke som lar brukerne definere ethvert objekt av interesse i et sett med videorammer, og deretter bruke disse til å trene et nevrale nettverk i å spore objektenes posisjoner i full lengde videoer15,16. Denne delen gir en grov oversikt over hvordan du bruker DeepLabCut til å spore statusen til protokolltrinnindikatoren og plasseringen av en rottes hode. Installasjon og bruk av DeepLabCut er godt beskrevet i andre publiserte protokoller15,16. Hvert trinn kan gjøres gjennom bestemte Python-kommandoer eller DeepLabCuts grafiske brukergrensesnitt, som beskrevet andre steder15,,16.

  1. Opprett og konfigurer et nytt DeepLabCut-prosjekt ved å følge trinnene som er beskrevet i16.
  2. Bruk DeepLabCuts rammegripende funksjon til å trekke ut 700\u2012900-videobilder fra en eller flere av videoene som er tatt opp i avsnitt 3.
    MERK: Hvis dyrene varierer betydelig i pelspigmentering eller andre visuelle egenskaper, er det tilrådelig at de 700\u2012900 ekstraherte videorammene er delt på tvers av videoer av forskjellige dyr. Gjennom dette kan ett trent nettverk brukes til å spore forskjellige individer.
    1. Pass på at du tar med videorammer som viser både den aktive (Figur 8A) og inaktiv (Figur 8B) for protokolltrinnindikatoren.
    2. Pass på å inkludere videorammer som dekker rekkevidden av forskjellige posisjoner, stillinger og hodebevegelser som rotten kan vise under testen. Dette bør omfatte videorammer hvor rotten står stille i forskjellige områder av kammeret, med hodet pekende i forskjellige retninger, samt videorammer hvor rotten beveger seg aktivt, går inn i nesestippåpninger og går inn i pellettrauet.
  3. Bruk DeepLabCuts merkeverktøykasse til å merke posisjonen til rottehodet manuelt i hver videoramme som ble ekstrahert i trinn 4.2. Bruk musepekeren til å plassere en "hode"-etikett i en sentral posisjon mellom rotteører (Figur 8A,B). I tillegg markerer du posisjonen til kammerets huslys (eller annen protokolltrinnindikator) i hver videoramme der den aktivt skinner (Figur 8A). La huset lys umerket i rammer der det er inaktivt (Figur 8B).
  4. Bruk DeepLabCuts "lag treningsdatasett" og "tognettverk" til å opprette et treningsdatasett fra videobildene merket i trinn 4.3 og starte treningen av et nevrale nettverk. Pass på at du velger "resnet_101" for den valgte nettverkstypen.
  5. Stopp treningen av nettverket når treningstapet har flatet under 0,01. Dette kan ta opptil 500.000 treningsanlegg.
    MERK: Når du bruker en GPU-maskin med omtrent 8 GB minne og et treningssett med ca. 900 videorammer (oppløsning: 1640 x 1232 piksler), er det funnet at opplæringsprosessen tar omtrent 72 timer.
  6. Bruk DeepLabCuts videoanalysefunksjon til å analysere videoer som er samlet inn i trinn 3, ved hjelp av det nevrale nettverket som er opplært i trinn 4.4. Dette vil gi en CSV-fil som viser de sporede posisjonene til rottens hode og protokolltrinnindikatoren i hver videoramme av de analyserte videoene. I tillegg vil det lage oppmerkede videofiler der de sporede posisjonene vises visuelt (Videoer 1-8).
  7. Evaluer nøyaktigheten av sporingen ved å følge trinnene nedenfor.
    1. Bruk DeepLabCuts innebygde evalueringsfunksjon for å få en automatisert evaluering av nettverkets sporingsnøyaktighet. Dette er basert på videobildene som ble merket i trinn 4.3 og beskriver hvor langt unna i gjennomsnitt posisjonen som spores av nettverket, er fra den manuelt plasserte etiketten.
    2. Velg én eller flere korte videosekvenser (av ca. 100\u2012200-videorammer hver) i de markerte videoene som er oppnådd i trinn 4.6. Gå gjennom videosekvensene, ramme for bilde, og legg merke til hvor mange rammer etikettene riktig angir posisjonene til rottens hode, hale, etc., og i hvor mange rammer etikettene er plassert i feilaktige posisjoner eller ikke vist.
      1. Hvis etiketten til en kroppsdel eller et objekt ofte går tapt eller plasseres i en feilaktig posisjon, identifiserer du situasjonene der sporingen mislykkes. Trekk ut og legg til merkede bilder av disse anledningene ved å gjenta trinn 4.2. og 4.3. Deretter omskolere nettverket og reanalysere videoene ved å gjenta trinn 4.4-4.7. Til syvende og sist bør sporingsnøyaktigheten på > 90 % nøyaktighet oppnås.

5. Innhenting av koordinater for interessepunkter i de operantkamrene

  1. Bruk DeepLabCut som beskrevet i trinn 4.3 for å manuelt markere interessepunkter i de operantkamrene (for eksempel nesestippåpninger, spaker osv.) i en enkelt videoramme (Figur 8C). Disse velges manuelt avhengig av studiespesifikke interesser, selv om plasseringen av protokolltrinnindikatoren alltid skal inkluderes.
  2. Hente koordinatene til de merkede interessepunktene fra CSV-filen som DeepLabCut automatisk lagrer under "merkede data" i prosjektmappen.

6. Identifisere videosegmenter der protokolltrinnindikatoren er aktiv

  1. Last inn CSV-filene som er hentet fra DeepLabCut-videoanalysen i trinn 4.6, til en programvare for databehandling.
    MERK: På grunn av mengden og kompleksiteten av data hentet fra DeepLabCut og operant kondisjoneringssystemer, gjøres databehandling best gjennom automatiserte analyseskript. For å komme i gang med dette, vennligst se entry-level guider tilgjengelig andre steder20,21,22.
  2. Vær oppmerksom på hvilke videosegmenter protokolltrinnindikatoren spores innen 60 piksler av posisjonen som er oppnådd i del 5. Dette vil være perioder der protokolltrinnindikatoren er aktiv (Figur 6B).
    MERK: Under videosegmenter der protokolltrinnindikatoren ikke skinner, kan den markerte videoen se ut til å indikere at DeepLabCut ikke sporer den til noen posisjon. Dette er imidlertid sjelden tilfelle, og det spores vanligvis til flere spredte steder.
  3. Trekk ut det nøyaktige startpunktet for hver periode der protokolltrinnindikatoren er aktiv (Figur 6C: 1).

7. Identifisere videosegmenter av interesse

  1. Vurder punktene der protokolltrinnindikatoren blir aktiv (Figur 6C: 1) og tidsstemplene for svar som er registrert av de operantkamrene (avsnitt 2, figur 6C: 2).
  2. Bruk denne informasjonen til å finne ut hvilke videosegmenter som dekker bestemte interessante hendelser,Figure 6Cfor eksempel intervaller Figure 6Dmellom forsøk, svar, belønningshentinger osv.
    MERK: For dette må du huske på at kameraet som er beskrevet her, tar opp videoer med 30 bps.
  3. Legg merke til de spesifikke videorammene som dekker disse hendelsene av interesse.
  4. (Valgfritt) Rediger videofiler av fullstendige testøkter for å inkludere bare de spesifikke interessesegmentene.
    MERK: Det finnes flere måter å oppnå dette på. Den ene er beskrevet i tilleggsfilen 2 og 3. Dette hjelper i stor grad når du lagrer et stort antall videoer og kan også gjøre gjennomgang og presentasjon av resultater mer praktisk.

8. Analysere posisjonen og bevegelsene til et dyr under bestemte videosegmenter

  1. Delsett de fullstendige sporingsdataene for hodeposisjon hentet fra DeepLabCut i trinn 4.6 for å bare inkludere videosegmenter som er notert under avsnitt 7.
  2. Beregn posisjonen til dyrets hode i forhold til ett eller flere av referansepunktene som er valgt under avsnitt 5 (Figur 8C). Dette muliggjør sammenligninger av sporing og plassering på tvers av forskjellige videoer.
  3. Utfør relevant grundig analyse av dyrets posisjon og bevegelser.
    MERK: Den spesifikke analysen som utføres vil være sterkt studiespesifikk. Noen eksempler på parametere som kan analyseres, er gitt nedenfor.
    1. Visualiser banespor ved å plotte alle koordinater som oppdages i en valgt periode i ett diagram.
    2. Analyser nærhet til et gitt interessepunkt ved hjelp av følgende formel:
      Equation 1
    3. Analyser hastighetsendringer under en bevegelse ved å beregne avstanden mellom sporede koordinater i påfølgende rammer og del med 1/fps av kameraet.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Videokameraytelse

De representative resultatene ble samlet i operant condition kamre for rotter med gulvarealer på 28,5 cm x 25,5 cm, og høyder på 28,5 cm. Når fiskeøyelinsen er festet, fanger kameraet opp hele etasjes området og store deler av de omkringliggende veggene, når det plasseres over kammeret (Figur 7A). Som sådan kan en god utsikt oppnås, selv om kameraet er plassert utenfor sentrum på kammerets topp. Dette bør gjelde for sammenlignbare operantkamre. IR-lysdiodene er i stand til å belyse hele kammeret (figur 7B,C), noe som gir god utsikt, selv når alle andre lys inne i kammeret er slått av (figur 7C). Belysningen i slike situasjoner er imidlertid ikke helt jevn, og kan føre til noen vanskeligheter med å oppnå nøyaktig sporing. Hvis en slik analyse er av interesse, kan det være nødvendig med flere kilder til IR-belysning. Det er også verdt å merke seg at noen kamre bruker metall slippe panner for å samle urin og avføring. Hvis kameraet er plassert rett over slike overflater, vil sterke refleksjoner av IR-lyslyset være synlige i de innspilte videoene (Figur 7B). Dette kan imidlertid unngås ved å plassere papirhåndklær i slipppannen, noe som gir et mye forbedret bilde (Figur 7C). Hvis du plasserer kameraets IR- eller fargede lysdioder for nær kameralinsen, kan det føre til at de er synlige i bilde periferien (Figur 7B). Siden kameraet er IR-følsomt, kan alle IR-lyskilder som er tilstede inne i kamrene, være synlige i videoene. For mange oppsett vil dette omfatte kontinuerlig skinner av IR strålebrudd sensorer (Figur 7C). Den kontinuerlige belysningen fra kameraets IR-lysdioder forstyrrer ikke bildekvaliteten til godt opplyste kamre (Figur 7D). Størrelsen på videoene som er tatt opp med kameraet er ca. 77 Mb/min. Hvis et 32 Gb micro SD-kort brukes til kameraet, bør det være ca 20 Gb tilgjengelig etter installasjonen av operativsystemet. Dette gir rom for ca 260 min av innspilte opptak.

Fisheye-linsen fører til at kameraet har et litt ujevnt fokus, og er skarpt i midten av bildet, men redusert skarphet mot kantene. Dette ser ikke ut til å påvirke nøyaktigheten av sporing. Videre resulterer fisheye-linsen i at det innspilte bildet blir forvrengt. Avstandene mellom like fordelte punkter langs rette linjer viser for eksempel kunstig redusert avstand mot periferien av bildet (Figur 9A,B). Hvis kameraet brukes til applikasjoner der det meste av synsfeltet eller absolutte målinger av avstand og hastighet er av interesse, er det verdt å vurdere å korrigere dataene for denne forvrengningen23 (Tilleggsfil 4). Forvrengningen er imidlertid relativt mild i midten av bildet (Figur 9B). For videoer samlet i vårt operantkammer, er interesseområdet begrenset til det sentrale 25% av kameraets synsfelt. Innenfor dette området er effekten av fisheye-forvrengningen minimal (Figur 9C\u2012F).

Nøyaktigheten av sporing med DeepLabCut

De viktigste faktorene som vil bestemme sporingsnøyaktigheten til et opplært nettverk er (i) antall merkede rammer i treningsdatasettet, (ii) hvor godt de merkede rammene fanger opp interessens oppførsel og (iii) antall treningsgjenstander som brukes. DeepLabCut inneholder en evalueringsfunksjon, som rapporterer et estimat over hvor langt unna (i antall piksler) sporingen kan forventes å være fra den faktiske plasseringen av et objekt. Dette gir imidlertid ikke nødvendigvis en god beskrivelse av antall rammer der et objekt går tapt og/eller feilmerket (figur 10A), noe som ber om ytterligere manuell vurdering av sporingsnøyaktighet.

For å analysere atferd inne i et operant kammer, bør et godt trent nettverk tillate nøyaktig identifisering av alle hendelser der protokolltrinnindikatoren er aktiv. Hvis ikke, kan det være nødvendig å omskolere nettverket eller velge en annen indikator. Til tross for å ha et godt trent nettverk, kan sporing av protokolltrinnindikatoren til tider bli forstyrret av dyr som blokkerer kameraets syn (Figur 10B). Dette vil føre til brudd i sporingen som minner om episoder der indikatoren er inaktiv. Hyppigheten av dette skjer vil avhenge av dyr belastning, type atferdsprotokoll og valg av protokoll trinn indikator. I eksempeldataene fra 5CSRTT som brukes her, skjedde det på fire av 400 studier (data som ikke vises). Alle anledninger var lett identifiserbare, da deres varigheter ikke samsvarte med bruddtrinnet som hadde blitt inkludert i protokolldesignen (Figur 6A). Til slutt, velge en indikator som er plassert høyt opp i kammeret og bort fra komponenter som dyr samhandler med er sannsynlig å være nyttig.

Et godt trent nettverk bør tillate > 90% nøyaktighet når du sporer et dyrs hode under videosegmenter av interesse (Video 1). Med dette må bare et lite delsett av videorammer utelukkes fra den påfølgende analysen, og brukbare sporingsdata kan hentes fra nesten alle forsøk i en testøkt. Nøyaktig sporing er tydelig identifiserbar av markører som følger et dyr gjennom bevegelsene (Video 2) og plottede baner som ser glatte ut (Figur 10C). I motsetning er unøyaktig sporing preget av markører som ikke pålitelig bor på målet (Video 3) og ved plottede baner som vises taggete (Figur 10D). Sistnevnte er forårsaket av at objektet spores til fjerne feilaktige posisjoner i enkelt videorammer i sekvenser av nøyaktig sporing. Som et resultat av dette forårsaker unøyaktig sporing vanligvis plutselige endringer i beregnede bevegelseshastigheter (Figur 10E). Dette kan brukes til å identifisere videorammer der sporing er unøyaktig, for å ekskludere dem fra senere analyse. Hvis det er betydelige problemer med sporingsnøyaktighet, bør tilfeller der sporing mislykkes identifiseres, og nettverket bør omskoleres ved hjelp av et utvidet treningssett som inneholder merkede videorammer av disse hendelsene (figur 10A, E).

Bruk av videosporing for å utfylle analyse av operant atferd

Analysere hvordan et dyr beveger seg og posisjonerer seg under operant tester vil gi flere innsikt i den komplekse og mangefasetterte natur deres atferd. Ved å spore hvor et dyr befinner seg gjennom en testøkt, kan man vurdere hvordan distinkte bevegelsesmønstre er knyttet til ytelse (Figur 11A,B). Ved ytterligere å undersøke hodebevegelser under spesifikke protokolltrinn, kan man oppdage og karakterisere bruken av ulike strategier (Figur 11C\u2012E).

For å eksemplifisere, bør du vurdere de representative dataene som presenteres for rotter som utfører 5CSRTT-testen (Figur 6A, figur 11). I denne testen presenteres dyr med flere studier som hver starter med et 5 s ventetrinn (inter-trial intervall - ITI) (Figur 6A: 1). På slutten av dette vil et lys skinne inne i en av nesen poke åpninger (tilfeldig valgt posisjon på hver studie, Figur 6A: 2). Nese-poking inn i cued åpningen regnes som et riktig svar og belønnes (Figur 6A: 3). Å svare på en annen åpning anses som feil. Unnlatelse av å svare innen 5 s etter presentasjonen av lyset anses som en utelatelse. Sporing av hodebevegelser under ITI av denne testen har vist at på studier der rotter utfører et svar, er de raske til å bevege seg mot området rundt nesen poke åpninger (Figur 11A, B, Video 4). I motsetning, på de fleste utelatelser forsøk, rotter ikke klarer å nærme seg området rundt åpningene (Figur 11B, Video 5). Denne virkemåten er i tråd med den vanlige tolkningen av utelatelser som er nært knyttet til en lav motivasjon til å utføre testen3,16. Men på et delsett av utelatelsesstudier (ca. 20% av det nåværende datasettet) viste rottene et klart fokus mot åpningene (Figur 11B, Video 6), men klarte ikke å merke seg den nøyaktige plasseringen av cued-åpningen. Dataene indikerer dermed at det er minst to forskjellige typer utelatelser, en relatert til en mulig uinteresse i den pågående studien, og en annen som er mer avhengig av utilstrekkelig visuospatial oppmerksomhet3. Hodesporing kan også brukes til å skille tydelige strategier. Som et eksempel ble to tydelige oppmerksomhetsstrategier avslørt ved analyse av hvordan rottene beveger seg når de er i nærheten av nesestippåpningene under 5CSRTT (Figur 11C\u2012E). I den første strategien viste rotter en ekstremt fokusert tilnærming, og opprettholdt en sentral posisjon gjennom det meste av ITI (Figur 11C, Video 7). I motsetning, rotter vedta den andre strategien stadig flyttet hodet mellom de ulike åpningene på en søk-lignende måte (Figur 11D, Video 8). Denne typen atferdsforskjeller kan enkelt kvantifiseres ved å beregne hvor mye tid som brukes i nærheten av de ulike åpningene (figur 11E). Til slutt, ved å analysere hvilken åpning rotten er nærmest på tidspunktet for cue lys presentasjon (Figur 11F), kan det demonstreres at å være i en sentral posisjon (Figur 11G) og / eller i nærheten av plasseringen av cued åpningen (Figur 11H) synes å være gunstig for nøyaktig ytelse på testen.

Figure 1
Figur 1: Skisse av den oppførte mikrodatamaskinen. Skjematisk viser posisjonen til flere komponenter av interesse på mikrodatamaskin hovedkort. Disse er merket med sirklede tall som følger: 1: Kontakt for kamerabåndkabel; 2: LED-lys som indikerer når datamaskinen kjører; 3: Micro USB for strømkabel; 4: Micro USB for mus / tastatur; 5: Generelle inngangs-/utgangspinner (GPIO-pinner), disse pinnene brukes til å koble mikrodatamaskinen til lysdioder, brytere og IR LED-modulen; 6: Mini HDMI-utgang; 7: Micro SD-kortspor. I den nedre delen av figuren vises en beskåret og forstørret del av GPIO-pinnene for å angi hvordan du teller sammen med dem for å korrekt identifisere posisjonen til en bestemt pin. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 2
Figur 2: Bygge hoveddelen av kameraet. Tallene illustrerte hovedtrinnene for å bygge kameraets kropp. (A) Fest den magnetiske metallringen til kamerastativet. (B) Fest kameramodulen til kamerastativet. (C)Koble kameramodulen til mikrodatamaskinen via den flate båndkabelen. Legg merke til de hvite pilene som angir hvordan du åpner og lukker kameraportene som finnes på både mikrodatamaskinen og kameramodulen. (D) Plasser mikrodatamaskinen i plasthuset og sett inn et micro SD-kort. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 3
Figur 3: Oppdatere mikrodatamaskinens operativsystem og aktivere eksterne enheter. Figuren viser fire forskjellige skjermbilder som viser brukergrensesnittet til mikrodatamaskinen. (A)Terminalvinduer kan åpnes ved å klikke på "terminal"-ikonet øverst til venstre på skjermen. (B) I terminalen kan man skrive inn ulike typer kommandoer, som beskrevet i protokollteksten. Skjermbildet viser kommandoen for oppdatering av systemets programvarepakker. (C) Skjermbildet viser hvordan du navigerer til konfigurasjonsmenyen, hvor man kan aktivere bruk av kameramodulen og I2C GPIO-pinnene. (D)Skjermbildet viser /home/pi-mappen, der kameraskriptet skal kopieres i trinn 1.10 i protokollen. Vinduet åpnes ved å klikke på det angitte ikonet øverst til venstre på skjermen. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 4
Figur 4: Konfigurere mikrodatamaskinens rc.local-fil. Figuren viser to skjermbilder av mikrodatamaskinens rc.local-fil, når den åpnes gjennom terminalen som beskrevet i trinn 1.11.1. (A)Et skjermbilde av rc.local-filen i sitt opprinnelige format. Pilen angir hvor mye tekst må angis for å aktivere funksjonen for automatisk start på kameraet. (B)Et skjermbilde av rc.local-filen etter at den er redigert for å skinne IR-lysdiodene og starte python-skriptet som kontrollerer kameraet ved oppstart av mikrodatamaskinen. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 5
Figur 5: Tilkobling av brytere og lysdioder til mikrodatamaskinens GPIO-pinner. (A)Skjematisk som viser en knappebryter med kvinnelige jumperkabler (øverst) og en LED med motstand og kvinnelige jumperkabler (nederst). (1) Knappbryter, (2) kvinnelige jumperkabler, (3) LED, (4) motstand. (B)Skjematisk bilde som viser hvordan de to knappebryterne, de fargede lysdiodene og IR LED-kortet er koblet til GPIO-pinnene til mikrodatamaskinen. Blå kabler og GPIO-pinner indikerer jord. Plasseringen av to GPIO-pinner er angitt i figuren (GPIO-pinner #2 og #40): (1) Knapp for å starte/stoppe videoopptak. (2) LED som angir når video tas opp. (3) Knapp for å slå av kameraet. (4) LED som angir når kameraet har startet opp og er klar til bruk. (5) IR LED-modul. Vær oppmerksom på at kretser med lysdioder også inneholder 330 Ω-motstander. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 6
Figur 6: Bruke DeepLabCut-sporing av protokolltrinnindikator til å identifisere sekvenser av interesse i videoer i full lengde. (A)Skjematisk av trinnene i en enkelt studie i 5-valg seriell reaksjonstid test (5CSRTT): (1) Først er det en kort ventetid (ITI). Arrow indikerer et aktivt skinnende huslys. (2) På slutten av ITI, vil et lys skinne i en av de fem nese poke åpninger (pil). (3) Hvis en rotte reagerer nøyaktig ved å utføre en nese poke inn i cued åpningen, en belønning leveres (pil). (4) Rotten har lov til å hente belønningen. (5) For å aktivere bruken av huslyset som en protokolltrinnindikator, er et kort pausetrinn der huslyset er slått av (pil) implementert før neste prøve begynner. Vær oppmerksom på at huslyset skinner under påfølgende trinn i rettssaken. (B)En eksempelgraf som viser x-koordinaten til det aktive huslyset, som sporet av DeepLabCut, under et videosegment av en 5CSRTT-test. Under segmenter der huslyset skinner (indikator aktiv - 1), spores posisjonen til et konsekvent og stabilt punkt (også merk den røde markøren (angitt med pil) i eksempelvideorammen), som kan sammenlignes med husets lysposisjon i figur 8C (x, y: 163, 503). Under segmenter der huslyset ikke skinner (indikator inaktiv - 2, legg merke til den hvite pilen i eksempelvideorammen), er den sporede posisjonen ikke stabil, og langt borte fra huslysets faktiske koordinat. (C) Tabell 1 viser et eksempel på behandlet utdata hentet fra DeepLabCut-sporing av en protokolltrinnindikator. I denne utdataene er utgangspunktet for hver anledning der indikatoren er aktiv, oppført. Tabell 2 viser et eksempel på data hentet fra det operante kondisjoneringssystemet, som gir relevante detaljer for individuelle studier. I dette eksemplet er varigheten av ITI, plasseringen av cued åpning og latencies for å utføre et svar og hente belønningen registrert. Tabell 3 viser et eksempel på data innhentet ved å slå sammen sporingsresultater fra DeepLabCut og data som er registrert fra det operante kondisjoneringssystemet. Gjennom dette, videorammer for startpunktet for ITI (trinn 1 i A), utgangspunktet for cue lys presentasjon (trinn 2 i A), svaret (trinn 3 i A) og henting (trinn 4 i A) for et eksempel prøve er oppnådd. (D)En eksempelgraf som viser x-koordinaten til huslyset, som sporet av DeepLabCut, under en filmet 5CSRTT-studie. De ulike trinnene i protokollen er angitt: (1) ITI; (2) presentasjon av et stikkordlys (posisjon angitt med hvit pil); (3) respons; (4) belønning gjenfinning. Identifisering av videorammer som viser starten og stopp av disse forskjellige protokolltrinnene ble gjort gjennom en prosess som kan sammenlignes med det som er angitt i D. Klikk her for å se en større versjon av dette tallet.

Figure 7
Figur 7: Bildeegenskaper for kameraet. (A)Uoppsaltet bilde hentet fra et kamera plassert på toppen av et operant kondisjoneringskammer. Bildet ble tatt mens kammeret ble plassert i et sterkt opplyst rom. Legg merke til (1) huslys og (2) belønning pellet trau langs kammerets venstre vegg og (3) raden med fem nese poke åpninger langs kammerets høyre vegg. Hver nese poke åpning inneholder en liten cue lys. (B) Uoppsgitt bilde som viser den sterke refleksjonen forårsaket av (1) metallslippepannen, samt refleksjoner forårsaket av sub-optimal posisjonering av kameraets (2) indikatorlysdioder og (3) IR LED-modul. (C)Beskåret bilde av kammeret i fullstendig mørke. Vær oppmerksom på at lysene fra IR-strålebryterdetektorene i de fem nesestippåpningene langs kammerets høyre vegg er tydelig synlige (pil). (D) Beskåret bilde av kammeret når det lyser. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 8
Figur 8: Posisjonssporing av protokolltrinnindikator og kroppsdeler av interesse. (A) Bildet viser posisjonen til en protokolltrinnindikator (rød) samt hodet (gul) og halen (grønn) av en rotte, som spores av DeepLabCut. Som angitt ved sporing av det opplyste huslyset, er videorammen hentet fra et øyeblikksbilde av en aktiv prøveversjon. (B) Bildet viser posisjonen til hodet (gul) og halen (grønn) som sporet av DeepLabCut i et øyeblikk når en prøve ikke er aktiv. Legg merke til mangelen på huslyssporing. (C) Interessepunktene som brukes i analysen av data vist i figur 6 og figur 11; (1) Hus lys, i dette tilfellet brukes som protokoll trinn indikator, (2\u20126) Nese poke åpninger #1\u20125. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 9
Figur 9: Bildeforvrengning fra fisheye-linsen. (A)Bilde av et rutemønster med like store og fordelte svarte og hvite firkanter tatt med kameraet som er beskrevet i denne protokollen. Bildet ble tatt i en høyde som kan sammenlignes med det som ble brukt når du tar opp videoer fra operant condition kamre. Svarte firkanter langs de sentrale horisontale og vertikale linjene er merket med DeepLabCut. (B)Graf som viser hvordan avstanden mellom de merkede rutene i (A) endres med nærhet til bildesenteret. (C) Bilde som viser målinger tatt for å evaluere virkningen av fisheye forvrengningseffekt på videoer samlet fra operant kamre. Hjørnene og midtpunktene langs kanten av gulvområdet, den sentrale posisjonen til hver enkelt etasje trinn og plasseringen av de fem nese poke åpninger har blitt indikert med DeepLabCut (fargede prikker); (1) avstand av gulvtrinn, (2) bredde på kammergulvet langs midten av kammeret, (3) avstand av nesestippåpninger. (D)Avstand av gulvtrinn (gjennomsnitt for hvert sett med tre påfølgende trinn), nummerert fra venstre til høyre i (C). Det er en liten effekt av fisheye forvrengning, noe som resulterer i at de sentrale rungs blir plassert omtrent 3 piksler (8%) lenger fra hverandre enn trinn som er plassert på kantene av kammergulvet. (E) Bredden på kammergulvet i (C) målt i venstre og høyre kant, samt midtpunktet. Det er en liten effekt av fisheye forvrengning, noe som resulterer i bredden målt på midtpunktet blir omtrent 29 piksler (5%) lengre enn de andre målingene. (F) Avstand av nese poke åpninger i (C), nummerert fra toppen av bildet. Det er en liten effekt av fiskeøyeforvrengningen, noe som resulterer i avstanden mellom de tre sentrale åpningene (H2, H3, H5) er omtrent 5 piksler (4%) bredere enn avstanden mellom H1-H2 og H4-H5. For D-F ble data samlet inn fra fire videoer og grafer viser gruppegjennomsnittet + standardfeil. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 10
Figur 10: Gjennomgang av nøyaktigheten av DeepLabCut-sporing. (A)En tabell som viser treningsinformasjon for to nevrale nettverk opplært til å spore rotter i operant kamre. Nettverks #1 brukt et mindre treningsdatasett, men høyt antall treningsbehandlinger sammenlignet med Network #2. Begge nettverkene oppnådde en lav feilscore fra DeepLabCuts evalueringsfunksjon (DLC-testfeil) og viste et lavt treningstap mot slutten av treningen. Til tross for dette viste Network #1 svært dårlig sporingsnøyaktighet ved manuell evaluering av merkede videorammer (målt nøyaktighet, anslått fra 150 videorammer som dekker et videosegment som kan sammenlignes med de i Video 2 og Video 3). Nettverks #2 representerer den forbedrede versjonen av Network #1, etter å ha inkludert flere videobilder av aktivt bevegelige rotter inn i treningsdatasettet, som beskrevet i (E). (B)Bilde som viser en rotte som oppdrar og dekker kammerets huslys (Figur 7A) med hodet, forstyrrer sporingen av den. (C) Videoramme som fanger opp et svar som er gjort under en 5CSRTT-studie (Figur 6A: 3). Hodets bevegelsesbane under responsen og foregående ITI har blitt lagt på bildet i gult. Sporingen anses å være nøyaktig. Legg merke til jevn sporing under bevegelser (hvit pil). En tilsvarende video er tilgjengelig som Video 2. Nettverks- #2 (se A) ble brukt til sporing. (D) Videoramme som fanger opp et svar som er gjort under en 5CSRTT-prøveperiode (Figur 6A: 3). Hodets bevegelsesbane under responsen og foregående ITI har blitt lagt på bildet i gult. Data gjelder den samme studien som vist i (C), men analysert med Network #1 (se A). Sporingen anses å være unøyaktig. Legg merke til banens ujevne utseende med flere rette linjer (hvite piler), forårsaket av sporadisk sporing av hodet til fjerne feilaktige posisjoner (svarte piler). En tilsvarende video er tilgjengelig som Video 3. (E) Graf som viser de dynamiske endringene i bevegelseshastigheten til hodesporingen i (C) og (D). Identifiserbar i grafen er tre store bevegelser sett i Video 2 og 3, hvor rotten først vender seg mot nesestippåpningene (første sving), gjør en liten justering for å nærme seg dem (justering), og til slutt utfører et svar. Hastighetsprofilen for god sporing oppnådd av Network #2 (A) viser jevne kurver av endringer i bevegelseshastighet (blå piler), noe som indikerer en nøyaktig sporing. Hastighetsprofilen for dårlig sporing innhentet av Network #1 (A) viser flere plutselige pigger i bevegelseshastighet (røde piler) som indikerer sporadiske sporingsfeil i enkeltvideobilder. Det er verdt å merke seg at disse sporingsproblemene spesifikt oppstår under bevegelser. For å rette opp dette ble det første treningssettet som ble brukt til å trene Network #1 utvidet med en stor mengde videorammer som viser aktivt bevegelige rotter. Dette ble senere brukt til å trene Network #2, som effektivt fjernet dette sporingsproblemet. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 11
Figur 11: Bruk av posisjonssporing gjennom DeepLabCut for å utfylle atferdsanalysen av operant kondisjoneringstester. (A) En toppvisning av innsiden av et operant kondisjoneringskammer. Tre områder av kammeret er indikert. Området nær belønningpellet trau (Pellet), det sentrale kammerområdet (Center) og området rundt nesen poke åpninger (Åpninger). (B) En graf som viser den relative tiden rotter bruker i de tre forskjellige områdene av operantkammeret som er skissert i (A) under ITI-trinnet i 5CSRTT. Legg merke til at på forsøk med et svar, rotter i utgangspunktet har en tendens til å være plassert nær pellet trau (svart) og kammer senter (grå), men som ITI utvikler seg, de skifter mot posisjonering seg rundt nesen poke åpninger (hvit). I motsetning, på typiske utelatelsesforsøk, forblir rotter plassert rundt pellettrau og kammersenter. På en undergruppe av utelatelsesstudier (ca. 20 %) rotter tydelig skifte fokus mot nesen poke åpninger, men fortsatt ikke klarer å utføre et svar når du blir bedt om. Toveis ANOVA-analyse av tiden tilbringer rundt nesen poke åpninger ved hjelp av prøvetype som mellom-fagfaktor og tid som innenfor emne faktor avsløre betydelig tid (p < 0.001, F(4,8) = 35.13), trial type (p < 0.01, F(2,4) = 57.33) and time x trial type interaction (p < 0.001, F(8,16) = 15.3) effects. Data gathered from four animals performing 100 trials each. Graph displays mean + standard error. (C) Varmekart som viser alle hodeposisjoner som spores i nærheten av nesestippåpningene, med en bestemt rotte under 50 ITIer i en 5CSRTT-testøkt. Legg merke til at rotten har en sterk tendens til å holde hodet på ett sted nær den sentrale nesen poke åpningen. (D) Varmekart som viser alle hodeposisjoner som spores i nærheten av nesestippåpningene, med en bestemt rotte under 50 ITIer i en 5-CSRTT-testøkt. Vær oppmerksom på at rotten ikke viser noen klar preferanse for noen bestemt åpning. (E) Graf som viser den relative tiden de to rottene som vises i (C) og (D) bruker på å være nærmest de forskjellige nesestippåpningene under 50 ITIer i 5CSRTT. Rotten som viser en fokusert strategi (C) (svart) viser en sterk preferanse for å være nærmest den sentrale åpningen, mens rotten med en søkelignende strategi (D) (hvit) ikke viser noen preferanse for en bestemt åpning. Grafen viser gjennomsnittlig + standardfeil. (F) Et bilde av en rotte på tidspunktet for cue presentasjon på en 5CSRTT-studie (Figur 6A). Legg merke til at rotten har plassert hodet nærmest den sentrale åpningen (hvit pil), som er to åpninger unna cued åpningen (svart pil). (G) En graf som viser ytelsesnøyaktighet på 5CSRTT (dvs. hyppigheten av å utføre riktige svar) i forhold til om hodet på rotter var nærmest den sentrale åpningen eller en av de andre åpningene på tidspunktet for cue presentasjon (Figur 6A2). Data samlet inn fra fire dyr som utfører omtrent 70 svar hver. Graph viser gruppe gjennomsnitt + standard feil (matchet t-test: p < 0.05). (H) En graf som viser ytelsesnøyaktighet på 5CSRTT i forhold til avstanden mellom posisjonen til cued åpningen og posisjonen til en rottehode, på signalpresentasjonen. Avstanden gjelder antall åpninger mellom rottenes hodeposisjon og posisjonen til den signaliserte åpningen. Data samlet inn fra fire dyr som utfører omtrent 70 svar hver. Grafen viser gjennomsnitt + standardfeil (matchet enveis ANOVA: p < 0.01). For the presented analysis, Network #2 described in Figur 10A ble brukt. Det fullstendige analyserte datasettet inkluderte omtrent 160 000 videorammer og 400 forsøk. Av disse ble 2,5 % av videobildene ekskludert på grunn av at dyrets noterte bevegelseshastighet var over 3000 piksler/s, noe som indikerer feilaktig sporing (Figur 10E). Ingen fullstendige studier ble utelukket. Vennligst klikk her for å se en større versjon av dette tallet.

Video 1: Representativ sporingsytelse for godt trente nevrale nettverk. Videoen viser en montasje av en rotte som utfører 45 forsøk med riktige svar under en 5CSRTT-testøkt (se figur 6A for protokolldetaljer). Sporing av husets lys (rød markør), halesokkel (grønn markør) og hode (blå markør) er angitt i videoen. Opplæringen av nettverket (Network #2 i figur 10A) understreket nøyaktighet for bevegelser gjort langs kammergulvet i nærheten av nesen poke åpninger (høyre vegg, Figur 7A). Sporing av disse segmentene viser i gjennomsnitt > 90 % nøyaktighet. Sporing av episoder av oppdrett og grooming er unøyaktig, da treningssettet ikke inkluderte rammer av disse atferdene. Vær oppmerksom på at videoen er komprimert for å redusere filstørrelsen og ikke er representabel av videokvaliteten som er oppnådd med kameraet. Vennligst klikk her for å laste ned denne videoen.

Video 2: Eksempel på nøyaktig sporet dyr. Videoen viser en enkelt godt sporet studie av en rotte som utfører et riktig svar under 5CSRTT. Sporing av husets lys (rød markør), halesokkel (grønn markør) og hode (blå markør) er angitt i videoen. Nevrale nettverk #2 beskrevet i figur 10A ble brukt til sporing. Legg merke til hvordan markørene følger bevegelsene til dyret nøyaktig. Se også figur 10C,E for den plottede banen og bevegelseshastigheten for hodesporingen i dette videoklippet. Vennligst klikk her for å laste ned denne videoen.

Video 3: Eksempel på dårlig sporet dyr. Videoen viser en enkelt dårlig sporet studie av en rotte som utfører en riktig respons under 5CSRTT. Sporing av husets lys (rød markør), halesokkel (grønn markør) og hode (blå markør) er angitt i videoen. Nevrale nettverk #1 beskrevet i figur 10A ble brukt til sporing. Videoklippet er det samme som det som brukes i Video 2. Vær oppmerksom på at markøren for hodet ikke er pålitelig plassert på toppen av rottehodet. Se også figur 10D,E for den plottede banen og bevegelseshastigheten for hodesporingen i dette videoklippet. Vennligst klikk her for å laste ned denne videoen.

Video 4: Eksempel på bevegelser gjort under en 5CSRTT-studie med et svar. Videoen viser en enkelt godt sporet studie av en rotte som utfører et riktig svar under 5-CSRTT. Sporing av husets lys (rød markør), halesokkel (grønn markør) og hode (blå markør) er angitt i videoen. Legg merke til hvordan rotten først er plassert i klar nærhet til pelletbeholderen (venstre vegg, Figur 7A)og beveger seg deretter over for å fokusere oppmerksomheten på raden av nesestippåpninger. Vennligst klikk her for å laste ned denne videoen.

Video 5: Eksempel på en typisk utelatelsesstudie under 5CSRTT. Videoen viser en enkelt godt sporet studie av en rotte som utfører en typisk utelatelse under 5CSRTT. Sporing av husets lys (rød markør), halesokkel (grønn markør) og hode (blå markør) er angitt i videoen. Legg merke til hvordan rotten opprettholder sin posisjon rundt pelletbeholderen (venstre vegg, figur 7A)og kammersenter, i stedet for å snu seg rundt for å møte nesestippåpningene (høyre vegg, figur 7A). Den viste virkemåten og årsaken til utelatelsen kan argumenteres for å gjenspeile lav interesse for å utføre testen. Vennligst klikk her for å laste ned denne videoen.

Video 6: Eksempel på en atypisk utelatelsesstudie under 5CSRTT. Videoen viser en enkelt godt sporet studie av en rotte som utfører en atypisk utelatelse under 5CSRTT. Sporing av husets lys (rød markør), halesokkel (grønn markør) og hode (blå markør) er angitt i videoen. Legg merke til hvordan rotten posisjonerer seg mot nesestippåpningene langs høyre vegg av kammeret (Figur 7A). Dette kan hevdes å indikere at dyret er interessert i å utføre testen. Imidlertid vender rotten bort fra cued åpningen (sentral posisjon) når signalet presenteres (5 s inn i klippet). I motsetning til utelatelsen som vises i Video 4,er den som er sett her sannsynligvis relatert til sub-optimale visuospatial oppmerksomhetsprosesser. Vennligst klikk her for å laste ned denne videoen.

Video 7: Eksempel på at et dyr opprettholder en fokusert sentral posisjon under en ITI av 5CSRTT. Videoen viser en enkelt godt sporet studie av en rotte som utfører et riktig svar på en studie av 5CSRTT. Legg merke til hvordan rotten opprettholder en sentral posisjon under ITI, holde hodet stødig i nærheten av den sentrale nesen poke åpning langs kamrene høyre vegg (Figur 7A). Sporing av husets lys (rød markør), halesokkel (grønn markør) og hode (blå markør) er angitt i videoen. Vennligst klikk her for å laste ned denne videoen.

Video 8: Eksempel på et dyr som viser en søkelignende oppmerksomhetsstrategi under en ITI av 5CSRTT. Videoen viser en enkelt godt sporet studie av en rotte som utfører et riktig svar på en studie av 5CSRTT. Legg merke til hvordan rotten ofte omplasserer hodet til ansikt forskjellige nese poke åpninger langs høyre vegg av kammeret (Figur 7A). Sporing av husets lys (rød markør), halesokkel (grønn markør) og hode (blå markør) er angitt i videoen. Vennligst klikk her for å laste ned denne videoen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Denne protokollen beskriver hvordan du bygger et billig og fleksibelt videokamera som kan brukes til å ta opp videoer fra operant condition-kamre og andre atferdstestoppsett. Den demonstrerer videre hvordan du bruker DeepLabCut til å spore et sterkt lyssignal i disse videoene, og hvordan det kan brukes til å identifisere korte videosegmenter av interesse for videofiler som dekker full testøkter. Til slutt beskriver den hvordan man bruker sporing av en rottes hode for å utfylle analysen av atferd under operant kondisjoneringstester.

Protokollen presenterer et alternativ til kommersielt tilgjengelige videoopptaksløsninger for operant condition kamre. Som nevnt er den store fordelen med disse at de integreres med operantkamrene, slik at videoopptak av spesifikke hendelser. Tilnærmingen til å identifisere videosegmenter av interesse som er beskrevet i denne protokollen, er mer arbeidskrevende og tidkrevende sammenlignet med å bruke et fullt integrert system for å registrere bestemte hendelser. Det er imidlertid betydelig billigere (et nylig kostnadsestimat for videoovervåkingsutstyr for 6 operantkamre ble satt til ca. 13.000 USD. Til sammenligning ville det koste rundt 720 USD å bygge seks av kameraene som er oppført her. I tillegg kan kameraene brukes til flere andre atferdstestoppsett. Når du arbeider med kameraet, er det viktig å være oppmerksom på områdene av eksponert elektronikk (baksiden av kamerakomponenten samt IR LED-komponenten), slik at de ikke kommer i kontakt med væsker. I tillegg kan båndkabelen som fester kameramodulen til mikrodatamaskinen og kablene som kobler lysdiodene og brytere til GPIO-pinnene, løsne hvis kameraet flyttes ofte rundt. Dermed kan justering av utformingen av kamerahuset være gunstig for noen applikasjoner.

Bruken av DeepLabCut for å identifisere videosegmenter av interesse og spore dyrebevegelser gir et supplement og / eller alternativ til manuell videoanalyse. Mens førstnevnte ikke ugyldiggjør sistnevnte, har vi funnet ut at det gir en praktisk måte å analysere bevegelser og atferd inne i operant kamre. Spesielt gir det posisjonsdata av dyret, som inneholder mer detaljert informasjon enn det som vanligvis utvinnes via manuell scoring (dvs. faktiske koordinater sammenlignet med kvalitativ posisjonsinformasjon som "foran", "ved siden av" etc.).

Når du velger en protokolltrinnindikator, er det viktig å velge en som konsekvent angir et gitt trinn i atferdsprotokollen, og det er usannsynlig å bli blokkert av dyret. Hvis sistnevnte er problematisk, kan man vurdere å plassere en lampe utenfor operantkammeret og filme den gjennom kammerveggene. Mange operant condition kamre er modulære og tillater brukere å fritt flytte lys, sensorer og andre komponenter rundt. Det bør bemerkes at det finnes andre programvarepakker som også tillater brukere å trene nevrale nettverk i å gjenkjenne og spore brukerdefinerte objekter i videoer24,25,26. Disse kan sannsynligvis brukes som alternativer til DeepLabCut i gjeldende protokoll.

Protokollen beskriver hvordan man sporer den sentrale delen av et rotterhode for å måle bevegelser inne i operakamrene. Ettersom DeepLabCut gir full frihet i å velge kroppsdeler eller objekter av interesse, kan dette med bekvemmelighet endres for å passe til studiespesifikke interesser. En naturlig forlengelse av sporingen som er beskrevet her, er også å spore posisjonen til rottenes ører og nese, for bedre å dømme ikke bare hodeposisjon, men også orientering. De representative dataene som ble vist her ble omkodet med Long Evans rotter. Disse rottene viser betydelig inter-individuell variasjon i pigmenteringsmønsteret, spesielt mot halebasen. Dette kan føre til noen vanskeligheter med å bruke et enkelt trent nevrale nettverk for sporing av forskjellige individer. For å begrense disse problemene, er det best å inkludere videorammer fra alle dyr av interesse i treningssettet for nettverket. Det svarte hodet til Long Evans-rotten gir en rimelig sterk kontrast mot metalloverflatene i kammeret som brukes her. Dermed, å få nøyaktig sporing av hodet krever sannsynligvis mindre innsats enn med albino stammer. Det mest kritiske trinnet for å oppnå nøyaktig sporing med DeepLabCut eller sammenlignbare programvarepakker er å velge et godt antall ulike videorammer for opplæring av det nevrale nettverket. Som sådan, hvis sporing av et objekt av interesse anses å være sub-optimal, øke settet med treningsrammer bør alltid være det første skrittet mot å forbedre resultatene.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Mens materialer og ressurser fra Raspberry Pi-stiftelsen har blitt brukt og sitert i dette manuskriptet, var grunnlaget ikke aktivt involvert i utarbeidelse eller bruk av utstyr og data i dette manuskriptet. Det samme gjelder for Pi-Supply. Forfatterne har ingenting å avsløre.

Acknowledgments

Dette arbeidet ble støttet av tilskudd fra Den svenske hjernestiftelsen, Den svenske Parkinsonstiftelsen og den svenske regjeringen fond for klinisk forskning (M.A.C.), samt Wenner-Gren stiftelser (M.A.C, E.K.H.C), Åhlén foundation (M.A.C) og stiftelsen Blanceflor Boncompa Ludgniovisi, née Bildt (S.F).

Materials

Name Company Catalog Number Comments
32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

DOWNLOAD MATERIALS LIST

References

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user's manual. Coulbourn instruments. , Holliston, Massachusetts. 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer's manual. Med Associates Inc. , St. Albans, Vermont. 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat's behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user's manual. Med Associates Inc. , St. Albans, Vermont. 26-30 (2004).
  14. Coulbourn Instruments. Coulbourn Instruments. , Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020).
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. Raspberry Pi foundation. Raspberry Pi foundation. , Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020).
  19. Pi-supply. Pi-supply. , Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018).
  20. Python. Python. , Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020).
  21. MathWorks. MathWorks. , Available from: https://mathworks.com/academia/highschool/ (2020).
  22. Cran.R-Project.org. Cran.R-Project.org. , Available from: https://cran.r-project.org/manuals.html (2020).
  23. Liu, Y., Tian, C., Huang, Y. Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Tags

Atferd Utgave 160 Operant condition kognisjon videoopptak gnageratferd Raspberry Pi DeepLabCut
Sporing rotter i operant condition kamre ved hjelp av en allsidig hjemmelaget videokamera og deeplabcut
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Clemensson, E. K. H., Abbaszadeh,More

Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter