Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Automatisert Rat single-pellet nå med 3-dimensjonal rekonstruksjon av Paw og sifret baner

Published: July 10, 2019 doi: 10.3791/59979

Summary

Gnager dyktige nå brukes ofte til å studere fingernem ferdigheter, men krever betydelig tid og krefter på å gjennomføre oppgaven og analysere atferden. Vi beskriver en automatisert versjon av dyktige nå med Motion Tracking og tredimensjonal rekonstruksjon av nå baner.

Abstract

Gnager dyktige nå brukes ofte til å studere fingernem ferdigheter, men krever betydelig tid og krefter på å gjennomføre oppgaven og analysere atferden. Flere automatiserte versjoner av dyktige nå har blitt utviklet nylig. Her over, vi beskrive en versjon det automatisk gaver pellets å rotter stund innspillingen høy-definisjon video fra mangfoldig hjørnene for høy rammen ratene (300 FPS). Det pote og individ sifre er sporet med DeepLabCut, en apparat innlæring algoritmen for markerless positur estimering. Dette systemet kan også synkroniseres med fysiologiske opptak, eller brukes til å utløse fysiologiske inngrep (f.eks. elektrisk eller optisk stimulering).

Introduction

Mennesker er avhengige av fingernem dyktighet, definert som bevegelser som krever nøyaktig koordinert multi-joint og siffer bevegelser. Disse ferdighetene påvirkes av en rekke felles sykdommer i sentralnervesystemet, inkludert strukturelle lesjoner (f.eks. hjerneslag, tumor, demyeliniserende lesjoner), nevrodegenerative sykdom (f.eks. Parkinsons sykdom), og funksjonelle misdannelser i motor kretser (f.eks. Dystoni). Å forstå hvordan fingernem ferdigheter læres og gjennomføres av sentrale motor kretser har derfor potensiale til å forbedre livskvaliteten for en stor befolkning. Videre er slik forståelse sannsynlig å forbedre motoriske prestasjoner i friske mennesker ved å optimalisere opplæring og rehabilitering strategier.

Dissekere de nevrale kretser underliggende fingernem dyktighet hos mennesker er begrenset av teknologiske og etiske hensyn, nødvendiggjør bruk av dyremodeller. Nonhuman primater er ofte brukt til å studere fingernem lem bevegelser gitt likheten av deres motoriske systemer og atferdsmessige repertoar til mennesker1. Men ikke-menneskelige primater er dyrt med lang generasjon ganger, begrenser antall studier og genetiske intervensjoner. Videre, mens neuroscientific verktøykasse som gjelder for nonhuman primater er større enn for mennesker, mange nyere teknologiske fremskritt er enten utilgjengelige eller betydelig begrenset i primater.

Gnagere dyktige nå er en komplementær tilnærming til å studere fingernem motor kontroll. Rotter og mus kan trenes til å strekke seg etter, gripe og hente en sukker pellet i en stereotype sekvens av bevegelser som er homologe for menneskelig rekkevidde av mønster2. På grunn av sin relativt korte generasjon tid og lavere bolig kostnader, så vel som deres evne til å tilegne seg dyktige nå over dager til uker, er det mulig å studere et stort antall under både læring og dyktighet konsolidering faser. Bruken av gnagere, spesielt mus, forenkler også bruken av kraftige moderne neuroscientific verktøy (f. eks optogenetics, kalsium Imaging, genetiske modeller av sykdom) for å studere fingernem dyktighet.

Gnagere dyktige nå har vært brukt i flere ti år å studere normal motor kontroll og hvordan det er påvirket av konkrete patologi som slag og Parkinsons sykdom3. Men de fleste versjoner av denne oppgaven er arbeids-og tidkrevende, begrensende fordelene ved å studere gnagere. Typiske implementeringer innebære plassere gnagere i et nå kammer med en hylle foran en smal spor der gnager må nå. En forsker manuelt steder sukker pellets på sokkelen, venter på at dyret skal nå, og deretter plasserer en annen. Kommer er scoret som suksesser eller feil enten i sanntid eller ved video vurdering4. Men bare scoring når som suksesser eller feil ignorerer rike Kinematisk data som kan gi innsikt i hvordan (i motsetning til bare om) nå er svekket. Dette problemet ble adressert ved å implementere detaljert gjennomgang av å nå videoer for å identifisere og semi-kvantitativt score nå submovements5. Selv om dette lagt til noen data om nå kinematikk, det også betydelig økt eksperimentator tid og krefter. Videre kan høye nivåer av eksperimentator involvering føre til uoverensstemmelser i metodikk og dataanalyse, selv innenfor samme laboratorium.

Flere nylig, flere automatiserte versjoner av dyktige nå har blitt utviklet. Noen fester til hjemmet buret6,7, eliminerer behovet for å overføre dyr. Dette både reduserer stress på dyrene og eliminerer behovet for å acclimate dem til en spesialisert nå kammer. Andre versjoner tillate pote oppsporer i den grad at Kinematisk endre under spesifikk inngrep kan studert8,9,10, eller ha mekanismer å automatisk avgjøre hvis pellets var banket av det hylle11. Automatiserte dyktige nå oppgaver er spesielt nyttige for trening med høy intensitet, som kan være nødvendig for rehabilitering etter en skade12. Automatiserte systemer tillater dyr å utføre et stort antall når over lange perioder uten å kreve intensiv forsker involvering. Videre systemer som tillater labb sporing og automatiserte utfallet scoring redusere forsker tid brukt utføre dataanalyse.

Vi utviklet en automatisert rotte dyktige nå system med flere spesialiserte funksjoner. Først ved hjelp av en bevegelig pidestall å bringe pellet i "nå posisjon" nedenfor, får vi en nesten uhindret utsikt over forlemen. Sekund, et system av speil tillater flere samtidige visninger av rekkevidden med et enkelt kamera, slik at tredimensjonale (3-D) rekonstruksjon av rekkevidde baner ved hjelp av en høy oppløsning, høy hastighet (300 FPS) kamera. Med den nylige utviklingen av robust maskinlæring algoritmer for markerless Motion Tracking13, vi nå spore ikke bare labben, men enkelte knoke å trekke ut detaljert rekkevidde og gripe kinematikk. Tredje, en ramme-fanget som utfører enkel video prosessering tillater sanntids identifisering av distinkte nå faser. Denne informasjonen brukes til å utløse video oppkjøp (kontinuerlig video oppkjøpet er ikke praktisk på grunn av filstørrelse), og kan også brukes til å utløse intervensjoner (f. eks optogenetics) på presise øyeblikk. Til slutt, individ video rammens er avtrekker av transistor-transistor logikk (TTL) impuls, tillater det video å bli akkurat samtidighet med neural registreringene (e.g., elektrofysiologi eller fotometri). Her beskriver vi hvordan å bygge dette systemet, trene rotter til å utføre oppgaven, synkronisere apparater med eksterne systemer, og rekonstruere 3-D nå baner.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle metoder innvolvere dyr Bruk beskrevet her over ha blitt anerkjent av det institusjonell dyr bekymre og bruk komité (IACUC) av det universitet av Michigan.

1. sette opp det nå kammer

Merk: Se Ellens et al.14 for detaljer og diagrammer av apparatet. Delnummer referer til figur 1.

  1. Bond klart polykarbonat paneler med akryl sement for å bygge det nå kammer (15 cm bred av 40 cm lang med 40 cm høy) (del #1). En Sidepanel (del #2) har en hengslet dør (18 cm bred med 15 cm høy) med en lås. Hvis rotta ville være bundet til en kabel, kutt en slit (5 cm bred av 36 cm lang) inn i kammeret tak å huse den (del #12). Gulv panelet har 18 hull (1,75 cm diameter) (del #13) skåret inn i den og er ikke limt til resten av kammeret.
  2. Monter og Juster infrarøde sensorer (del #3) i sidepanelene 4,5 cm fra baksiden av kammeret og 3,8 cm fra gulvet. Det opptreden programvare har en indikatoren (' IR rygg ') det er grønn når det Infrared stråle er ubrutt og rød når strålen er knust. En gang edb-programmer er stille opp, denne kan brukes å sjekk sensor oppstilling.
  3. Monter et speil (15 cm x 5 cm, del #4) 10 cm over den nådde sporet (del #14). Vinkel speilet slik at pellet levering stangen er synlig for kameraet.
  4. Plasser kammeret på en hygieniserbare støtte boks (59 cm bred med 67,3 cm lang med 30,5 cm høy, del #5). Kammeret hviler over et hull i støtte boksen (12 cm bred med 25 cm lang) som gjør at søppel til å falle gjennom gulvet hullene (del #13) og ut av det nå kammer. Skjær et andre hull (7 cm bred med 6 cm lang, del #15) i støtte boksen foran den nå sporet, som gjør at en pellet levering stang å bringe pellets til den nå sporet.
  5. Monter to speil (8,5 cm bred x 18,5 cm høy, del #6) til gulvet med magneter på hver side av kammeret slik at den lange kanten av speilet berører sidepanelet 3 cm fra fronten av den nå boks. Vinkel speilene slik at kameraet kan se inn i boksen og området foran den nå sporet der pellet vil bli levert.
  6. Monter High-Definition-kameraet (del #7) 17 cm fra den nå sporet, vendt mot boksen.
  7. Monter svart papir (del #18) på hver side av kameraet, slik at bakgrunnen i sidespeilene er mørk. Denne forsterker kontrasten å gjøre bedre virkelig-tid og av-line pote oppdagelsen.
  8. Monter den lineære aktuator (del #16) på en hygieniserbare ramme (25 cm bred med 55 cm lang med 24 cm høy, del #8) med skruer. Den aktuator er montert opp ned for å hindre pellet støv akkumuleres i sin posisjon-sensing potensiometer.
  9. Sett en skum O-ring inn i halsen på pellet reservoaret (trakt) (del #9) for å hindre støv fra å akkumulere i forsamlingen. Monter trakten under et hull (~ 6 cm diameter, del #17) i toppen av rammen ved å gli i kantene av trakten over tre skruer boret inn i undersiden av ramme toppen. Sett førings slangen (del #10) inn i halsen på trakten.
  10. Fest plast T-kontakten til enden av stål stangen på aktuatoren. Sett den koniske enden av pellet levering stangen inn i toppen av kontakten og cupped enden gjennom førings røret inn i pellets reservoaret.
  11. Plasser den lineære aktuatoren forsamlingen under dyktige nå kammeret slik at pellet levering stangen kan forlenge gjennom hullet (del #15) foran den nå sporet.
  12. Plasser hele apparatet i et hjul kabinett (121 cm x 119 cm x 50 cm) ventilert med datamaskin vifter (interiøret blir varmt når det er godt opplyst) og foret med akustisk skum.
  13. Bygg fem lyspaneler (del #11) ved å følge LED lys strimler på 20,3 cm med 25,4 cm støtte paneler. Monter diffuser film over lys strimler. Monter ett lys panel på taket over pellet levering Rod området. Monter de fire andre på sidene av skapene langs det nå kammer.
    Merk: det er viktig å belyse området rundt den nå sporet og pellet levering stang for sanntids labb identifikasjon.

2. sette opp datamaskinen og maskinvaren

  1. Installer FPGA Frame Grabber og digitale utvidelseskort i henhold til produsentens anvisninger (se tabell over materialer).
    Merk: Vi anbefaler minst 16 GB RAM og en intern SSD-harddisk for datalagring, ettersom strømming av høyhastighets videoen krever betydelig buffer kapasitet.
  2. Installer drivere for HD-kameraet og koble det til FPGA-film opptaks. Den atferdsmessige programvaren må kjøre og grensesnitt med kameraet til å bruke programvaren som er knyttet til kameraet.
    Merk: den inkluderte koden (se tilleggsfiler) har tilgang til programmerbare registre i kameraet og er kanskje ikke kompatible med andre merker. Vi anbefaler å ta opp minst på 300 bilder per sekund (FPS); for 150 fps vi grunnlegge det nøkkel endre inne pote holdning var ofte savnet.
  3. Kopier den inkluderte koden (prosjektet) i "SR Automation_dig_ext_card_64bit" til datamaskinen.

3. opptreden lærer opp

  1. Forbered rotter før trening.
    1. House Long-Evans rotter (mann eller kvinne, i alderen 10-20 uker) i grupper på 2-3 per bur på en omvendt lys/mørk syklus. Tre dager før trening, sted rotter på mat begrensning for å opprettholde kroppsvekt 10-20% under Baseline.
    2. Håndter rotter i flere minutter per dag i minst 5 dager. Etter handling, sted 4 – 5 sukkeret pellets per rotten inne hver hjem bur å introdusere det romanen næringen.
  2. Venne rotta til det nå kammer (1 – 3 dager)
    1. Slå på LED-lampene og plasser 3 sukker pellets foran og bak på kammeret.
    2. Sted rotta inne kammeret og tillate rotta å utforske for 15 min. dataskjerm hvis den mat det pellets. Gjentagelse denne phase til rotta spiser alle av det pellets av av gulvet.
    3. Rengjør kammeret med etanol mellom rotter.
      Merk: Utfør opplæring og testing under den mørke fasen. Tog rotter samtidig daglig.
  3. Tog rotta å rekkevidde og observere pote preferanse (1 – 3 dager).
    1. Skru på lyset og sted rotta inne det faglært rekkevidde kammeret.
    2. Bruk pinsett, Hold en pellet gjennom den nå sporet foran på esken (figur 1, figur 2). Tillate rotta å spise 3 pellets fra det tang.
    3. Morgendagen tid rotta prøver å spise det pellet fra det tang, rykk det pellet rygg. Senere, rotta ville prøve å rekkevidde for det pellet med dens pote.
    4. Gjenta dette 11 ganger. Det pote det rotta bruker høyst ute av det 11 prøvene er rotta ' "pote preferanse".
      Merk: et forsøk er definert som labben nå ut forbi den nå sporet. Rotta er ikke nød å med hell få og spise det pellet.
  4. Tog rotta å rekkevidde å det pellet leveranse stang (1 – 3 dager)
    1. Juster pellet levering stangen med siden av den nå sporet kontralateral til rotte ' s foretrukne labb (bruk en guide for å sikre konsistent plassering 1,5 cm fra fronten av det nå kammer). Toppen av leveransen stangen skal justeres med bunnen av den nådde sporet (figur 2b). Plasser en pellet på leveransen stangen.
      NOTE plasseringen leveringen stang opposite rotta ' foretrakk pote lager den vanskelig for rotta å få pellet med dens ingen-foretrakk pote. Vi har ikke fikk utgaver med rotter benytter deres ingen-foretrakk pote. Men i enkelte modeller (f. eks, slag) Dette kan fortsatt forekomme, og en tilbakeholdenhet på ikke-foretrukne rekkevidde lem kan legges.
    2. Agn rotta med en pellet holdt ved hjelp av tang, men direkte rotta mot levering stangen slik at labben treffer pellet på stangen. Hvis rotta dunk det pellet av av stangen, ombytte den. Noen rotter kan ikke i utgangspunktet nå ut langt nok. I dette tilfellet, bevege det pellet leveranse stang nøyere å det rekkevidde sprekk og så langsomt bevege den fremme fjerne idet rotta gjøre bedre.
    3. Etter om 5 – 15 agnet når rotta ville begynne å rekkevidde for det pellet på leveranse stang spontan. En gang rotta har forsøkte 10 når å leveringen stang uten tilværelse agnet, den kanne gå videre å morgendagen phase.
  5. Tog rotta å anmodning en pellet (2 – 8 dager).
    NOTE selv om vi har fikk 100% hell lærer opp rotter å rekkevidde for pellets, om 10% av rotter svikter å høre å anmodning en pellet av flytter å baksiden av kammeret.
    1. Holdning det pellet leveranse stang basert på det rotten ' pote Preferanse og sette den å holdning 2 (skikkelsen 2a). Sett høyde posisjoner av pellet levering stangen ved hjelp av aktuator fjernkontrollen. Holding knappene 1 og 2 samtidig flytter leveransen stangen opp, mens du holder knappene 3 og 2 flytter leveransen stangen ned. Når leverings stangen er i riktig høyde, holder du nede ønsket nummer til lyset blinker rødt for å stille inn.
    2. Sted rotta inne kammeret og agn rotta å baksiden med en pellet. Når rotta beveger far nok å baksiden av kammeret det den ville brekke det Infrared stråle hvis det automatisert versjon løper, bevege det pellet leveranse stang å holdning 3 (skikkelsen 2b).
    3. Vente på rotta å rekkevidde for det pellet og så bevege det pellet leveranse stang rygg å holdning 2 (skikkelsen 2a). Plasser en ny pellet på leveransen stangen hvis den ble slått av.
    4. Gjentagelse disse skritt, gradvis lokkemiddel rotta færre og færre, til rotta begynner å: (i) bevege å baksiden å anmodning en pellet uten tilværelse agnet, og (II) med det samme bevege å forsiden etter anmoder en pellet inne baksiden. En gang rotta har gjort denne 10 timene, det er en moden til lærer opp på automatisert oppgave.

4. opplæring rotter ved hjelp av automatiserte system

  1. Konfigurer det automatiserte systemet.
    1. Slå på lysene i kammeret og fyll på pellet reservoaret om nødvendig.
    2. Holdning det pellet leveranse stang alt etter det rotten ' pote preferanse. Kontroller at posisjonen til aktuatoren er riktig innstilt (som i figur 2a).
    3. Slå på datamaskinen og åpne dyktige nå program (SR_dig_extension_card_64bit_ (HOST) _ 3. vi). Gå inn det rotten ID antallet under motiv og velge det pote preferanse fra hånden miste-ned meny. Angi lagringsbanen for videoene.
    4. Angi økt tid og Maks videoer (antall videoer du vil avslutte økten på). Programmet vil slutte å kjøre på den grensen som er nådd først.
    5. Sett pellet Lift varighet (varighet av tid at leveransen stangen forblir i posisjon "3" etter at rotte ber om en pellet). Aktivere eller deaktivere tidlig rekkevidde straff (levering Rod tilbakestilles til posisjon "1" og deretter tilbake til "2" hvis rotta når før du ber om en pellet).
  2. Ta kalibrerings bilder. Den 3-D banen gjenoppbygging bruker en datamaskin visjons verktøykasse for å bestemme riktig transformasjon matriser, som krever identifisering matchet poeng i hver visning. For å gjøre dette, bruk en liten kube med sjakkbrett mønstre på hver side (Figur 3).
    1. Plasser hjelpende hånd inne i det nå kammer og dytte Alligator klippet gjennom den nå sporet. Hold kuben foran den nå sporet med Alligator klippet.
    2. Plasser kuben slik at den røde siden vises i det øverste speilet, den grønne siden i venstre speil og den blå siden i det høyre speilet. Hele ansiktet til hver av de tre sidene skal være synlig i speilene (Figur 3).
    3. I atferds programmet må du sørge for at Avkastnings terskelen er satt til en svært stor verdi (f.eks. 60000). Klikk på Kjør-knappen (hvit pil). Når kameraets initialisert -knapp blir grønn, trykker du på Start. Vær oppmerksom på at videoen blir anskaffet.
    4. Klikk på Cal-modus. Deretter tar du et bilde ved å klikke på ta Cal image. Banen til bildekatalogen vil nå vises under ". png Path" med. png filnavn formatert som "GridCalibration_YYYYMMDD_img #. png".
    5. Flytt kuben litt, og ta et annet bilde. Gjenta igjen for totalt 3 bilder.
    6. Stopp programmet ved å klikke Stopp og deretter på Stopp tegn knappen. Fjern hjelpende hånd og kube fra boksen.
    7. Vær forsiktig så du ikke bump noe i atferds kammeret etter kalibrering bilder har blitt tatt den dagen. Hvis noe beveger seg, må nye kalibrerings bilder tas.
  3. Kjør det automatiserte systemet.
    Merk: Bestem "ROI terskel" innstillinger (beskrevet nedenfor) for hvert speil før du kjører rotter for faktisk datainnsamling. Når disse innstillingene er fastsatt, pre-set dem før du starter programmet og justere under oppkjøpet om nødvendig.
    1. Sted rotta inne det faglært rekkevidde kammeret. Klikk på den hvite pilen for å kjøre programmet.
    2. Før du klikker Start, angi plasseringen av avkastningen for pote oppdagelsen ved å justere x-offset (x-koordinat i øvre venstre hjørne av avkastningen rektangel), y-offset (y-KOORDINAT i øvre venstre hjørne av avkastningen), ROI bredde og ROI høyde.
    3. Plasser AVKASTNINGEN i sidespeilet som viser antecubital av labben, rett foran det nå sporet (figur 2C). Være sikker det det pellet leveranse stang er ikke gå inn det ROI og det AVKASTNINGEN er ikke forlenge inn i bokse med å forhindre det pellet eller rotta ' fur fra avtrekker en video når rotta er ikke rekkevidde.
    4. Klikk Start for å starte programmet.
    5. Juster verdien "lav AVKASTNINGS terskel" til "Live ROI trigger value" svinger mellom "0" og "1" (når rotta ikke nå). Denne verdien er antallet piksler i AVKASTNINGEN med intensitet verdier i terskel området.
    6. Angi Avkastnings terskelen. Legge merke til det bo ROI avtrekker salgsverdi når rotta dens nese inn i ROI og når rotta når for det pellet. Sett ROI terskelen til å være betydelig større enn Live ROI trigger verdi under nesen og lavere enn Live ROI trigger verdi når rotta når. Juster til videoene er konsekvent utløses når rotta når, men ikke når den nesen gjennom sporet
      Merk: Dette forutsetter at labben er lettere farget enn nesen; justeringene vil bli reversert hvis labben er mørkere enn nesen.
    7. Overvåk de første forsøkene på å sikre at alt fungerer som det skal. Når en rotte kommer før du ber om en pellet (leverings stang i posisjon "2"), øker "Early kommer"-nummeret. Når en rotte kommer etter å ha bedt om en pellet (leverings stang i posisjon "3"), øker "Videos"-nummeret og en video lagres som en. bin-fil med navnet "RXXXX_YYYYMMDD_HH_MM_SS_trial #".
      Merk: standard er for videoer å inneholde 300 rammer (dvs. 1 s) før og 1000 bilder etter trigger hendelsen (dette er konfigurerbar i programvaren), som er lang nok til å inneholde hele rekkevidde-til-tak bevegelse inkludert pote tilbaketrekking.
    8. Når økten tid eller maks videoer er nådd, stopper programmet. Trykk på Stopp skilt knappen.
    9. Rengjør kammeret med etanol og gjenta med en annen rotte, eller hvis det gjøres for dagen fortsetter å konvertere videoer.
  4. Konvertere BIN-filer til AVI-filer.
    Merk: komprimering av videoer under oppkjøpet forårsaker droppet rammer, slik at binære filer blir streamet til disk under oppkjøpet (bruk en solid state-stasjon på grunn av høye dataoverføringshastigheter). Disse binære filer må komprimeres off-line eller lagring kravene er uoverkommelig stor.
    1. Åpne programmet "bin2avi-color_1473R_noEncode. vi".
    2. Under "filbane kontroll" klikker du på mappe knappen for å velge økten (f. eks R0235_20180119a) du vil konvertere. Gjenta for hver sesjon (opptil seks).
    3. Klikk den hvite pilen (kjøre) og deretter "START" for å begynne. Du kan overvåke video komprimering i "total Progress (%)" Bar. La programmet kjøre over natten.
    4. Tidligere du begynne lærer opp dyrene morgendagen, sjekk det det video ha blitt omvendt og fjerne det. bin fil-størrelse så det er nok mellomrom å erverve ny video.

5. analysere videoer med DeepLabCut

NOTE annerledes nettverk er utdannet for hver pote preferanse (rett pote og igjen pote) og for hver utsikt (direkte utsikt og igjen speilet utsikt for rett pawed rotter, direkte utsikt og rett speilet utsikt for igjen pawed rotter). Topp speilet visningen brukes ikke til 3D-rekonstruksjon – bare for å oppdage når nesen kommer inn i sporet, noe som kan være nyttig for å utløse intervensjoner (f.eks. optogenetics). Hvert nettverk blir deretter brukt til å analysere et sett med videoer beskjæres for tilsvarende labb og visning.

  1. Tren opp DeepLabCut-nettverkene (detaljerte instruksjoner er gitt i DeepLabCut-dokumentasjonen på https://github.com/AlexEMG/DeepLabCut).
    1. Opprette og konfigurere et nytt prosjekt i DeepLabCut, en maskinlæring algoritme for markerless utgjøre estimering13.
    2. Bruk programmet til å trekke ut rammer fra dyktige nå videoer og beskjære bilder til visningen for å inkludere (direkte eller speil visning) i programmet grensesnittet. Avling rammens stor nok i den grad at rotta og begge to forside paws er synlig.
      Merk: nettverk krever vanligvis 100 – 150 trenings RAM mer. Flere lærer opp rammens er behøvde når det pote er innenfor idet sammenlignet med ytterside kammeret med hensyn til lighter. Strammere beskjæring reduserer behandlingstiden, men vær forsiktig så de beskjæres regionene er store nok til å oppdage labben fulle banen for hver rotte. Den burde være bred nok for rotta ' hel kropp å anfall inne rammen (direkte utsikt), og å se så langt tilbake inn i kammeret idet mulig og foran det leveranse stang (speilet utsikt).
    3. Bruk programmet GUI å merke kroppsdeler. Label 16 poeng i hver ramme: 4 metacarpophalangeal (MCP) ledd, 4 proksimale interfalangeal (PIP) ledd, 4-sifret tips, antecubital av den nå labben, nesen, antecubital av den ikke-rekkende labben, og pellet (Figur 4).
    4. Følg instruksjonene i DeepLabCut (forkortet til DLC heretter) for å opprette treningsdata settet, trene nettverket og evaluere det trente nettverket.
  2. Analyser videoer og forbedre nettverket.
    1. Før analysere alle videoer med en nylig trent nettverk, analysere 10 videoer for å evaluere nettverkets ytelse. Hvis det er konsekvente feil i visse positurer, ekstra trening rammer som inneholder disse utgjør og omskolere nettverket.
    2. Når du analyserer videoer, må du sørge for å output. CSV-filer, som vil bli matet inn i koden for 3D banen rekonstruksjon.

6. boks kalibrering

Merk: disse instruksjonene brukes til å bestemme transformasjon matriser til å konvertere poeng identifisert i direkte og speil visninger i 3-D koordinater. For den mest oppdaterte versjonen og mer informasjon om hvordan du bruker boxCalibration-pakken, kan du se administrator Lab GitHub: https://github.com/LeventhalLab/boxCalibration, som inneholder trinnvise instruksjoner for bruk.

  1. Samle alle kalibrerings bilder i samme mappe.
  2. Bruke ImageJ/Fiji, manuelt merke sjakkbrett poeng for hvert kalibrerings bilde. Lagre dette bildet som "GridCalibration_YYYYMMDD_ #. tif" der ' YYYYMMDD ' er datoen kalibrerings bildet tilsvarer og ' # ' er bildenummeret for denne datoen.
    1. Bruk målefunksjonen i ImageJ (i verktøylinjen, velg analyser | Måle). Dette vil vise en tabell som inneholder koordinater for alle punkter som er merket. Lagre denne filen med navnet "GridCalibration_YYYYMMDD_ #. csv", der dato og bilde nummer er det samme som den tilsvarende TIF-filen.
  3. Fra boxCalibration -pakken åpner du filen ' setParams. m '. Denne filen inneholder alle nødvendige variabler og deres beskrivelse. Rediger variabler etter behov for å tilpasse prosjektets spesifikasjoner.
  4. Kjør calibrateBoxes -funksjonen. Flere ledetekster vil vises i kommandovinduet. Den første ledeteksten spør om du vil analysere alle bildene i mappen. Skrive Y vil avslutte ledetekstene, og alle bilder for alle datoer vil bli analysert. Typing N vil be brukeren om å angi datoer for å analysere.
    Merk: to nye kataloger vil bli opprettet i kalibrerings images mappen: ' markedImages ' inneholder. png filer med den brukerdefinerte sjakkbrett merker på kalibrerings bildet. Mappen ' boxCalibration ' inneholder. mat-filer med boks kalibrerings parametrene.
  5. Kjør checkBoxCalibration -funksjonen. Dette vil opprette en ny mappe, ' checkCalibration ' i ' boxCalibration ' mappen. Hver dato vil ha en undermappe som inneholder bilder og flere. fig-filer, som brukes til å kontrollere at boksen kalibrering ble fullført nøyaktig.

7. rekonstruere 3D-baner

  1. Sett sammen CSV-filene som inneholder lærings programmet, utdata i katalogstrukturen som er beskrevet i reconstruct3Dtrajectories -skriptet.
  2. Kjør reconstruct3Dtrajectories. Dette skriptet vil søke i katalogstrukturen og matche direkte/speil poeng basert på deres navn i det skjeve programmet (det er viktig å bruke de samme kropps dels navnene i begge visningene).
  3. Kjør calculateKinematics. Dette skriptet trekker ut enkle Kinematisk funksjoner fra 3-D banen rekonstruksjoner, som kan skreddersys til spesifikke behov.
    Merk: programvaren anslår plasseringen av okkludert kroppsdeler basert på deres naboer og deres plassering i komplementær visning (f. eks plasseringen av en kroppsdel i direkte kameravisning begrenser sine mulige steder i speilet visning). For timene når det pote er okkludert inne speilet utsikt for den passerer igjennom det sprekk, pote koordinater er interpolert basert på nabo-rammens.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Rotter erverve dyktige nå oppgaven raskt en gang acclimated til apparatet, med ytelse plateauing i form av både antall når og nøyaktighet over 1-2 uker (figur 5). Figur 6 viser eksempler på video bilder som indikerer strukturer identifisert av DeepLabCut, og figur 7 viser lagret individuell rekkevidde baner fra en enkelt sesjon. Til slutt, inne skikkelsen 8, vi illustrere hva hender hvis det pote oppdagelsen avtrekker (skritt 4.3.4 – 4.3.6) er ikke akkurat sette. Det er betydelig variasjon inne rammen til hvilken det pote brudd det rekkevidde sprekk. Dette er ikke et stort problem i form av å analysere nå kinematikk. Det kan imidlertid føre til variasjon i når intervensjoner (f.eks. optogenetics) utløses under rekkevidde av bevegelser.

Figure 1
Figur 1: den dyktige nå kammeret.
Klokken fra øverst til venstre er en sidevisning, en utsikt fra fronten og over, rammen der aktuatoren er montert (se trinn 1,8), og en visning fra siden og over. Den dyktige nå kammer (1) har en dør (2) skåret i én side for å tillate rotter skal plasseres inn og tatt ut av kammeret. En slit er skåret i taket panelet (12) for å la dyret skal være bundet og hullene er skåret i gulvet panel (13) for å tillate søppel å falle gjennom. To infrarøde sensorer (3) er justert på hver side av baksiden av kammeret. Et speil (4) er montert over den nå sporet (14) på forsiden av det nå kammer og to andre speil (6) er montert på hver side av det nå kammer. Den dyktige nå kammer sitter oppå en støtte boks (5). Kameraet med høy oppløsning (7) monteres på støtte boksen foran det nå sporet. To stykker av svart papir (18) er montert på hver side av kameraet (7) for å forbedre kontrasten av labben i sidespeilene (6). Understøtte boksen er det en ramme (8) som støtter den lineære aktuatoren (16) og pellets reservoaret (9). En guide tube encasing pellet levering Rod (10) er passe inn i pellet reservoaret og kontrollert av den lineære aktuator. Hullene er skåret inn i aktuatoren rammen (17) og støtte boksen (15) over pellet reservoaret å tillate pellet levering stangen å bevege seg opp og ned fritt. Boksen er opplyst med lyspaneler (11) montert på kabinettet vegger og tak. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 2
Figur 2: enkel prøve struktur.
(A) en rettssak begynner med pellet levering stangen (kontrollert av en lineær aktuator) plassert på "klar" posisjon (posisjon 2-midt mellom gulv og bunn av nå sporet). (B) rotta beveger å baksiden av kammeret å brekke det INFRARED (IR) stråle, hvilke anledninger det pellet leveranse stang å stige til holdning 3 (oppstilt med bunnen av rekkevidde sprekk). (C) rotta når gjennom den nå sporet for å forstå pellet. Når oppdages i sanntid ved hjelp av en FPGA-film opptaks som registrerer endringer i piksel intensitet i en region av interesse (ROI) i sidespeil visningen rett foran sporet. Når nok piksler samsvarer med den brukerdefinerte "labb intensiteten", utløses video oppkjøpet. (D) to sekunder senere blir pellet senkes til posisjon 1, plukker opp en ny pellet fra pellet reservoaret før tilbakestilling til posisjon 2. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 3
Figur 3: eksempel på kalibrerings bilde.
En hjelpende hånd er plassert inne i dyktige nå kammeret. En Alligator klipp gjennom den nå sporet til å holde kalibreringen kuben på plass utenfor det nå kammer. De tre sjakkbrett mønstrene er helt synlige i direkte visning og tilhørende speil visninger (grønn: venstre; rød: topp; og blå: høyre). Vennligst klikk her for å se en større versjon av dette tallet.

Figure 4
Figur 4: posisjon for å lære algoritmen markør.
Venstre kolonne: direkte visning; høyre kolonne: speil visning. Markører 1 – 4: MCP-ledd; 5 – 8: PIP-leddene; 9 – 12: siffer tips; 13: antecubital av rekkevidde pote; 14: nese; 15: antecubital av ikke-rekkevidde pote. Markør 16 (pellet) er ikke synlig. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 5
Figur 5: rotter raskt erverve automatisert dyktige nå oppgaven.
Gjennomsnittlig første suksess rate (grønn, venstre akse) og gjennomsnittlig totalt antall forsøk (blå, høyre akse) over de første 20 treningsøktene i den automatiserte dyktige nå oppgaven (n = 19). Hver treningsøkt varte i 30 minutter. feilfelt representerer standard feil av gjennomsnittet. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 6
Figur 6: eksempel på video bilder som er merket av lærings programmet.
Venstre kolonne: speil visning; høyre kolonne: direkte visning. Cyan, rød, gul og grønn prikker markerer henholdsvis sifrene 1 – 4. Den hvite prikken markerer nesen, den sorte prikken markerer pellet. Fylte sirkler ble identifisert av DeepLabCut. Åpne sirkler markere objekt posisjoner anslått av hvor dette objektet dukket opp i motsatt visning. X ' s er poeng re-projisert på video bilder fra anslagene for sine 3-D steder. Denne videoen ble utløst på ramme 300, som labben passerte gjennom sporet. Topp bilder er fra det første bildet når den nå labben ble oppdaget. Bottom bilder er fra rammen der det andre sifferet var maksimalt utvidet. Disse rammene ble identifisert av bildebehandling programvare. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 7
Figur 7: sample 3-D-baner fra én enkelt test økt.
Begge aksene viser de samme dataene, men roteres for enkel presentasjon. Svarte linjer indikerer gjennomsnittlig baner. Cyan, rød, gul og grønn er individuelle baner av spissene på sifrene 1 – 4. Blå linjer indikerer banen til labben antecubital. Den store svarte prikken indikerer sukker pellet som ligger ved (0,0, 0). Dette representerer bare første labben avansement for enkel presentasjon (inkludert retractions og flere når gjør figuren nesten uninterpretable). Alle Kinematisk data er imidlertid tilgjengelige for analyse. Vennligst klikk her for å se en større versjon av dette tallet.

Figure 8
Figur 8: histogrammer med ramme numre der bestemte faser ble identifisert for to forskjellige økter.
I en sesjon (mørke solid linjer), AVKASTNINGEN utløser verdiene ble nøye satt, og labben ble identifisert brudd på sporet innenfor de samme få rammer i hvert forsøk. I den andre økten (lys stiplede linjer), var nesen ofte feilidentifisert som den nådde labben, utløser video oppkjøpet for tidlig. Merk at dette ville ha liten effekt på off-line Kinematisk analyser med mindre full rekkevidde ikke ble tatt. Men potensielle intervensjoner utløst av den nå labben ville være dårlig timet. Vennligst klikk her for å se en større versjon av dette tallet.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Gnager dyktige nå har blitt et standard verktøy for å studere motor system fysiologi og patofysiologi. Vi har beskrevet hvordan å iverksette en automatisert rotten dyktig rekkevidde oppgave det innrømmer: lærer opp og tester med minimal oppsyn, 3-D pote og tall bane rekonstruksjon (i løpet av rekkevidde, griper, og pote tilbaketrekking), virkelig-tid legitimasjonen av det labb under rekkevidde, og synkronisering med ekstern elektronikk. Det egner seg godt til å koordinere forlemen kinematikk med fysiologi eller for å utføre nøyaktig tidsbestemte intervensjoner under nå bevegelser.

Siden vi i utgangspunktet rapporterte denne designen14, har vår trening effektivitet forbedret slik at nesten 100% av rotter erverve oppgaven. Vi har identifisert flere viktige faktorer som fører til konsekvent vellykket trening. Idet med mange verv motivere av sult, rotter burde være forsiktig kontrollert i løpet av kalori begrensning å vedlikeholde 80 – 90% av deres foregripe kropp vekt. Behandling rottene daglig, aften tidligere å lærer opp, er betenkelig betydelig å acclimate seg å human. Rotter burde være utdannet å rekkevidde tidligere innlæring å gjensyn med baksiden av kammeret å anmodning pellets — denne sterkt reduserer lærer opp tid og gjøre bedre sannsynligheten det rotter erverve vervet. Til slutt, når overført mellom tilsynelatende identiske kamre, rotter ofte utføre færre når. Dette var spesielt sant når kamre ble brukt for første gang. Vi spekulerer i at dette skyldes forskjeller i duft mellom kamre. Hva enn anledningen, det er en betydelig å vedlikeholde idet stabile en lærer opp omgivelsene idet mulig, eller acclimate rottene for alle boksene i hvilket tester kunne finnes.

Apparatet som beskrives her er lett å tilpasse til spesifikke behov. Vi beskrev en rotte versjon av oppgaven, men har også implementert en mus versjon (selv om det er vanskelig å identifisere individuelle sifre med DeepLabCut i mus). Fordi enkelte videodelbilder er merket med TTL-pulser, kan videoer synkroniseres med et hvilket som helst opptakssystem som godtar digitale eller analoge innganger (f.eks. elektrofysiologi forsterkere eller fotometri). Til slutt, leder-fast mus lett utføre dyktige nå9, og en Head-fast versjon av denne oppgaven kan implementeres for 2-Foton Imaging eller juxtacellular innspillinger. Betydelig, vi har bare anvendt denne system med lang-Evans rotter, hvis nese og pote fur (sort og hvit, respectively) avviker nok inne fargen det nese er ikke feilaktig for når (med passende ROI innfatningene, skikkelsen 8). Dette kan være et problem for rotter med lignende farge på sine poter og neser (f. eks, albino rotter), men kan løses ved å fargelegge labben med blekk, neglelakk eller tatoveringer.

Den presenterte versjonen av dyktige nå har flere forskjellige funksjoner, som kan være fordelaktig avhengig av det spesifikke programmet. Det relativt innviklet isenkram og nød for virkelig-tid video bearbeiding lage den dårlig suite å hjem bur lærer opp6,7. På den annen side, hjemme buret trening gjør det vanskelig å skaffe høyhastighets høyoppløselig video fra flere vinkler, eller snor dyrene for fysiologiske innspillinger/intervensjoner. Datainnsamling kort og krav til en datamaskin per kammer gjør hvert kammer relativt dyrt, og videoene krever betydelig Digital lagringsplass (~ 200 MB per 4 s video). Vi har implementert en enklere microcontroller-basert versjon koster ca $300 per kammer, men det mangler sanntids tilbakemelding eller muligheten til å synkronisere med eksterne enheter. Disse boksene er i hovedsak identiske med de som er beskrevet her, men bruker en kommersiell videokamera og ikke krever en datamaskin bortsett fra å programmere microcontroller (detaljer om dette oppsettet og tilhørende programvare er tilgjengelig på forespørsel). Virkelig-tid video bearbeiding på FPGA rammen-fanget er særlig nyttig; Vi finner det den flere robust identifiserer når inne virkelig tid enn Infrared stråle eller nærhet sensor (hvilke kanskje feil rotta ' snute for det rekkevidde pote). Videre, mangfoldig avtrekker kanskje bli brukt til å identifisere det pote for annerledes rekkevidde faser (e.g., adgang å det sprekk, pote Heis, forlengelsen igjennom sprekk). Dette ikke bare tillater reproduserbar, presist-tidsbestemt neuronal forstyrrelser, men kan brukes til å utløse lagring av korte høyhastighets videoer.

Selv om vår automatiserte versjon av dyktige nå har flere fordeler for bestemte programmer, har det også noen begrensninger. Som nevnt ovenfor, høyhastighets, høyoppløselig kamera er moderat dyrt, men nødvendig å inkludere speil og direkte visninger i et enkelt bilde og fange svært rask nå bevegelse. Ved hjelp av ett kamera eliminerer behovet for å synkronisere og spille inn flere videostrømmer samtidig, eller kjøpe flere kameraer og ramme grabbers. Det pote inne det reflektert utsikt er effektivt om to ganger så langt fra kameraet (av rokke-tracing) idet inne det direkte utsikt. Dette betyr at en av visningene er alltid ute av fokus, selv om DLC fortsatt robust identifiserer individuelle sifre i begge visningene (Figur 4, figur 6). Til slutt brukte vi en farge kamera fordi, før tilgjengeligheten av DLC, prøvde vi fargekoding sifrene med tatoveringer. Stund det er en mulig det denne innlæring-basert program ville være like effektiv opp på sort og hvit (eller lavere resolution) video, vi kanne bare bekrefte effektiviteten av hardwaren beskrevet her over. Til slutt, vår analyse kode (annet enn DLC) er skrevet primært i en kommersiell programvarepakke (se tabell over materialer), men bør være grei å tilpasse seg åpen kildekode-programmeringsspråk (for eksempel Python) etter behov.

Det er flere måter som vi arbeider med å forbedre dette systemet. For øyeblikket er speil visningen delvis okkludert av frontpanelet. Vi har derfor vært å utforske måter å få flere samtidige visninger av labben samtidig minimere hindringer. En annen viktig utvikling vil være å automatisk score når (systemet kan spore kinematikk, men et menneske må fortsatt score vellykket versus mislykkede når). Metoder har blitt utviklet for å avgjøre om pellets ble slått av sokkelen/pidestall, men kan ikke avgjøre om pellet var forstått eller savnet helt11. Ved å spore pellet med DLC, Utforsker vi algoritmer for å bestemme antall når per prøve, samt om pellet var forstått, banket av sokkelen, eller tapt helt. Langs disse linjene, er vi også arbeider for å fullt automatisere arbeidsflyten fra datainnsamling gjennom video konvertering, DLC prosessering, og automatisk scoring. Til syvende og sist ser vi for oss et system der flere eksperimenter kan kjøres på en dag, og ved neste morgen har hele forlemen kinematikk og nå resultater for hvert eksperiment blitt avgjort.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Forfatterne har ingenting å avsløre.

Acknowledgments

Forfatterne vil gjerne takke Karunesh Ganguly og hans laboratorium for råd om dyktige nå oppgaven, og Alexander og Mackenzie Mathis for deres hjelp til å tilpasse DeepLabCut. Dette arbeidet ble støttet av National Institute of nevrologisk sykdom og Stroke (Grant nummer K08-NS072183) og University of Michigan.

Materials

Name Company Catalog Number Comments
clear polycarbonate panels TAP Plastics cut to order (see box design)
infrared source/detector Med Associates ENV-253SD 30" range
camera Basler acA2000-340kc 2046 x 1086 CMV2000 340 fps Color Camera Link
camera lens Megapixel (computar) M0814-MP2 2/3" 8mm f1.4 w/ locking Iris & Focus
camera cables Basler #2000031083 Cable PoCL Camera Link SDR/MDR Full, 5 m - Data Cables
mirrors Amazon
linear actuator Concentrics LACT6P Linear Actuator 6" Stroke (nominal), 110 Lb Force, 12 VDC, with Potentiometer
pellet reservoir/funnel Amico (Amazon) a12073000ux0890 6" funnel
guide tube ePlastics ACREXT.500X.250 1/2" OD x 1/4" ID Clear. Extruded Plexiglass Acrylic Tube x 6ft long
pellet delivery rod ePlastics ACRCAR.250 0.250" DIA. Cast Acrylic Rod (2' length)
plastic T connector United States Plastic Corp #62065 3/8" x 3/8" x 3/8" Hose ID Black HDPE Tee
LED lights Lighting EVER 4100066-DW-F 12V Flexible Waterproof LED Light Strip, LED Tape, Daylight White, Super Bright 300 Units 5050 LEDS, 16.4Ft 5 M Spool
Light backing ePlastics ACTLNAT0.125X12X36 0.125" x 12" x 36" Natural Acetal Sheet
Light diffuser films inventables 23114-01 .007x8.5x11", matte two sides
cabinet and custom frame materials various (Home Depot, etc.) 3/4" fiber board (see protocol for dimensions of each structure)
acoustic foam Acoustic First FireFlex Wedge Acoustical Foam (2" Thick)
ventilation fans Cooler Master (Amazon) B002R9RBO0 Rifle Bearing 80mm Silent Cooling Fan for Computer Cases and CPU Coolers
cabinet door hinges Everbilt (Home Depot #14609 continuous steel hinge (1.4" x 48")
cabinet wheels Everbilt (Home Depot #49509 Soft rubber swivel plate caster with 90 lb. load rating and side brake
cabinet door handle Everbilt (Home Depot #15094 White light duty door pull (4.5")
computer Hewlett Packard Z620 HP Z620 Desktop Workstation
Camera Link Frame Grabber National Instruments #781585-01 PCIe-1473 Virtex-5 LX50 Camera Link - Full
Multifunction RIO Board National Instruments #781100-01 PCIe-17841R
Analog RIO Board Cable National Instruments SCH68M-68F-RMIO Multifunction Cable
Digital RIO Board Cable National Instruments #191667-01 SHC68-68-RDIO Digital Cable for R Series
Analog Terminal Block National Instruments #782536-01 SCB-68A Noise Rejecting, Shielded I/O Connector Block
Digital Terminal Block National Instruments #782536-01 SCB-68A Noise Rejecting, Shielded I/O Connector Block
24 position relay rack Measurement Computing Corp. SSR-RACK24 Solid state relay backplane (Gordos/OPTO-22 type relays), 24-channel
DC switch Measurement Computing Corp. SSR-ODC-05 Solid state relay module, single, DC switch, 3 to 60 VDC @ 3.5 A
DC Sense Measurement Computing Corp. SSR-IDC-05 solid state relay module, single, DC sense, 3 to 32 VDC
DC Power Supply BK Precision 1671A Triple-Output 30V, 5A Digital Display DC Power Supply
sugar pellets Bio Serv F0023 Dustless Precision Pellets, 45 mg, Sucrose (Unflavored)
LabVIEW National Instruments LabVIEW 2014 SP1, 64 and 32-bit versions 64-bit LabVIEW is required to access enough memory to stream videos, but FPGA coding must be performed in 32-bit LabVIEW
MATLAB Mathworks Matlab R2019a box calibration and trajectory reconstruction software is written in Matlab and requires the Computer Vision toolbox

DOWNLOAD MATERIALS LIST

References

  1. Chen, J., et al. An automated behavioral apparatus to combine parameterized reaching and grasping movements in 3D space. Journal of Neuroscience Methods. , (2018).
  2. Sacrey, L. A. R. A., Alaverdashvili, M., Whishaw, I. Q. Similar hand shaping in reaching-for-food (skilled reaching) in rats and humans provides evidence of homology in release, collection, and manipulation movements. Behavioural Brain Research. 204, 153-161 (2009).
  3. Whishaw, I. Q., Kolb, B. Decortication abolishes place but not cue learning in rats. Behavioural Brain Research. 11, 123-134 (1984).
  4. Klein, A., Dunnett, S. B. Analysis of Skilled Forelimb Movement in Rats: The Single Pellet Reaching Test and Staircase Test. Current Protocols in Neuroscience. 58, 8.28.1-8.28.15 (2012).
  5. Whishaw, I. Q., Pellis, S. M. The structure of skilled forelimb reaching in the rat: a proximally driven movement with a single distal rotatory component. Behavioural Brain Research. 41, 49-59 (1990).
  6. Zeiler, S. R., et al. Medial premotor cortex shows a reduction in inhibitory markers and mediates recovery in a mouse model of focal stroke. Stroke. 44, 483-489 (2013).
  7. Fenrich, K. K., et al. Improved single pellet grasping using automated ad libitum full-time training robot. Behavioural Brain Research. 281, 137-148 (2015).
  8. Azim, E., Jiang, J., Alstermark, B., Jessell, T. M. Skilled reaching relies on a V2a propriospinal internal copy circuit. Nature. , (2014).
  9. Guo, J. Z. Z., et al. Cortex commands the performance of skilled movement. Elife. 4, e10774 (2015).
  10. Nica, I., Deprez, M., Nuttin, B., Aerts, J. M. Automated Assessment of Endpoint and Kinematic Features of Skilled Reaching in Rats. Frontiers in Behavioral Neuroscience. 11, 255 (2017).
  11. Wong, C. C., Ramanathan, D. S., Gulati, T., Won, S. J., Ganguly, K. An automated behavioral box to assess forelimb function in rats. Journal of Neuroscience Methods. 246, 30-37 (2015).
  12. Torres-Espín, A., Forero, J., Schmidt, E. K. A., Fouad, K., Fenrich, K. K. A motorized pellet dispenser to deliver high intensity training of the single pellet reaching and grasping task in rats. Behavioural Brain Research. 336, 67-76 (2018).
  13. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21, 1281-1289 (2018).
  14. Ellens, D. J., et al. An automated rat single pellet reaching system with high-speed video capture. Journal of Neuroscience Methods. 271, 119-127 (2016).

Tags

Atferd gnagere atferd dyktige nå datamaskin visjon labb sporing maskinlæring
Automatisert Rat single-pellet nå med 3-dimensjonal rekonstruksjon av Paw og sifret baner
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Bova, A., Kernodle, K., Mulligan,More

Bova, A., Kernodle, K., Mulligan, K., Leventhal, D. Automated Rat Single-Pellet Reaching with 3-Dimensional Reconstruction of Paw and Digit Trajectories. J. Vis. Exp. (149), e59979, doi:10.3791/59979 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter