Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Environment

Langsiktig Video sporing av Cohoused akvatiske dyr: en Case studie av den daglige Locomotor aktiviteten til Sjøkreps (Nephrops norvegicus)

Published: April 8, 2019 doi: 10.3791/58515
* These authors contributed equally

Summary

Her presenterer vi en protokoll for å spore individuelt dyr over lang tid. Den bruker datamaskinen visjon metoder for å identifisere et sett med manuelt konstruert koder ved hjelp av en gruppe hummer som case study, samtidig gir informasjon om hvordan huset, manipulere, og merker hummer.

Abstract

Vi presenterer en protokoll som er knyttet til en video-sporing teknikk basert på bakgrunnen subtraksjon og bilde terskelverdi som gjør det mulig å spore individuelt cohoused dyr. Vi testet sporing rutine med fire cohoused Sjøkreps (Nephrops norvegicus) under lys-mørke forhold i 5 dager. Hummer hadde blitt individuelt merket. Eksperimentell oppsettet og sporing teknikker brukes er helt basert på åpen kildekode-programvare. Sammenligning av sporing produksjon med en manuell oppdagelsen angir at hummerne var riktig oppdaget 69% av tiden. Blant det riktig oppdaget hummer, sine personlige koder var riktig identifisert 89.5% av tiden. Vurderer Rammehastigheten i protokollen og bevegelse frekvensen av hummer, ytelsen til video sporing har en god kvalitet og representant resultatene støtter gyldigheten av protokollen produsere verdifulle data for behov (enkelte plass personer eller locomotor aktivitet mønstre). Protokollen presenteres her kan enkelt tilpasses, og derfor, kan overføres til andre arter der individuelle sporing av eksemplarer i en gruppe kan være verdifulle for forskning spørsmål.

Introduction

I de siste årene, har automatisert image-basert sporing gitt svært nøyaktig datasett som kan brukes til å utforske grunnleggende spørsmål i økologi og atferd disipliner1. Disse datasett kan brukes for kvantitativ analyse dyr oppførsel2,3. Men har hvert bilde-metodene som er brukt for sporing av dyr og atferd evaluering sine styrker og svakheter. I bilde-baserte sporing protokoller som bruker romlig informasjon fra tidligere rammer i en film for å spore dyr4,5,6kan feil innføres når banene av to dyr krysser. Disse feilene er generelt irreversibel og overføres via tid. Til tross for beregningsorientert fremskritt som reduserer eller eliminerer nesten denne problem5,7, må disse teknikkene fortsatt homogen eksperimentelle miljøer for nøyaktig dyr identifikasjon og sporing.

Ansettelse av merker som kan identifiseres i dyr unngår disse feilene og gjør langsiktig sporing av identifiserte individer. Brukte markører (f.eks, strekkoder og QR-koder) finnes i næringslivet og kan identifiseres ved hjelp av velkjente datamaskinen visjon teknikker, som augmented reality (f.eks ARTag8) og kameraet kalibrering (f.eksCALTag9 ). Merket dyrene har tidligere blitt brukt for høy gjennomstrømming behavioral studies i forskjellige dyrearter, for eksempel, maur3 eller bier10, men noen av disse tidligere systemer ikke er optimalisert for å gjenkjenne isolert tags3.

Sporing protokollen presentert i dette papiret er spesielt egnet for sporing dyr i en kanal bilder, for eksempel infrarød (IR) lys eller monokromatisk lys (spesielt vi bruker blått lys). Derfor metoden utviklet ikke bruker fargesignaler, som også gjelder andre innstillinger der det er begrensninger i belysning. I tillegg bruker vi egendefinert koder utformet for ikke å forstyrre hummer, og samtidig, tillate registrering med rimelige kameraer. Videre metoden som brukes her er basert på ramme-uavhengig kode deteksjon (i.e., algoritmen gjenkjenner tilstedeværelsen av hver kode på bildet uavhengig av tidligere baner). Denne funksjonen er relevant i programmer der dyr kan være midlertidig okkludert, eller dyrenes baner kan krysser hverandre.

Den tag designen gjør bruken i forskjellige grupper av dyr. Når parameterne for metoden er angitt, kan den overføres for å takle andre dyr-sporing problemer uten behov for å trene en bestemt klassifiserer (andre krepsdyr eller snegler). Viktigste begrensningene for eksport protokollen er størrelsen på brikken og behovet for tilknytning til dyret (som gjør det uegnet for små insekter, som fluer, bier, etc.) og 2D forutsetning for dyr bevegelse. Denne betingelsen er betydelig, gitt at den foreslåtte metoden forutsetter den koden forblir konstant. Et dyr bevege seg fritt i et 3D-miljø (f.eks fisk) viser annen kode størrelser avhengig av dets avstand til kameraet.

Formålet med denne protokollen er å gi en brukervennlig metode for å spore flere merket dyr over lang tid (dvs., dager eller uker) i et 2D sammenheng. Metodisk tilnærming er basert på bruk av open source programvare og maskinvare. Gratis og åpen kildekode tillater tilpasninger, modifikasjoner og fri Redistribusjon; Derfor forbedrer utviklet programvaren på hvert trinn11,12.

Protokollen presenteres her fokuserer på et laboratorium satt opp til å spore og evaluere locomotor aktiviteten til fire akvatiske dyr i en tank i 5 dager. Videofiler er spilt inn fra en 1 s time-lapse bilde og samlet i en video ved 20 bilder per sekund (1 innspilte dag tar ca 1 h video). Alle video-opptak er automatisk postprocessed å få dyr posisjoner, søker datamaskinen visjon metoder og algoritmer. Protokollen lar å skaffe store mengder spore data, unngå deres manuell merknaden, som har vist seg å være tidkrevende og arbeidskrevende i tidligere eksperimentelle papirer13.

Vi bruker Sjøkreps (Nephrops norvegicus) for casestudie; dermed gir vi artsspesifikke laboratorieforhold beholde dem. Hummer utføre godt studert hule fremveksten rytmer som er under kontroll av circadian klokken14,15, og når cohoused, de danner dominans hierarki16,17. Derfor er modellen presentert her et godt eksempel for forskere interessert i sosiale modulering av opptreden med spesielt fokus på biologiske rytmer.

Metodikken presenteres her gjengis lett og kan brukes på andre arter hvis det er en mulighet til å skille mellom dyr med enkelte koder. Minimumskravene for å gjengi en slik tilnærming i laboratoriet er (i) isotermiske rom for eksperimentelle oppsett; (ii) en kontinuerlig vannforsyning; (iii) vann temperatur kontrollmekanismer; (iv) en lys kontrollsystem; (v) et USB-kamera og en standard datamaskin.

I denne protokollen bruker vi Python18 og OpenCV19 (åpen kilde Computer visjon Library). Vi er avhengig av rask og ofte brukte operasjoner (både når det gjelder implementering og gjennomføring), som bakgrunn subtraksjon20 og bilde terskelverdi21,22.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Arten brukes i denne studien er ikke en truede eller beskyttet art. Prøvetaking og laboratoriet eksperimenter fulgte den spanske lovgivningen og interne institusjonelle (ICM-CSIC) regler for dyrevelferd. Dyr prøvetaking ble gjennomført med tillatelse fra lokale myndigheter (regionale regjeringen of Catalonia).

1. dyr vedlikehold og prøvetaking

Merk: Følgende protokollen er basert på antagelsen om at forskerne kan smake N. norvegicus innen natten å unngå skader fotoreseptorer23. Eksponering av N. norvegicus sollys må unngås. Etter prøvetaking, hummerne er ment å være plassert i en acclimation anlegget lik den rapporterte tidligere17,24, med en kontinuerlig strøm av nedkjølt sjøvann (13 ° C). Dyrene i denne studien er mannlige intermoult staten med cephalothorax lengde (CL, gjennomsnittlig ± SD) på 43.92 ± 2,08 mm (N = 4).

  1. Holde personer i isolerte rom å unngå skader på grunn av individuelle kamper (se figur 1a-d).
  2. Feed dem om 3 x i uken på måfå timene ikke forstyrrer den biologiske rytmer.
    Merk: I dette eksperimentet, ble blåskjell (ca 4 g per hummer) brukt som mat. Blåskjell ble kjøpt fra frossen matleverandører og var egnet for menneskelig konsum.
  3. Bruke blått lys (425-515 nm) til å simulere lys timer etter spectral sensitiviteten av arter25 og miljøforhold på 400 m dyp26 (se figur 1 c,d).
    Merk: Funksjonen brukes her har en vertikal tak to blå (478 nm) lysrør som produserte lav intensitet 12 lx på 1 m avstand fra lamper. Se figur 1a taklamper posisjon og se Tabellen for materiale for produsentens og teknisk lamper egenskaper.
  4. Justere fotoperiode av acclimation 12/12 lys/mørke timer eller simulere naturlig fotoperiode av lokale latitude.
  5. Regulere anlegget temperaturen til 13 ° C og overvåke 2 x daglig sjekke temperaturen av sjøvannet inflowing er rundt 13 ° C (se figur 1e).
  6. Regulere tilførsel av sjøvann med en hastighet på ca 4 L/min å opprettholde god oksygenering.
    Merk: Sjøvannet sirkulerer i en åpen krets (ingen filtre og ekstra pumper brukes). Vannforsyningen avhenger av største akvarium plante tjenestene.

Figure 1
Figur 1 : Anlegget acclimation visninger. (en) Tank hyller. (a1) Sjøvann inngang. (a2) Fluorescerende taklamper. (b) detalj blått lys belysning. (c) dyr celle detaljer. (d) detaljer i en isolert anlegget Kontrollpanel. (e) temperatur innstilling for en av inngangene. Klikk her for å se en større versjon av dette tallet.

2. kodens konstruksjon

Merk: Koden brukes her kan endres basert på egenskapene til målet dyr eller andre spesielle hensyn.

  1. Skjær fire sirkler 40 mm i diameter fra svart plast ark.
  2. Klipp fra en hvit PVC plast ark to likesidet trekant med 26 mm sider.
  3. Kutt fra en hvit PVC plast ark to sirkler av 26 mm i diameter.
  4. Merke på midten av hvite trekanter og sirkler og lage et 10 mm hull i den.
  5. Fest fire hvite figurene til midten av de fire svart sirklene.

Figure 2
Figur 2 : Fire koder som brukes for den personlige merking av hummerne. Sirkel, sirkel hull, trekant, trekant-hull. Klikk her for å se en større versjon av dette tallet.

3. eksperimentelle oppsett

Merk: Eksperimentell arenaen skal være i eksperimentelle kammer uavhengig fra men i nærheten av acclimation anlegget.

  1. Definere en eksperimentell kammer hvor temperaturen kan kontrolleres og vedlikeholdt ved samme temperatur som sjøvannet i eksperimentell arena.
  2. Endre en glassfiber tank (1500 x 700 x 300 mm) som skal brukes som en eksperimentell arena. Legge til fire Hi med PVC fleksible rør på bunnen av tanken og stokk sanden på overflaten der hummerne skal flytte (figur 3b-e). For mer informasjon, kan du se17,27.
    1. Gi den eksperimentelle arenaen nedsenkbare blå lysdioder (472 nm, simulere lys timer) og IR LEDs (850 nm, mørke forhold) (se også figur 3a)17,24.
      Merk: LED lys brukes lav varme virkningen og tilgjengeligheten av brukbare elektronisk kontroll og gratis maskinvaren. En isolert anlegg med en miljømessig og sjøvann temperatur 13 + 0,5 ° C ble brukt.
    2. Alltid holde IR LEDs slått på.
      Merk: IR er nødvendig å video-opptak i mørke forhold og lys. Det er ikke nødvendig å slå den av.
    3. Koble den blå lysdioder med et apparat for å administrere fotoperiode. Se forslagene i Tabellen for materiale, og for mer informasjon, kontakt Sbragaglia et al. 17 (også vist i figur 3a).
      Merk: Belysning i video - eller bilde-automatiserte analyser er en kritisk faktor. Vanlig belysning uten skygger over arenaen unngå vann overflaten refleksjoner gjør bakre video eller bildeanalyser enklere. I forbindelse med denne protokollen, ble bare 12/12 lys/mørke forhold brukt. Lys og mørke ble gradvis oppnådd innen 30 min, og et lys-kontrolleren skript er lagt som supplerende fil 1.
    4. Plass avkjølt sjøvann innløp på et hjørne av tanken og tilsvarende utløpet i motsatt hjørne.
    5. Regulere sjøvann input på en flow rate på ca 4 L/min.
    6. Omgi tanken med en svart gardin for å gi en fullstendig isolert fra andre lys (figur 3a).
  3. Plasser stativ som webkamera er fast til siden av eksperimentelle arena og posisjon videokameraet ovenfor (130 cm) og i midten av eksperimentelle arena (75 cm x 32,5 cm (se figur 3a).
  4. Kontroller om videokameraet er i sentrert posisjon (se trinn 3.3) for å sikre at det ikke er flyttet ufrivillig.
  5. Koble web-kameraet til en datamaskin som er plassert utenfor forhenget (figur 3a).
    1. Installere programvaren for å administrere tid-lapse innspillingen med videokameraet.
      Merk: Time-lapse innspillinger, avhenger av bevegelsen fart av arter. Se også Tabellen for materiale for kameraet, fiskeøyeobjektiv, PC, og programvare egenskaper og produsenter her.
    2. Justere parameterne for video opptak etter karakteristikkene av arten.
      Merk: Vurderer mobilitet frekvensen av N. norvegicus, en 1 s tid-lapse innspillingen ble brukt her, og videoen ble lagret hver 24 h.
    3. Pass på å opprette et tidsstempel (inkludert dato) i time-lapse video (som dette kan hjelpe for fremtidige manuell scoring av).

Figure 3
Figur 3 : Eksperimentelle oppsett. (en) for montering av den eksperimentelle tank og video oppkjøpet. (b) oversikt over eksperimentell tanken. (c) bunn visning av eksperimentelle akvariet, indikerer kunstig burrows. (d) topp viser bunnen av eksperimentelle tanken. (e) detaljer en hule innganger. Klikk her for å se en større versjon av dette tallet.

4. eksperimentelle rettssak og dyr forberedelse

Merk: Alle trinnene med dyr må gjøres i funksjonen Akklimatisering og under rødt lys forhold etter spectral følsomheten av Norge hummer25. Når du flytter dyrene mellom Akklimatisering og eksperimentelle anlegget, unngå noen eksponering av hummerne lys, bruker en ugjennomsiktig sort bag for å dekke icebox.

  1. Forberede en Isskap tidligere delt inn i fire neddykket rom med vann på ca 7 ° C.
  2. Forberede de fire kodene tidligere konstruert og rask lim, som cyanoacrylate.
  3. Forberede et brett med knust is.
  4. Velg de fire hummerne å merkes i acclimation anlegget og sette hver av dem i en kupé av icebox.
  5. Vent 30 min, og deretter starte merking prosedyren.
    1. Ta en hummer og sette det på den knust is 5 min nakkens det og forenkle merking operasjonen.
    2. Tørk den øvre delen av hummerens cephalothorax adsorptive papir og sette en dråpe rask lim på den.
    3. Plassere koden vannrett på toppen av dyrets cephalothorax, kontakt med lim, og vent nok tid for å stivne (for om 20 s).
    4. Returnere hummeren til sine rom i icebox og fortsett med de andre tre dyrene på samme måte.
    5. Sett hummerne tilbake i cellen der de var tidligere og vente 24 timer å sikre at koden er riktig limt på.
    6. Overføre hummerne fra acclimation anlegget til eksperimentelle kammeret ved hjelp av den samme icebox som ble brukt for merking prosedyren.
  6. Start videoinnspillingen og vente 5 min merket hummerne. Få et gjennomsnitt bakgrunnsbilde fra første 100 rammer.
    Merk: Ventet minst 1 min er obligatorisk å få bakgrunn rammer uten merket hummer; de er nødvendig for video prosessering.
  7. Introdusere dyrene enkeltvis i eksperimentering tanken innenfor sine respektive kupeen, å holde vannet i den.
  8. Vente for dem å komme ut; Hvis de ikke kommer, hjelpe dem forsiktig ved å vippe batterirommet. Se Figur 4 som eksempel på dyrene innenfor tanken eksperimentelle forhold.

Figure 4
Figur 4 : Rå videobilde. Et eksempel på et representativt bilde fra en time-lapse videoer samlet under forsøkene. På øverst til høyre viser vi tidsangivelsen med dato, tid og ramme. Legg merke til forskjellene i tanken belysningen i bildets nedre hjørne. Klikk her for å se en større versjon av dette tallet.

5. videoanalyse skript

  1. Utføre analyse etter ferdigstillelse av eksperimentet.
    1. Starte datamaskinen visjon script video analyse.
    2. Start Java-programmet å beregne posisjoner og distanse av hummerne og sette inn dataene i databasen.
      Merk: Dette programmet er en Euklids distansebaserte algoritme28.
    3. Starte SQL-skript for å binning data som ønskede tidsintervallet (ex. 10 min).

6. maskinen visjon skript for Video analyse

Merk: Skriptet unngår fisheye bildekorrigering fordi det ikke innføre en relevante feil i eksperimentell oppsettet. Likevel er det mulig å korrigere dette med OpenCV kameraet kalibrering funksjoner29 basert på vector og matrix rotasjon metoder30,31.

  1. Velg Python18 programmet språket.
  2. Velg OpenCV19 bilde og video prosessering bibliotek.
  3. Laste inn en video.
    Merk: Video formatter .avi eller . MP4 ble brukt i dette eksperimentet, men dette er ikke obligatorisk. Det avhenger FourCC32 kodekene som er installert i operativsystemet.
  4. Utfør følgende trinn for hver ramme Fi i videoen.
    1. Trekke fra bakgrunnen20B (gjennomsnitt av de siste 100 rammene, fra trinn 4.6) fra gjeldende ramme Fiog oppdatere bakgrunnsbildet B som Fi. Bruker funksjonen BackgroundSubtractorMOG2 fra OpenCV19 biblioteket (se skriptene i supplerende fil 2).
    2. Bestem hvilke områder av interesse (ROIs) R fra bildepunktene med relevante bevegelse angitt av bakgrunnen subtractor. Bruke metoden gjelder fra BackgroundSubtractorMOG2 i OpenCV19 biblioteket (se skriptene i supplerende fil 2). I settet, Inkluder de dyr oppdagelser fra forrige rammen, ta konto nonmoving dyr.
    3. Utfør følgende trinn for hver avkastning Ri
      1. Bruke funksjonen Utvid og beregne konturer33 av Avkastningen Ri. Bruk funksjonene dilate og findContours fra OpenCV19 biblioteket (se skriptene i supplerende fil 2).
      2. Beregne den skroget området34Hei i antall piksler. Bruk funksjonen convexHull fra OpenCV19 biblioteket (se skriptene i supplerende fil 2).
      3. Beregn radius35ri av Avkastningen Ri. Bruk funksjonen minEnclosingCircle fra OpenCV19 biblioteket (se skriptene i supplerende fil 2).
      4. Beregne soliditet si av Avkastningen Ri. Fargetetthet er forholdet mellom kontur området (innhentet i trinn 6.4.3.1) til sin konvekst skrog område (innhentet i trinn 6.4.3.2) av Ri.
      5. Beregne størrelsesforholdet ai av Avkastningen Ri. Størrelsesforholdet er forholdet mellom bredden og høyden på Ri-byksende rektangel. Rammene er beregnet ved hjelp av funksjonen boundingRect fra OpenCV19 biblioteket.
    4. Velg et redusert antall ROIs som kandidat inneholder dyrene, ved å justere egenskapene for skroget område, radius, soliditet og størrelsesforhold.
      1. Kontroller om Hei er mindre enn 500.0 eller større enn 100000.0. Hvis så, kaste ROI Ri. Ellers holde Ri som kandidat ROI dyr plasseringen.
      2. Kontroller om ri er mindre enn 40.0. Hvis så, kaste ROI Ri. Ellers holde Ri som kandidat ROI dyr plasseringen.
      3. Kontroller om si er mindre enn -4.0 forkaste ROI Ri. Ellers holde Ri som kandidat ROI dyr plasseringen.
      4. Kontroller om ai er mindre enn 0.15 eller større enn 4.0. Er så kaste ROI Ri. Ellers holde Ri som kandidat ROI dyr plasseringen.
        Merk: Bruk av ROIs reduserer databehandlingskostnaden, fokuserer tag søk på dyrets organ region. Dyr oppdagelser fra forrige rammer er inkludert for å unngå feil oppdagelsen når dyrene ikke beveger.
    5. Analysere dyret ROIs å finne koden identiteter. Utføre de følgende for hver avkastning Ri og for hver interne ROI Pi, og pakke ut de interne ROIs P.
      1. Binarize gråtonebildet Pi bruke Otsu36 terskelverdi algoritmen.
      2. Beregne konturer33 av Pi, som i trinn 6.4.3.1.
      3. Beregne den skroget området34Hei og størrelsesforhold ai, som i trinn 6.4.3.2 og 6.4.3.5.
      4. Beregne form øyeblikk37,38mi PI. Bruk funksjonen øyeblikk fra OpenCV19 biblioteket (se skriptene i supplerende fil 2).
      5. Velg et redusert antall ROIs som kandidat inneholder kodene, etter følgende vilkår.
        1. Kontroller om Hei er mindre enn 150.0 eller større enn 500.0. Hvis så, kaste ROI Pi. Ellers holde Pi som kandidat ROI hvor tag.
        2. Kontroller om ai er mindre enn 0,5 eller større enn 1,5. Hvis så, kaste ROI Pi. Ellers holde Pi som kandidat ROI dyr plasseringen.
        3. Kontroller om mi er større enn 0,3. Hvis så, kaste ROI Pi. Ellers holde Pi som kandidat ROI dyr plasseringen.
    6. Klassifisere koden ROIs. Angi en polygon39 bruker OpenCV19 funksjonen38 for hver valgte ROI Pi19.
      1. Sjekk om det er nøyaktig tre hjørner i tilnærmet polygonen; tilordne koden for trekant -klassen. Ellers tildele sirkelen klassen til regionen tag.
        Merk: Tilnærmet polygon lagres ved hjelp av en matrise med hjørnene.
      2. Sjekk sentrale piksel av Avkastningen Pi. Hvis det er en svart piksel, tilordne Pi til hullet klassen. Ellers tilordne Pi til hvit klassen.
        Merk: Figur sentrum er utledet fra øyeblikk beregnet i trinn 6.4.5.4. Søk svarte bildepunktene i et område med en 4-pixel radius rundt sentrum.
  5. Lagre ramme dataene: ramme dato, bilde tid, forme klasse, x center form, og y center figur.
  6. Fortsett med neste delbilde eller avslutte prosessen. Se figur 5 nedenfor som et visuelt eksempel arbeider skriptet trinnene og se Video 1 som et eksempel på skriptet fungerer.

Figure 5
Figur 5 : Relevante trinnene for behandling av video-scriptet (1) vurdere bakgrunn subtraksjon bevegelse over gjennomsnittet av de siste 100 rammer. (2) resultatet av bakgrunnen subtraksjon algoritmen. (3) bruk en Utvid morfologiske operasjon på hvit-oppdaget områder. (4) bruk fikse, statisk, viktigste avkastning; gul polygonen tilsvarer bunnen tank området. (5) beregne konturer for hvert hvit-fant område i viktigste Avkastningen og utføre en strukturell analyse for hver oppdaget kontur. (6) Sjekk strukturelle egenskapsverdier, og deretter velger andrenivå avkastning kandidatene. (7) Binarize rammen bruker en Otsu terskelverdi algoritme; skriptet fungerer bare med andre nivå ROIs. (8) for hver binarized andrenivå avkastning, beregne konturene av de hvite områdene og utføre en strukturell analyse for hver oppdaget kontur. (9) av egenskapen strukturelle verdier, og velger deretter interne avkastning kandidatene. (10) hver profil i interne ROI kandidaten, beregne beskrivelsene/øyeblikk. (11) Sjekk om oppdaget figur kamper med modellen forme og omtrentlig en polygon til beste kamp kandidater. (12) kontrollere antall punktene på omtrentlig polygonet og finne den geometrisk figuren: sirkel eller trekant. (13) Beregn figuren center og sjekk om svarte skje; Hvis ja, er det en hullet figur. (14) visuelle resultatet etter ramme analyse. Klikk her for å se en større versjon av dette tallet.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Vi bygget manuelt et delsett av eksperimentelle data å validere automatisk video analyse. En utvalgsstørrelsen 1,308 rammer med et sikkerhetsnivå på 99% (som er et mål som viser om prøven gjenspeiler befolkningen, i sin feilmarginen) og en feilmargin på 4% (som er en prosent som beskriver hvor nær det svar prøven ga er reell verdi i befolkningen) var tilfeldig valgt, og en manuell merknad av riktig identifisering av ROIs og riktig anerkjennelse av koden innenfor hver avkastning ble utført. Merk at et enkeltbilde kan inneholde et variabelt antall ROIs innenfor en ubestemt fordi noen hummer kan være skjult i burrows eller en avkastning inneholder to eller flere dyr eller false oppdagelsen.

Antall dyr i 1,308 rammer var 3,852 (manuelt kommenterte ROIs). Metoden avdekket 3,354 dyr oppdagelser. Totalt 701 (21%) disse detektiv var falske positiver (dvs. antall ROIs der hummeren var forvirret med bakgrunnen). Antall dyr telt, 2,653 påvisning (79%) var riktig matchende (i.e., antall ganger klassifisereren riktig gjenkjent tilstedeværelsen av en hummer i regionene oppdaget; se også figur 6a, b). Med hensyn til de totale 3,852 ROIs i 1,308 rammer oppdager skriptet 69% av personer.

Om koden deteksjon identifisert skriptet 2,353 avkastning kandidatene som koder (89% av 2,653 oppdaget regioner med dyr). Klassifisereren identifisert som klasse koden 1,808 av disse kodene (i som kandidaten er klassifisert som en sirkel, trekant, hullet sirkel eller hullet trekant) og savnet 545 tilfeller (23% 2,353 avkastning kandidatene for koden). Relatert til koden klassifisering, 1,619 er riktig identifisert (89.5%, figur 6f). Kun 70 koder der feilaktig klassifisert (3,8% feil, finne 6e), og de resterende 119 (6,6%) tilsvarte falske positiver (intern ROIs identifisert som kode som tilsvarte dyr deler, som klør; Figur 6 d).

Figure 6
Figur 6 : Representant utsikt fra rammer viser de vanligste eksperimentelle situasjonene videoanalyse. (en) galt animalsk deteksjon, en bakgrunnsområdet oppdages. (b) dyr misdetection. Eneste er oppdaget to dyr er tett sammen. (c) figur misdetection. Dyret er oppdaget (blå firkant), men koden blir oppdaget ikke. (d) Fake figur gjenkjenning. To figurer oppdages, og er en klo. (e) feil klassifisering av en figur. En trekant er klassifisert som trekant-hull. (f) ideell situasjon. Alle dyrene oppdages, og kodene er riktig identifisert. Klikk her for å se en større versjon av dette tallet.

Etter video analysen var fullført, kan innhentet posisjoner (X, Y) data brukes til å evaluere ulike atferdsmønster av hummerne. For eksempel vi tegnet en plass bruk kartet med todimensjonal kjernen tetthet beregning med et akse-innretta bivariate normal kjernen, evalueres på en kvadratisk rutenett41,42 med best ytelse er automatisert beregnet av den Statistisk algoritme. En høyere farge intensitet representerer områdene var hummerne brukt en høyere prosentandel av tiden (figur 7). Video 2 gir et visuelt eksempel dyr sporing.

Et annet eksempel er representert ved daglig aktivitet rytmene av hummerne, plottet som millimeter og dekket i 10 min binned tidsintervaller (Figur 8). Vi fjernet data tilsvarende den første 24 timer av eksperimentet, som tilsvarte dyrenes miljømessige tilpasningsprosessen.

Figure 7
Figur 7 : Rom bruk kartet. Figuren viser bare bunnen tank området som er området dyr forskyvning (se gule polygonen i figur 6). Områdene var det ulike kodede hummer brukte mer tid vises farget; høyere fargeintensiteten betyr mer bruk tid. Klikk her for å se en større versjon av dette tallet.

Figure 8
Figur 8 : Daglig aktivitet rytmer av hummerne plottet som millimeter og dekket i 10 min binned tidsintervaller. Grå bånd indikere i mørket på 12/12 lys/mørke, med på solnedgang starter kl 7:: og soloppgang starter på 7 kl. Klikk her for å se en større versjon av dette tallet.

Movie 1
Video 1: Desktop registrering av et eksempel på en løpende videoanalyse scriptet Videoen viser i 2 minutter og 27 s 1t av sanntids opptak (3,625 rammer). Merk at det er feil aldri for dyr og tag misdetections og uidentifisert hendelser mens innspillingen blir gjort. Klikk her for å laste ned denne videoen.

Movie 2
Video 2: Video av dyret sporing etter locomotor analyse. Vi brukte X, Y bilde pikselkoordinater innhentet fra video analyse og lagret dem inn i databasen, å trekke dyr sporet i innspilte videoer som et eksempel på skriptet videoanalyse. Jo lenger banen, jo raskere dyr flytter og mer avstand reist. I dette tilfellet 30 s video tilsvarer 12 min av sanntid. Klikk her for å laste ned denne videoen.

Supplerende filen 1: Klikk her for å laste ned denne filen. 

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Ytelse og representant resultatene med video-sporing protokollen bekreftet sin gyldighet for anvendt forskning i feltet av animalsk oppførsel, med spesielt fokus på sosiale modulering og døgnrytme cohoused dyr. Effektiviteten av animalsk deteksjon (69%) og nøyaktigheten av tag diskriminering (89.5%) kombinert med atferdstrekkene (dvs. bevegelse rate) målet artene brukes her tyder på at denne protokollen er en perfekt løsning for langsiktige eksperimentelle studier (f.eks dager og uker). Videre protokollen tilbyr grunnleggende fordelen av å være enkel å bruke og raskere i sin utvikling og tilpasning med hensyn til andre teknikker, for eksempel automatisk læring algoritmer og nevrale nettverk43. Spore teknikker brukes her representerer siste avgrensningen av en eksperimentell aktivitet startet med en litt annen tilnærming44.

En avgjørende skritt i protokollen er tag design; det anses at gjennomføringen av andre tag design kan forbedre ytelsen til Otsu binarization. For eksempel en av kildene til feil rapportert her var misdetection mellom svart utenfor sirkel i koden og den hvite interne geometrisk form (se figur 9 med en binarized ramme med en detalj av denne feilen). Det er mulig å forbedre binarization prosessen, øke diameteren (2-3 mm) på den svarte sirkelen utenfor den hvite interne geometrisk form, eller bytte kode fargene (hvit/svart). Vi ikke vurdere bruk av bilde morfologiske funksjoner som erodere eller dilate når du prøver å rette opp feilen, gitt at disse operasjonene endre strukturelle egenskapene for koden fotografert, blir, derfor ikke mulig å opprettholde terskelverdier av den skriptet. I konklusjonen, er det tilrådelig å tilpasse koden utformingen målet dyrearter Anatomy. Som vil innebære justering av skriptet terskelverdier og strukturelle egenskapene i henhold til nye design.

Figure 9
Figur 9 : Detaljer av rammen binarization feil. En rød sirkel viser hvordan hummer og tags registreres som et entydig objekt. Klikk her for å se en større versjon av dette tallet.

Den viktigste kilden til feil var savnet påvisning av ROIs (både eksterne og interne). Skriptet videoanalyse presenteres her er ikke kunne holde oversikt over personer som er fortsatt eller skjult for en periode som er større enn 100 rammer (antall rammer som skriptet beholde som bakgrunn historien). For å unngå problemer med dette, lagret vi siste posisjon av en individuell før det oppdages igjen. Denne parameteren kan påvirke resultatene av mangler immobile eller skjulte dyrene. Dette faktum må tas i betraktning når du bruker denne protokollen art viser forskjellige mobilitet priser enn de som presenteres her for hummer. Skriptet video rammen rate og analyse bør endres og tilpasses arten brukes i henhold til bestemte oppførselen.

En stor utfordring var å få en monokromatisk blå (472 nm) og IR (850 nm) belysning, unngå retinal skade og justere miljømessige lysforholdene til dyrets habitat23,45. Derfor fargekomponent i videoopptak er ikke relevant og videoopptak ble utført i gråtoner. Systemet foreslår lar programmet forskjellige lys tidsperioder og endrer belysning systemet slik mål arten egenskaper endre LEDENE lysspekteret. En annen tilpasning for å vurdere i protokollen presenteres her er bevegelsen av målet dyret. Dette konkrete tilfellet, bildefrekvens brukt var 1 rammen per andre, opptak produsere videofiler på ca 1 h lengde tilsvarer 24 h av eksperimentelle. Disse to tilpasningene (gråtone og rammen rate) tillot oss å få videofiler med redusert størrelse som var lett å arbeide med og redusert lagringskapasitet og maskinen tid for sporing.

En begrensning av metoden beskrevet er at det er bare testet med arter presenteres her; men er det ingen bestemt Reason om anvendelsen av denne protokollen til andre arter som tillate gjennomføring av legitimasjonen merkelapper. En annen betydelig begrensning er at protokollen ikke er egnet til å spore bevegelsene til dyr vedlegg (f.eks chelae). For eksempel bruke decapod krepsdyr chelae bevegelser for å vise dominans blant fra art. Fremtidige implementeringer er rettet mot å forbedre dette aspektet.

Den foreslåtte protokollen ligner tidligere eksisterende kommersiell programvare46 , publiserte metoder SwisTrack og idTracker7,47. Kommersiell programvare46 bruker bakgrunnen subtraksjon for å oppdage dyr, ligner på skriptene presenteres her. Selv om det dekker et bredere spekter av applikasjoner, programmet bruker et kommersielt tolket programmet språk48, som ikke er åpen kildekode og er økonomisk kostbart. Metoden SwisTrack47 bruker OpenCV19 biblioteket, på samme måte som tilnærmingen som presenteres her. Likevel, det er kodet i c + +. Vi brukte Python koden, hvilke er vanligvis lettere å tilpasse seg de spesielle behovene til hvert miljø. IdTracker7 er en sterk tilnærming kodet i et kommersielt tolket programmet48 men mål nonmarked dyr applikasjoner. De riktige resultatene av sporing kan bli svekket når dyr er innesluttet i lang tid som oppstår i eksperimentelle forhold presentert her. Metoden presenteres her prosesser hver ramme uavhengig og er ikke påvirket av forrige banen av dyret. En feil i en bestemt ramme derfor ikke overføres til fremtidige rammer. Dette faktum er relevant i dette programmet, men også begrensninger metoden presentert her til et bestemt sett av dyr (de at manuell koding).

Et annet aspekt å vurdere er at vi har brukt gratis programvare under utviklingen av den protokollen, inkludert postprosessering og lagring av dataene som genereres av skriptet video analyse, samt koden som brukes til å styre belysningssystemet. Behandlet lagres i en gratis relasjonsdatabase (MySQL). Disse behandlet kan oppnås gjennom spørringer i Standard Query Language (SQL) i henhold til ønsket format. Leseren kan endre og tilpasse koden foreslått åpent og fritt tilpasse det til spesielle behov.

Med hensyn til metoden toksisitet er det bare delikate trinnet liming av koden til dyret. Vi brukte cyanoacrylate lim på grunn av sin lav toksisitet, dets bredt medisinsk bruk49og bred bruk i akvarier for jakte koraller og fikse fragmenter med lim50. Store bekymring bruken er damp toksisitet for mennesker. Vi redusert exposition til et minimum. Helse og sikkerhet Executive og USA National toksikologi Program har konkludert med at bruk av ethyl cyanoacrylate er trygg51.

Fremtidige anvendelser av denne protokollen er automatisering av registreringen av annet opptreden av gravende krepsdyr (f.eks kamper, hule dominans). Vi planlegger også å forbedre algoritmen å få sanntid video analyse og bruke Convolutional Neural nettverk52 for forbedret animalsk deteksjon.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Forfatterne ikke avsløre.

Acknowledgments

Forfatterne er takknemlig til Dr. Joan B. selskapet som finansierte utgivelsen av dette arbeidet. Forfatterne er også takknemlig for teknikere av eksperimentelle akvariet sonen på Institutt for Marine Sciences i Barcelona (ICM-CSIC) for deres hjelp under eksperimentelle arbeidet.

Dette arbeidet ble støttet av RITFIM prosjektet (CTM2010-16274, rektor investigator: J. Aguzzi) grunnlagt av det spanske departementet for vitenskap og innovasjon (MICINN) og TIN2015-66951-C2-2-R stipend fra det spanske departementet for økonomi og konkurranseevne.

Materials

Name Company Catalog Number Comments
Tripod 475 Manfrotto A0673528 Discontinued
Articulated Arm 143 Manfrotto D0057824 Discontinued
Camera USB 2.0 uEye LE iDS UI-1545LE-M https://en.ids-imaging.com/store/products/cameras/usb-2-0-cameras/ueye-le.html
Fish Eye Len C-mount f = 6 mm/F1.4 Infaimon Standard Optical  https://www.infaimon.com/es/estandar-6mm
Glass Fiber Tank 1500 x 700 x 300 mm3
Black Felt Fabric
Wood Structure Tank 5 Wood Strips 50x50x250 mm
Wood Structure Felt Fabric 10 Wood Strips 25x25x250 mm
Stainless Steel Screws As many as necessary for fix wood strips structures
PC 2-cores CPU, 4GB RAM, 1 GB Graphics, 500 GB HD
External Storage HDD 2 TB capacity desirable
iSPY Sotfware for Windows PC iSPY https://www.ispyconnect.com/download.aspx
Zoneminder Software Linux PC Zoneminder https://zoneminder.com/
OpenCV 2.4.13.6 Library OpenCV https://opencv.org/
Python 2.4 Python https://www.python.org/
Camping Icebox
Plastic Tray
Cyanocrylate Gel To glue tag’s 
1 black PVC plastic sheet (1 mm thickness) Tag's construction
1 white PVC plastic sheet (1 mm thickness) Tag's construction
4 Tag’s Ø 40 mm Maked with black & white PVC plastic sheet
3 m Blue Strid Led Ligts (480 nm) Waterproof as desirable
3 m IR Strid Led Ligts (850 nm) Waterproof as desirable
6 m  Methacrylate Pipes Ø 15 mm Enclosed Strid Led
4 PVC Elbow  45o Ø 63 mm Burrow construction
3 m Flexible PVC Pipe Ø 63 mm Burrow construction
4 PVC Screwcap Ø 63 mm Burrow construction
4 O-ring Ø 63 mm Burrow construction
4 Female PVC socket glue / thread Ø 63 mm Burrow construction
10 m DC 12V Electric Cable Light Control Mechanism
Ligt Power Supply DC 12 V 300 W Light Control Mechanism
MOSFET, RFD14N05L, N-Canal, 14 A, 50 V, 3-Pin, IPAK (TO-251) RS Components 325-7580 Light Control Mechanism
Diode, 1N4004-E3/54, 1A, 400V, DO-204AL, 2-Pines RS Components 628-9029 Light Control Mechanism
Fuse Holder RS Components 336-7851 Light Control Mechanism
2 Way Power Terminal 3.81 mm RS Components 220-4658 Light Control Mechanism
Capacitor 220 µF 200 V RS Components 440-6761 Light Control Mechanism
Resistance 2K2 7 W RS Components 485-3038 Light Control Mechanism
Fuse 6.3 x 32 mm2 3A RS Components 413-210 Light Control Mechanism
Arduino Uno Atmel Atmega 328 MCU board RS Components 715-4081 Light Control Mechanism
Prototipe Board CEM3,3 orific.,RE310S2 RS Components 728-8737 Light Control Mechanism
DC/DC converter,12 Vin,+/-5 Vout 100 mA 1 W RS Components 689-5179 Light Control Mechanism
2 SERA T8 blue moonlight fluorescent bulb 36 watts SERA Discontinued/Light isolated facility

DOWNLOAD MATERIALS LIST

References

  1. Dell, A. I., et al. Automated image-based tracking and its application in ecology. Trends in Ecology & Evolution. 29 (7), 417-428 (2014).
  2. Berman, G. J., Choi, D. M., Bialek, W., Shaevitz, J. W. Mapping the stereotyped behaviour of freely moving fruit flies. Journal of The Royal Society Interface. 11 (99), (2014).
  3. Mersch, D. P., Crespi, A., Keller, L. Tracking Individuals Shows Spatial Fidelity Is a Key Regulator of Ant Social Organization. Science. 340 (6136), 1090 (2013).
  4. Tyson, L. Hedrick Software techniques for two- and three-dimensional kinematic measurements of biological and biomimetic systems. Bioinspiration & Biomimetics. 3 (3), 034001 (2008).
  5. Branson, K., Robie, A. A., Bender, J., Perona, P., Dickinson, M. H. High-throughput ethomics in large groups of Drosophila. Nature Methods. 6 (6), 451-457 (2009).
  6. de Chaumont, F., et al. Computerized video analysis of social interactions in mice. Nature Methods. 9, 410 (2012).
  7. Pérez-Escudero, A., Vicente-Page, J., Hinz, R. C., Arganda, S., de Polavieja, G. G. idTracker: tracking individuals in a group by automatic identification of unmarked animals. Nature Methods. 11 (7), 743-748 (2014).
  8. Fiala, M. ARTag, a fiducial marker system using digital techniques. 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05). 2, 590-596 (2005).
  9. Koch, R., Kolb, A., Rezk-Salama, C. CALTag: High Precision Fiducial Markers for Camera Calibration. Koch, R., Kolb, A., Rezk-salama, C. , (2010).
  10. Crall, J. D., Gravish, N., Mountcastle, A. M., Combes, S. A. BEEtag: A Low-Cost, Image-Based Tracking System for the Study of Animal Behavior and Locomotion. PLOS ONE. 10 (9), e0136487 (2015).
  11. Charpentier, R. Free and Open Source Software: Overview and Preliminary Guidelines for the Government of Canada. Open Source Business Resource. , (2008).
  12. Crowston, K., Wei, K., Howison, J. Free/Libre Open Source Software Development: What We Know and What We Do Not Know. ACM Computing Surveys. 37, (2012).
  13. Edmonds, N. J., Riley, W. D., Maxwell, D. L. Predation by Pacifastacus leniusculus on the intra-gravel embryos and emerging fry of Salmo salar. Fisheries Management and Ecology. 18 (6), 521-524 (2011).
  14. Sbragaglia, V., et al. Identification, Characterization, and Diel Pattern of Expression of Canonical Clock Genes in Nephrops norvegicus (Crustacea: Decapoda) Eyestalk. PLOS ONE. 10 (11), e0141893 (2015).
  15. Sbragaglia, V., et al. Dusk but not dawn burrow emergence rhythms of Nephrops norvegicus (Crustacea: Decapoda). Scientia Marina. 77 (4), 641-647 (2013).
  16. Katoh, E., Sbragaglia, V., Aguzzi, J., Breithaupt, T. Sensory Biology and Behaviour of Nephrops norvegicus. Advances in Marine Biology. 64, 65-106 (2013).
  17. Sbragaglia, V., Leiva, D., Arias, A., Antonio García, J., Aguzzi, J., Breithaupt, T. Fighting over burrows: the emergence of dominance hierarchies in the Norway lobster (Nephrops norvegicus). The Journal of Experimental Biology. 220 (24), 4624-4633 (2017).
  18. Welcome to Python.org. , https://www.python.org/ (2018).
  19. Bradski, G. OpenCV Library. Dr. Dobb’s Journal of Software Tools. , (2000).
  20. Piccardi, M. Background subtraction techniques: a review. 2004 IEEE International Conference on Systems, Man and Cybernetics (IEEE Cat. No.04CH37583). 4, 3099-3104 (2004).
  21. Sankur, B. Survey over image thresholding techniques and quantitative performance evaluation. Journal of Electronic Imaging. 13 (1), 146 (2004).
  22. Lai, Y. K., Rosin, P. L. Efficient Circular Thresholding. IEEE Transactions on Image Processing. 23 (3), 992-1001 (2014).
  23. Gaten, E. Light‐induced damage to the dioptric apparatus of Nephrops norvegicus (L.) and the quantitative assessment of the damage. Marine Behaviour and Physiology. 13 (2), 169-183 (1988).
  24. Sbragaglia, V., et al. An automated multi-flume actograph for the study of behavioral rhythms of burrowing organisms. Journal of Experimental Marine Biology and Ecology. 446, 177-186 (2013).
  25. Johnson, M. L., Gaten, E., Shelton, P. M. J. Spectral sensitivities of five marine decapod crustaceans and a review of spectral sensitivity variation in relation to habitat. Journal of the Marine Biological Association of the United Kingdom. 82 (5), 835-842 (2002).
  26. Markager, S., Vincent, W. F. Spectral light attenuation and the absorption of UV and blue light in natural waters. Limnology and Oceanography. 45 (3), 642-650 (2000).
  27. Aguzzi, J., et al. A New Laboratory Radio Frequency Identification (RFID) System for Behavioural Tracking of Marine Organisms. Sensors. 11 (10), 9532-9548 (2011).
  28. Audin, M. Geometry [Electronic Resource. , Springer Berlin Heidelberg:, Imprint: Springer. Berlin, Heidelberg. (2003).
  29. OpenCV Team Structural Analysis and Shape Descriptors - OpenCV 2.4.13.7 documentation. , https://docs.opencv.org/2.4/modules/imgproc/doc/structural_analysis_and_shape_descriptors.html?highlight=findcontours#void%20HuMoments(const%20Moments&%20m,%20OutputArray%20hu) (2018).
  30. Slabaugh, G. G. Computing Euler angles from a rotation matrix. 7, (1999).
  31. Zhang, Z. A flexible new technique for camera calibration. IEEE Transactions on Pattern Analysis and Machine Intelligence. 22 (11), 1330-1334 (2000).
  32. www.FOURCC.org - Video Codecs and Pixel Formats. , https://www.fourcc.org/ (2018).
  33. Suzuki, S., be, K. Topological structural analysis of digitized binary images by border following. Computer Vision, Graphics, and Image Processing. 30 (1), 32-46 (1985).
  34. Sklansky, J. Finding the convex hull of a simple polygon. Pattern Recognition Letters. 1 (2), 79-83 (1982).
  35. Fitzgibbon, A., Fisher, R. A Buyer’s Guide to Conic Fitting. , 51.1-51.10 (1995).
  36. Otsu, N. A Threshold Selection Method from Gray-Level Histograms. IEEE Transactions on Systems, Man, and Cybernetics. 9 (1), 62-66 (1979).
  37. Hu, M. K. Visual pattern recognition by moment invariants. IRE Transactions on Information Theory. 8 (2), 179-187 (1962).
  38. Structural Analysis and Shape Descriptors - OpenCV 2.4.13.6 documentation. , https://docs.opencv.org/2.4/modules/imgproc/doc/structural_analysis_and_shape_descriptors.html?highlight=cvmatchshapes#humoments (2018).
  39. Douglas, D. H., Peucker, T. K. Algorithms for the Reduction of the Number of Points Required to Represent a Digitized Line or its Caricature. Cartographica: The International Journal for Geographic Information and Geovisualization. 10 (2), 112-122 (1973).
  40. Vanajakshi, B., Krishna, K. S. R. Classification of boundary and region shapes using Hu-moment invariants. Indian Journal of Computer Science and Engineering. 3, 386-393 (2012).
  41. Kahle, D., Wickham, H. ggmap : Spatial Visualization with ggplot2. The R Journal. , 144-162 (2013).
  42. Venables, W. N., Ripley, B. D. Modern Applied Statistics with S. , Springer. New York. (2010).
  43. Abbas, Q., Ibrahim, M. E. A., Jaffar, M. A. A comprehensive review of recent advances on deep vision systems. Artificial Intelligence Review. , (2018).
  44. Menesatti, P., Aguzzi, J., Costa, C., García, J. A., Sardà, F. A new morphometric implemented video-image analysis protocol for the study of social modulation in activity rhythms of marine organisms. Journal of Neuroscience Methods. 184 (1), 161-168 (2009).
  45. Chapman, C. J., Shelton, P. M. J., Shanks, A. M., Gaten, E. Survival and growth of the Norway lobster Nephrops norvegicus in relation to light-induced eye damage. Marine Biology. 136 (2), 233-241 (2000).
  46. Video tracking software | EthoVision XT. , https://www.noldus.com/animal-behavior-research/products/ethovision-xt (2018).
  47. Correll, N., Sempo, G., Meneses, Y. L. D., Halloy, J., Deneubourg, J., Martinoli, A. SwisTrack: A Tracking Tool for Multi-Unit Robotic and Biological Systems. 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems. , 2185-2191 (2006).
  48. MATLAB - MathWorks. , https://www.mathworks.com/products/matlab.html (2018).
  49. Leggat, P. A., Smith, D. R., Kedjarune, U. Surgical Applications of Cyanoacrylate Adhesives: A Review of Toxicity. ANZ Journal of Surgery. 77 (4), 209-213 (2007).
  50. Dizon, R. M., Edwards, A. J., Gomez, E. D. Comparison of three types of adhesives in attaching coral transplants to clam shell substrates. Aquatic Conservation: Marine and Freshwater Ecosystems. 18 (7), 1140-1148 (2008).
  51. Cary, R. Methyl cyanoacrylate and ethyl cyanoacrylate. , World Health Organization. Geneva. (2001).
  52. Krizhevsky, A., Sutskever, I., Hinton, G. E. Imagenet classification with deep convolutional neural networks. Advances in neural information processing systems. , http://papers.nips.cc/paper/4824-imagenet-classification-w 1097-1105 (2012).

Tags

Miljøfag problemet 146 OpenCV Python video analyse plass belegg daglig aktivitet rytmer sporing
Langsiktig Video sporing av Cohoused akvatiske dyr: en Case studie av den daglige Locomotor aktiviteten til Sjøkreps (<em>Nephrops norvegicus</em>)
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Garcia, J. A., Sbragaglia, V.,More

Garcia, J. A., Sbragaglia, V., Masip, D., Aguzzi, J. Long-term Video Tracking of Cohoused Aquatic Animals: A Case Study of the Daily Locomotor Activity of the Norway Lobster (Nephrops norvegicus). J. Vis. Exp. (146), e58515, doi:10.3791/58515 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter