Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Environment

Langfristige Video Tracking Cohoused Wassertiere: A Case Study of der Bewegungsorgane Tagesaktivität der Kaisergranat (Nephrops Norvegicus)

Published: April 8, 2019 doi: 10.3791/58515
* These authors contributed equally

Summary

Hier präsentieren wir ein Protokoll, um die Tiere einzeln über einen langen Zeitraum hinweg zu verfolgen. Es nutzt Computervision Methoden um eine Reihe von manuell konstruierten Tags mit Hilfe einer Gruppe von Hummer als Fallstudie, gleichzeitig eine Information zum Umgang mit Haus, manipulieren, und markieren Sie den Hummer.

Abstract

Wir präsentieren Ihnen ein Protokoll im Zusammenhang mit einer Video-Tracking-Technik anhand der Hintergrundabzug und Bild Schwellwerte, die es ermöglicht, individuell cohoused Tiere verfolgen. Wir testeten die Tracking-Routine mit vier cohoused Kaisergranat (Nephrops Norvegicus) unter hell-dunkel-Bedingungen für 5 Tage. Der Hummer war individuell markiert. Der Versuchsaufbau und die Tracking-Techniken basieren vollständig auf die open-Source-Software. Der Vergleich der Tracking-Ausgabe mit einer manuelle Erkennung zeigt, dass die Hummer richtig waren 69 % der Zeit erkannt. Unter die richtig erkannten Hummer waren ihre individuelle Tags korrekt identifizierte 89,5 % der Zeit. Betrachtet man die Frame-Rate in das Protokoll verwendet und Gängigkeit der Hummer die Leistung des video-Tracking hat eine gute Qualität und die repräsentativen Ergebnisse unterstützen die Gültigkeit des Protokolls in der Herstellung von wertvollen Daten für Forschungsbedarf (individuelle Raum-Belegung oder Bewegungsorgane Aktivitätsmuster). Die hier vorgestellten Protokoll kann leicht angepasst werden und ist daher übertragbar auf andere Arten, wo die individuelle Verfolgung von Proben in einer Gruppe für die Beantwortung der Forschungsfragen wertvoll sein kann.

Introduction

In den letzten Jahren hat automatische Bild-basierten Tracking hochgenaue Datasets versehen, die verwendet werden können, um grundlegende Fragen in Ökologie und Verhalten Disziplinen1zu erkunden. Diese Datensätze können für die Quantitative Analyse von Tierverhalten2,3verwendet werden. Allerdings hat jedes Bild-Methodik für die Verfolgung von Tieren und Verhalten Bewertung ihrer Stärken und Grenzen. Im Bild-basierten Tracking-Protokolle, die räumliche Informationen aus vorhergehenden Frames in einem Film zu verwenden, um Tiere4,5,6verfolgen, können Fehler eingeführt werden, wenn kreuzen sich die Wege der beiden Tiere. Diese Fehler sind in der Regel irreversibel und durch die Zeit zu verbreiten. Trotz der rechnerischen Fortschritte, die verringern oder fast beseitigt dieses Problem5,7, benötigen diese Techniken noch homogene Versuchsaufbauten für genaue Kennzeichnung von Tieren und Tracking.

Die Beschäftigung von Marken, die bei Tieren eindeutig identifiziert werden können diese Fehler vermieden und ermöglicht die langfristige Verfolgung von identifizierten Personen. Weit verbreitete Marker (z.B., Barcodes und QR-Codes) gibt es in Industrie und Gewerbe und identifiziert werden kann mit bekannten Computer-Vision-Techniken, wie augmented Reality (z. B. ARTag8) und Kamera-Kalibrierung (z. B.CALTag9 ). Tagged Tiere haben zuvor für Hochdurchsatz-Verhaltensstudien in verschiedenen Tierarten verwendet worden, für Beispiel, Ameisen3 oder Bienen10, aber einige dieser früheren Systeme zur Erkennung von isolierten Tags3nicht optimiert sind.

Das Tracking-Protokoll präsentiert in diesem Papier eignet sich besonders für die Verfolgung von Tieren in einkanalige Bilder, z. B. Infrarot (IR) Licht oder monochromatisches Licht (vor allem, wir benutzen blaues Licht). Daher entwickelte Methode verwendet keine Farbe Hinweise, als auch für andere Einstellungen wo gibt es Einschränkungen bei der Beleuchtung. Darüber hinaus verwenden wir benutzerdefinierte Tags entworfen, um nicht zu stören den Hummer und zum gleichen Zeitpunkt ermöglichen Aufnahmen mit preiswerten Kameras. Darüber hinaus ist die hier angewandte Methode basiert auf Frame-unabhängige Tag-Erkennung (dh., der Algorithmus erkennt das Vorhandensein der jeden Tag in das Bild unabhängig von der vorherigen Trajektorien). Diese Funktion ist in Anwendungen, wo Tiere vorübergehend verschlossen werden können, oder Tiere Trajektorien können schneiden, relevant.

Das Tag-Design ermöglicht seine Verwendung in verschiedenen Gruppen von Tieren. Nachdem die Parameter der Methode festgelegt werden, könnte es auf andere Tier-Tracking Probleme ohne die Notwendigkeit der Ausbildung einer bestimmten Klassifizierung (andere Krebse oder Schnecken) übertragen werden. Die wichtigsten Einschränkungen des Exports des Protokolls sind die Größe der Tag und das Bedürfnis nach Bindung an das Tier (das macht es nicht geeignet für kleine Insekten wie fliegen, Bienen, etc.) und die 2D Annahme der Tierbewegung. Diese Einschränkung ist wichtig, angesichts der Tatsache, dass die vorgeschlagene Methode wird davon ausgegangen, dass die Tag-Größe konstant bleibt. Ein Tier in einer 3D Umgebung (z. B. Fisch) frei bewegen würde anderen Tag Größen je nach Entfernung zur Kamera zeigen.

Dieses Protokoll soll eine benutzerfreundliche Methode für die Verfolgung von mehreren tagged Tiere über einen langen Zeitraum hinweg (dh, Tage oder Wochen) in einem 2D Kontext zur Verfügung zu stellen. Der methodische Ansatz basiert auf der Verwendung von open Source Software und Hardware. Freie und open Source Software erlaubt Anpassungen, Änderungen und kostenlose Umverteilung; Daher verbessert die generierten Software bei jedem Schritt11,12.

Das Protokoll hier vorgestellten konzentriert sich auf ein Labor eingerichtet, verfolgen und Auswerten der Bewegungsorgane Aktivität von vier Wassertieren in einem Tank für 5 Tage. Die video-Dateien von einem 1 s-Zeitraffer-Bild aufgezeichnet und in einem Video mit 20 Bildern pro Sekunde (1 aufgezeichneten Tag belegt ca. 1 h Video) zusammengestellt. Alle video-Aufnahmen werden automatisch postprocessed, tierische Positionen, Anwendung von Computer-Vision-Methoden und Algorithmen zu erhalten. Das Protokoll erlaubt die Erlangung großer Mengen von tracking-Daten, deren manuelle Annotation, das gezeigt worden ist, zu zeitaufwendig und mühsam in früheren experimentellen Papiere13zu vermeiden.

Wir verwenden für die Fallstudie der Kaisergranat (Nephrops Norvegicus); So bieten wir artspezifische Laborbedingungen zu gewährleisten. Hummer führen gut untersuchte Fuchsbau entstehen Rhythmen, die unter der Kontrolle der circadianen Uhr14,15, und wenn cohoused, bilden sie Dominanz Hierarchie16,17. Das hier vorgestellte Modell ist daher ein gutes Beispiel für die Forscher die soziale Modulation des Verhaltens mit dem besonderen Schwerpunkt der zirkadianen Rhythmen interessiert.

Die hier vorgestellte Methodik ist leicht reproduziert und kann auf andere Arten angewendet werden, wenn es besteht die Möglichkeit, zwischen Tieren mit einzelnen Variablen zu unterscheiden. Die Mindestanforderungen für die Wiedergabe solcher Ansatzes im Labor sind (i) isothermen Räume für den Versuchsaufbau; (Ii) eine kontinuierliche Wasserversorgung; (Iii) Wasser Temperatur Kontrollmechanismen; (iv) eine Lichtsteuerung; (V) eine USB-Kamera und einem standard-Computer.

In diesem Protokoll verwenden wir Python18 und OpenCV19 (Open Source Computer Vision Library). Wir setzen auf schnelle und häufig angewandte Vorgänge (sowohl in Bezug auf die Umsetzung und Durchführung), z. B. Hintergrund Subtraktion20 und Bild Schnittstellenüberwachung21,22.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Die Arten, die in dieser Studie verwendeten ist keinem bedrohten oder geschützten Tierarten. Probenahme und Labor Experimente folgten der spanischen Gesetzgebung und internen institutionellen (ICM-CSIC) Regelungen bezüglich des Tierschutzes. Tierische Probenahme wurde mit der Erlaubnis der örtlichen Behörde (Regionalregierung von Katalonien) durchgeführt.

1. Tier Wartung und Probenahme

Hinweis: Das folgende Protokoll basiert auf der Annahme, dass Forscher in der Nacht zu vermeiden, die Photorezeptoren23 N. Norvegicus im Bereich probieren können. Von N. Norvegicus muss Sonneneinstrahlung vermieden werden. Nach der Probenahme sollen die Hummer in einer Akklimatisierung Anlage ähnlich wie berichtet auf bisher17,24, mit einem kontinuierlichen Strom von gekühltem Meerwasser (13 ° C) untergebracht werden. In dieser Studie verwendeten Tiere sind männlich, bei den intermoult Zustand mit einer Länge des Cephalothorax (CL; Mittelwert ± SD) von 43,92 ± 2,08 mm (N = 4).

  1. Halten Sie die Individuen in isolierten Fächern, Schäden, die durch einzelne Kämpfe zu vermeiden (siehe Abbildung 1a-d).
  2. Füttern sie ca. 3 x pro Woche zu zufälligen Zeitpunkten der zirkadianen Rhythmen nicht stören.
    Hinweis: In diesem Experiment wurden Muscheln (ca. 4 g pro Hummer) als Nahrung verwendet. Muscheln wurden von Tiefkühlkost Lieferanten gekauft und waren für den menschlichen Verzehr geeignet.
  3. Blaues Licht (425-515 nm) zur Simulation von Lichtstunden entsprechend der spektralen Empfindlichkeit des Arten-25 und die Umweltbedingungen in 400 m Tiefe26 verwenden (siehe Abbildung 1 c,d).
    Hinweis: Die hier verwendete Anlage hat eine vertikale Decke zwei blau (478 nm) Leuchtstofflampen, die eine Lichtintensität von 12 produziert lx bei 1 m Abstand von den Lampen. Siehe Abbildung 1a für die Deckenlampen Position und Tabelle der Materialien für technischer Leuchten und des Herstellers Eigenschaften anzeigen.
  4. Passen Sie die Photoperiode der Akklimatisierung Anlage auf 12/12 Stunden hell/dunkel oder simulieren Sie die natürliche Photoperiode von den lokalen Breitengrad.
  5. Die Anlage-Temperatur auf 13 ° C regulieren und überwachen 2 x täglich zu überprüfen, die Temperatur des einströmenden Meerwassers ist etwa 13 ° C (siehe Abbildung 1e).
  6. Regulieren Sie den Zufluss von Meerwasser mit einer Rate von ca. 4 L/min, gute Sauerstoffversorgung beizubehalten.
    Hinweis: Das Meerwasser zirkuliert in ein offener Stromkreis (keine Filter und zusätzliche Pumpen verwendet werden). Die Wasserversorgung richtet sich nach den wichtigsten Aquarium Anlagenservice.

Figure 1
Abbildung 1 : Anlage Akklimatisierung Ansichten. (ein) Regalen Tank. (a1) Meerwasser-Eingang. (a2) Fluoreszierenden Deckenleuchten. (b) Detail von blauem Licht Beleuchtung. (c) Tierzelle Detail. (d) Detail von einem isolierten Anlage Control Panel. (e) Temperatur-Einstellung für einen der Eingänge. Bitte klicken Sie hier für eine größere Version dieser Figur.

2. Tag Bau

Hinweis: Die hier verwendete Variable kann nach den Merkmalen der Zieltier oder andere spezifische Überlegungen geändert werden.

  1. Vier Kreise von 40 mm Durchmesser aus einem schwarzen Kunststoff-Folie ausschneiden.
  2. Schneiden Sie aus einem weißen PVC Kunststoffplatte zwei gleichseitigen Dreiecken mit 26 mm Seiten.
  3. Schneiden Sie aus einer weißen PVC Kunststoffplatte zwei Kreise von 26 mm im Durchmesser.
  4. Markieren Sie den Mittelpunkt der weißen Dreiecke und Kreise und machen Sie ein 10 mm Loch drin.
  5. Kleben Sie die vier weißen Formen in die Mitte der vier schwarze Kreise.

Figure 2
Abbildung 2 : Die vier Tags für die individuelle Kennzeichnung von den Hummer verwendet. Kreis, Kreis-Loch, Dreieck, Dreieck-Loch. Bitte klicken Sie hier für eine größere Version dieser Figur.

3. Versuchsaufbau

Hinweis: Die experimentelle Arena soll in einem experimentellen Kammer von unabhängigen aber in unmittelbarer Nähe zur Akklimatisierung Anlage sein.

  1. Richten Sie eine experimentelle Kammer, wo die Lufttemperatur kontrolliert und gewartet werden kann, die gleiche Temperatur wie das Meerwasser im experimentellen Bereich.
  2. Ändern Sie einen GFK-Tank (1.500 x 700 x 300 mm) als eine experimentelle Arena verwendet werden. Fügen Sie vier Höhlen mit PVC Schläuche am unteren Rand der Tank und Stick Sand auf der Oberfläche, wo sollen die Hummer (Abb. 3 b-e) zu bewegen. Weitere Informationen finden Sie unter17,27.
    1. Bieten die experimentellen Arena mit Abflussöffnungen blaue LEDs (472 nm, Simulation Lichtstunden) und IR-LEDs (850 nm, schlechten Lichtverhältnissen) (siehe auch Abbildung 3a)17,24.
      Hinweis: LED-Licht wird aufgrund seiner niedrigen Wärmeeinfluss und der Verfügbarkeit der nutzbaren elektronischen Kontroll- und kostenlose Hardware verwendet. Eine isolierte Einrichtung mit einer Umwelt- und Meerwasser Temperatur von 13 ± 0,5 ° C diente.
    2. Halten Sie die IR-LEDs eingeschaltet.
      Hinweis: Die IR ist zum Aufzeichnen von Videos im Dunkeln und bei Licht erforderlich. Es ist nicht notwendig, es auszuschalten.
    3. Verbinden Sie die blauen LEDs mit einer Vorrichtung, die Photoperiode zu verwalten. Siehe die Vorschläge in der Tabelle der Materialienund weitere Informationen, wenden Sie sich an Sbragaglia Et Al. 17 (siehe auch Abbildung 3a).
      Hinweis: Beleuchtung in Video oder Bild-automatisierte Analysen ist ein kritischer Faktor. Regelmäßige Ausleuchtung ohne Schatten überall in der Arena, die Vermeidung von Wasser Oberflächenreflexe erleichtert die hinteren Video oder Bild-Analyse. Im Rahmen dieses Protokolls wurden nur 12/12 hell/dunkel Bedingungen verwendet. Licht und Finsternis wurden schrittweise innerhalb von 30 Minuten erreicht, und ein Licht-Controller-Skript wird als ergänzende Datei 1hinzugefügt.
    4. Legen Sie den gekühltem Meerwasser Einlass an einer Ecke des Behälters und die entsprechende Steckdose an der gegenüberliegenden Ecke.
    5. Die Meerwasser-Eingabe bei einer Durchflussmenge von ca. 4 L/min zu regulieren.
    6. Umgeben Sie den Tank mit einem schwarzen Vorhang um eine vollständige Isolierung von anderen Licht (Abbildung 3a) zu bieten.
  3. Legen Sie das Stativ, an dem die Web-Kamera auf die Seite der experimentellen Arena und Position der Videokamera oben (130 cm) und in der Mitte der experimentellen Arena befestigt ist (75 cm x 32,5 cm (siehe Abb. 3a).
  4. Überprüfen Sie, ob die Videokamera in der zentrierten Position befindet (siehe Punkt 3.3) um sicherzustellen, es wurde nicht verschoben unfreiwillig.
  5. Schließen Sie die Webkamera an einen Computer, der außerhalb der Vorhang (Abbildung 3a) gesetzt wird.
    1. Installieren Sie die Software um die Zeitrafferaufnahme mit der Videokamera zu verwalten.
      Hinweis: Zeitraffer-Aufnahmen ist abhängig von der Bewegungsgeschwindigkeit der Gattung. Siehe auch die Tabelle der Materialien für die Kamera, fisheye-Objektiv, PC und Software Eigenschaften und Hersteller verwendet hier.
    2. Passen Sie die Parameter der Videoaufzeichnung nach den Merkmalen der Gattung.
      Hinweis: Angesichts der Mobilitätsrate von N. Norvegicuseine 1 s Zeitrafferaufnahme diente hier, und das Video wurde alle 24 h gespeichert.
    3. Achten Sie darauf, einen Zeitstempel (einschließlich des Datums) im Zeitraffer Video erstellen (da dieser helfen kann bei der zukünftigen manuelle Wertung des Verhaltens).

Figure 3
Abbildung 3 : Versuchsaufbau. (ein) Diagramm der Versammlung des experimentellen Tank und Video Akquisition. (b) allgemeine Ansicht des experimentellen Tanks. (c) unten Blick auf die experimentelle Tank, unter Angabe der künstlichen Höhlen. (d) oben-Ansicht mit der experimentellen Tankboden. (e) Detail eines Bau-Eingänge. Bitte klicken Sie hier für eine größere Version dieser Figur.

4. experimentelle Studie und tierische Vorbereitung

Hinweis: Alle Schritte mit Tieren müssen in der Akklimatisierung-Anlage und unter Rotlicht Bedingungen entsprechend der spektralen Empfindlichkeit von Norwegen Hummer25erfolgen. Beim Wechsel der Tiere zwischen die Akklimatisierung und der Versuchsanlage vermeiden Sie jegliche Exposition die Langusten ans Licht, eine blickdichte schwarze Tasche einzusetzen, um dem Eisfach abzudecken.

  1. Bereiten Sie eine Kühlbox, die zuvor getrennt in vier versunkenen Kammern mit Wasser bei ca. 7 ° C.
  2. Bereiten Sie vier Tags zuvor konstruierte und schnelle Kleber, wie Cyanacrylat.
  3. Bereiten Sie ein Tablett mit crushed-Ice.
  4. Wählen Sie die vier Hummer in der Akklimatisierung Anlage markiert werden und jeder von ihnen in einem Fach des dem Eisfach.
  5. Warten Sie 30 min und starten Sie anschließend das tagging-Verfahren.
    1. Nehmen Sie einen Hummer und legte es auf das crushed Ice für 5 min bis es zu immobilisieren und erleichtern das tagging.
    2. Den oberen Teil des Cephalothorax der Hummer mit adsorptiven Papier trocknen und einen Tropfen Klebstoff schnell aufsetzen.
    3. Legen Sie die Beschriftung horizontal auf der Oberseite des Tieres Cephalothorax, in Kontakt mit dem Kleber und warten genug Zeit zum Aushärten (für ca. 20 s).
    4. Den Hummer zu ihrem Fach in der Kühlbox zurück und fahren Sie mit den anderen drei Tiere auf die gleiche Weise.
    5. Setzen die Hummer wieder in der Zelle, wo sie vorher waren, und 24 h warten um sicher zu sein, dass der Tag richtig auf geklebt wird.
    6. Übertragen Sie die Hummer aus der Akklimatisierung-Anlage zur experimentellen Kammer mit dem gleichen Eisfach, die für das tagging-Verfahren verwendet wurde.
  6. Starten Sie die Videoaufnahme zu und warten Sie 5 Minuten vor der Einführung der tagged Hummer. Die ersten 100 Frames eine gemittelte Hintergrundbild einzuholen.
    Hinweis: Ein Minimum von 1 min warten ist zwingend erforderlich, Hintergrund Bilder ohne tagged Hummer zu erhalten; Sie sind für Videobearbeitung benötigt.
  7. Stellen Sie die Tiere eins nach dem anderen in den Experimenten Tank in ihrem jeweiligen Fach halten das Wasser in ihm.
  8. Warten Sie, bis sie raus; Wenn sie nicht herauskommen, hilf ihnen sanft durch Kippen des Fachs. Siehe Abbildung 4 als Beispiel für die Tiere im Inneren des Tanks unter experimentellen Bedingungen.

Figure 4
Abbildung 4 : Raw video-Frame. Ein Beispiel für einen repräsentativen Rahmen eines Zeitraffer-Videos gesammelt während der Experimente. In der oberen rechten Ecke zeigen wir den Zeitstempel mit Datum, Uhrzeit und Rahmen. Beachten Sie die Unterschiede in der Tank-Beleuchtung in der unteren Ecke des Bildes. Bitte klicken Sie hier für eine größere Version dieser Figur.

5. video-Analyse-Skript

  1. Führen Sie die Analyse nach Beendigung des Experiments.
    1. Starten Sie das Computer Vision Skript zur Videoanalyse.
    2. Java-Programm zur Berechnung der Positionen und zurückgelegte Wegstrecke durch die Hummer zu starten und die Daten in die Datenbank einfügen.
      Hinweis: Dieses Programm ist eine euklidische Distanz-basierten Algorithmus28.
    3. Starten Sie SQL-Skript zum binning Daten als gewünschte Zeitintervall (z.B. 10 Minuten).

6. Computer Vision Skript zur Videoanalyse

Hinweis: Das Skript vermeidet fisheye Bildkorrektur, da es keine relevanten Fehler in der Versuchsanordnung eingeführt wird. Dennoch ist es möglich, dies mit OpenCV Kamera-Kalibrierung Funktionen29 basierend auf Vektor- und Matrix Rotation Methoden30,31zu korrigieren.

  1. Wählen Sie die Programmsprache Python18 .
  2. Wählen Sie die OpenCV19 Bild- und Videoverarbeitung Bibliothek.
  3. Eine Video zu laden.
    Hinweis: Video-Formate AVI oder . MP4 in diesem Experiment verwendet wurden, aber dies ist nicht zwingend erforderlich. Es kommt auf die FourCC-32 -Codecs auf dem Betriebssystem installiert.
  4. Führen Sie die folgenden Schritte für jeden Frame Fi in dem Video.
    1. Subtrahieren Sie die Hintergrund-20B (Durchschnitt der letzten 100 Frames, gewonnen aus Schritt 4.6) aus dem aktuellen frame- Fi, und aktualisieren Sie das Hintergrundbild B als Fi. Verwenden Sie die Funktion BackgroundSubtractorMOG2 aus der OpenCV-19 -Bibliothek (siehe die Skripte in die zusätzliche Datei-2).
    2. Bestimmen Sie die Menge der Regionen von Interesse (ROIs) R aus den Pixeln mit entsprechenden Bewegung durch den Hintergrund Subtrahierer angezeigt. Verwenden der Methode anwenden von BackgroundSubtractorMOG2 in der OpenCV-19 -Bibliothek (siehe die Skripte in die zusätzliche Datei-2). Enthalten Sie im Set tierische Entdeckungen aus den vorherigen Frame Konto unbewegliche Tiere berücksichtigen.
    3. Führen Sie die folgenden Schritte für jede ROI- Ri
      1. Wenden Sie erweitern-Funktion an und berechnen Sie die Konturen33 von ROI Ri. Verwenden Sie die Funktionen erweitern und FindContours aus der OpenCV-19 -Bibliothek (siehe die Skripte in die zusätzliche Datei-2).
      2. Berechnen Sie den Rumpf Bereich34Hallo in die Anzahl der Pixel. Verwenden Sie die Funktion KonvexeHülle aus der OpenCV-19 -Bibliothek (siehe die Skripte in die zusätzliche Datei-2).
      3. Berechnen Sie den Radius35ri von ROI- Ri. Verwenden Sie die Funktion MinEnclosingCircle aus der OpenCV-19 -Bibliothek (siehe die Skripte in die zusätzliche Datei-2).
      4. Berechnen Sie die Solidität Si des ROI Ri. Solidität ist das Verhältnis der Kontur (in Schritt 6.4.3.1 erhaltenen) zu Fläche seine konvexe Hülle Fläche (in Schritt 6.4.3.2 erhaltenen) von Ri.
      5. Berechnen Sie das Seitenverhältnis Ai von ROI- Ri. Aspect Ratio ist das Verhältnis zwischen der Breite und der Höhe des Ri-begrenzende Rechteck. Das umschließende Rechteck wird berechnet mit Hilfe der Funktion BoundingRect aus der OpenCV-19 -Bibliothek.
    4. Wählen Sie einen reduzierten Satz von ROIs als Kandidat für die Tiere einzudämmen, indem Sie die Eigenschaften für Rumpf Bereich, Umkreis, Solidität und Seitenverhältnis anpassen.
      1. Überprüfen Sie, ob Hallo kleiner 500,0 oder größer als 100000.0ist. Wenn ja, entsorgen Sie die ROI- Ri. Ansonsten halten Sie die Ri als Kandidat ROI für die tierischen Lage.
      2. Überprüfen Sie, ob die ri 40,0unterschreitet. Wenn ja, entsorgen Sie die ROI- Ri. Ansonsten halten Sie die Ri als Kandidat ROI für die tierischen Lage.
      3. Überprüfen Sie, ob der Si kleiner ist als -4,0 verwerfen die ROI- Ri. Ansonsten halten Sie die Ri als Kandidat ROI für die tierischen Lage.
      4. Überprüfen Sie, ob die Ki weniger als 0,15 oder größer als 4.0ist. Ist also, verwerfen die ROI- Ri. Ansonsten halten Sie die Ri als Kandidat ROI für die tierischen Lage.
        Hinweis: Die Verwendung des ROIs reduziert die rechnerische Kosten, konzentriert sich die Tag-Suche auf das Tier Körperregion. Tierische Entdeckungen aus vorherigen Frames sind eingeschlossen, um falsche Erkennungen zu vermeiden, wenn die Tiere sich nicht bewegen.
    5. Analysieren Sie das Tier ROIs Tag Identitäten zu bestimmen. Führen Sie folgenden Schritte für jede ROI- Ri und für jeden internen ROI Pide, und extrahieren Sie die internen ROIs P.
      1. Das Graustufenbild Pi mit dem Otsu36 Schnittstellenüberwachung Algorithmus vollständig.
      2. Berechnen Sie die Konturen33 von Pi, wie in Schritt 6.4.3.1.
      3. Berechnen Sie den Rumpf Bereich34Hallo und das Seitenverhältnis Ai, wie in den Schritten 6.4.3.2 und 6.4.3.5.
      4. Die Form Momente37,38mi von Pizu berechnen. Verwenden Sie die Funktion Momente aus der OpenCV-19 -Bibliothek (siehe die Skripte in die zusätzliche Datei-2).
      5. Wählen Sie einen reduzierten Satz von ROIs als Kandidat für die Tags, die folgenden Kriterien enthalten.
        1. Überprüfen Sie, ob Hallo kleiner 150,0 oder 500,0größer ist. Wenn ja, entsorgen Sie die ROI- Pi. Ansonsten halten Sie die Pi als Kandidat ROI für den Tag-Standort.
        2. Überprüfen Sie, ob die Ki kleiner als 0,5 oder größer als 1,5 ist. Wenn ja, entsorgen Sie die ROI- Pi. Ansonsten halten Sie die Pi als Kandidat ROI für die tierischen Lage.
        3. Überprüfen Sie, ob der mi größer als 0,3ist. Wenn ja, entsorgen Sie die ROI- Pi. Ansonsten halten Sie die Pi als Kandidat ROI für die tierischen Lage.
    6. Das Tag ROIs zu klassifizieren. Nähern Sie ein Polygon39 mit OpenCV19 Funktion38 für jede ausgewählte ROI Pi19 an.
      1. Überprüfen Sie, ob es genau drei Scheitelpunkte im angenäherten Polygon gibt; der Tag der Dreieck -Klasse zuweisen. Ansonsten weisen Sie die Circle -Klasse in die Tag-Region.
        Hinweis: Angenäherten Polygon wird gespeichert unter Verwendung einer Matrix mit den Scheitelpunkten.
      2. Überprüfen Sie die zentralen Pixel des ROI Pi. Wenn es ein schwarzes Pixel ist, ordnen Sie Pi die durchlöcherte Klasse zu. Andernfalls die Pi die weißen Klasse zuordnen.
        Hinweis: Das Form-Center wird von den Momenten berechnet im Schritt 6.4.5.4 abgeleitet. Suchen Sie die schwarzen Pixel auf einer Fläche von einem 4-Pixel-Radius um den Mittelpunkt.
  5. Sichern Sie die Framedaten: Datum der Frame, Frame-Zeit prägen Klasse x Zentrum Form Koordinate und y-Zentrum-Form-Koordinate.
  6. Das nächste Bild fortsetzen Sie oder beenden Sie den Prozess. Siehe Abbildung 5 unten als ein visuelles Beispiel Skript Arbeitsschritte und beobachten Video 1 als Beispiel für Skript funktionieren.

Figure 5
Abbildung 5 : Relevanten Schritte von der Video-Bearbeitung-Skript (1) auswerten Hintergrund Subtraktion Bewegung über dem Mittelwert der letzten 100 Frames. (2) Ergebnis des Hintergrund Subtraktion Algorithmus. (3) übernehmen eine erweitern morphologische Operation zu den weißen erkannt. (4) Apply beheben, statische, wichtigsten ROI; Das gelbe Polygon entspricht der Tank im Bodenbereich. (5) Konturen für jede Region weiß erkannt in den wichtigsten ROI kalkulieren und führen eine strukturelle Analyse für jedes erkannte Kontur. (6) überprüfen Sie strukturelle Eigenschaftswerte und Zweitniveau ROI Kandidaten wählen. (7) Binarisieren Rahmens mit einem Otsu Schnittstellenüberwachung Algorithmus; das Skript funktioniert nur mit L2-ROIs. (8) für jede Zweitniveau ROI binarisiert, die Konturen der weißen Regionen zu berechnen und ausführen eine Strukturanalyse für jede Kontur erkannt. (9) prüfen die strukturelle Eigenschaft Werte und wählt dann interne ROI-Kandidaten. (10) für jede Kontur in der internen ROI-Kandidat, berechnen die Deskriptoren/Momente. (11) überprüfen, ob die erkannten Form-Spiele mit dem Modell gestalten und ungefähre ein Polygon um die besten Match-Kandidaten. (12) die Anzahl der Eckpunkte des Polygons ungefähre überprüfen und bestimmen die geometrische Figur: Kreis oder Dreieck. (13) berechnen die Figur Center und prüfen Sie, ob die schwarzen Pixel auftreten; Wenn ja, ist es eine gelochte Figur. (14) visuelle Ergebnis nach Frame-Analyse. Bitte klicken Sie hier für eine größere Version dieser Figur.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Wir konstruierten manuell eine Teilmenge der experimentellen Daten, die automatisierte Videoanalyse zu validieren. Eine Stichprobengröße von 1.308 Frames mit einem Konfidenzniveau von 99 % (das ist ein gewisses Maß an Sicherheit, das zeigt an, ob die Probe genau die Bevölkerung innerhalb der Fehlergrenze entspricht) und eine Fehlerquote von 4 % (das ist ein Prozentsatz, der beschreibt, wie weit die Antwort die Probe gab ist auf den realen Wert in der Bevölkerung) wurde nach dem Zufallsprinzip ausgewählt, und eine manuelle Annotation die korrekte Identifizierung des ROIs und die korrekte Identifizierung des Tags innerhalb jedes ROI wurde durchgeführt. Beachten Sie, dass ein einzelner Frame eine Variable Anzahl von ROIs in einem unbestimmten Bereich enthalten kann, weil einige Hummer in den Höhlen versteckt können oder ein ROI zwei oder mehr Tiere oder falscher Alarm enthält.

Die Gesamtzahl der Tiere in den 1.308 Frames war 3.852 (manuell kommentierte ROIs). Die Methode offenbart 3.354 Tiere Erkennungen. Insgesamt 701 (21 %) Diese Entdeckungen waren Fehlalarme (d. h. die Anzahl der ROIs wo der Hummer verwirrt mit dem Hintergrund war). Die Gesamtzahl der Tiere gezählt, 2.653 Erkennungen (79 %) waren richtig passende (dh., die Anzahl der Wiederholungen der Sichter richtig das Vorhandensein eines Hummers in den erfassten Regionen erkannt; siehe auch Abbildung 6a, b). In Bezug auf die totale 3.852 ROIs in die 1.308 Frames vorhanden erkennt das Skript 69 % der Individuen.

Über die Tag-Erkennung identifiziert das Skript 2.353 ROI Kandidaten als Tags (89 % der 2.653 entdeckten Regionen mit Tieren). Der Sichter erfolgreich identifiziert als Klasse Tag 1.808 dieser Tags (in dem der Kandidat eingestuft wird als Kreis, Dreieck, Kreis gelocht oder gelochte Dreieck) und verpasste 545 Fällen (23 % der 2.353 ROI Kandidaten für Tag). Im Zusammenhang mit der Tag-Einstufung, 1.619 sind korrekt identifiziert (89,5 %, Abb. 6f). Nur 70 Stichwörter, wo falsch klassifiziert (3,8 % Fehler, Abbildung 6e) und die restlichen 119 (6,6 %) Fehlalarme (interne ROIs als Tag, das Teile von Tieren, wie Krallen; entsprach entsprach Abbildung 6 d).

Figure 6
Abbildung 6 : Repräsentative Ansichten von Bildern zeigt die häufigsten experimentelle Situationen während der video-Analyse. (ein) falsch Tiere-Erkennung, ein Hintergrundbereich erkannt wird. (b) Tier Richtungslogik. Zwei Tiere liegen nahe beieinander und einzige erkannt wird. (c) Form Richtungslogik. Das Tier ist erkannt (blaues Rechteck), aber der Tag wird nicht erkannt. (d) Fake Form erkennen. Zwei Formen werden erkannt, und einer ist eine Klaue. (e) falsche Klassifizierung einer Form. Ein Dreieck wird als Dreieck-Loch eingestuft. (f) Ideal Lage. Alle Tiere werden erkannt, und die Tags sind korrekt identifiziert. Bitte klicken Sie hier für eine größere Version dieser Figur.

Nach dem Abschluss der Videoanalyse können die gewonnenen Positionen (X, Y) Daten verwendet werden, unterschiedliche Verhaltensmuster und die Hummer zu bewerten. Z. B. dargestellt wir eine Speicherplatz-Belegung Karte mit zweidimensionalen Kernel Dichte Schätzung mit einer Achse ausgerichteten bivariate normal Kernel, auf einem quadratischen Raster41,42 mit der besten Performance bewertet werden automatisiert von der statistischen Algorithmus. Eine höhere Farbe Intensität stellt die Bereiche waren verbrachten die Hummer einen höheren Prozentsatz ihrer Zeit (Abbildung 7). Video 2 bietet ein visuelles Beispiel des Tieres verfolgen.

Ein weiteres Beispiel ist vertreten durch die tägliche Aktivität Rhythmen der Hummer, Millimetern aufgetragen und in 10 min Makulatur Zeitintervallen (Abbildung 8). Wir entfernen die Daten entsprechend des ersten 24 h des Experiments, die die Tiere Umwelt Anpassungsprozess entsprach.

Figure 7
Abbildung 7 : Belegung Weltraumkarte. Das Diagramm zeigt nur den Tank im Bodenbereich, die tierischen Verschiebung ist (siehe die gelbe Polygon in Abbildung 6). Die Bereiche waren die verschiedenen tagged Hummer mehr Zeit farbige erscheinen; höhere Farbintensität bedeutet mehr Belegung Zeit. Bitte klicken Sie hier für eine größere Version dieser Figur.

Figure 8
Abbildung 8 : Aktivität Tagesrhythmus der Hummer als Millimeter geplottet und bedeckt in Zeitintervallen von 10 min Makulatur. Graue Bänder zeigen die Stunden der Dunkelheit am 12/12 hell/dunkel, mit dem Sonnenuntergang ab 07:00 und dem Sonnenaufgang ab 19:00 Klicken Sie bitte hier, um eine größere Version dieser Figur.

Movie 1
Video 1: Desktop-Rekord von ein Beispiel für eine laufende Videoanalyse Skript Das Video zeigt in 2 min und 27 s 1 h Echtzeit-Aufnahmen (3.625 Frames). Beachten Sie, dass keine Fehler Akkumulation für Tier und Tag Misdetections und unbekannte Ereignisse während die Aufnahme gemacht wird. Bitte klicken Sie hier, um dieses Video herunterladen.

Movie 2
Video 2: Video des Tieres nach der Bewegungsorgane Analyse tracking. Wir haben X, Y Bild Pixelkoordinaten aus der video-Analyse und in der Datenbank, zeichne die tierische Spur in den aufgezeichneten Videos als ein Beispiel für die Videoanalyse-Skript gespeichert. Je länger die Strecke, desto schneller das Tier bewegt sich und die zurückgelegte Strecke mehr. In diesem Fall 30 s Video entspricht 12 min in Echtzeit. Bitte klicken Sie hier, um dieses Video herunterladen.

Ergänzende Datei 1: Bitte klicken Sie hier, um diese Datei herunterladen. 

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Die Leistung und Vertreter Ergebnisse mit dem Video-Tracking-Protokoll bestätigt seine Gültigkeit für die angewandte Forschung auf dem Gebiet der tierischen Verhaltens, mit einem besonderen Schwerpunkt auf soziale Modulation und zirkadiane Rhythmen von cohoused Tieren. Die Effizienz der Tier-Erkennung (69 %) und die Genauigkeit der Tag Diskriminierung (89,5 %) gepaart mit der Verhaltensmerkmale (d. h. Gängigkeit) der Zielarten verwendet hier legen nahe, dass dieses Protokoll eine perfekte Lösung für langfristige experimentelle Studien (z. B. Tage und Wochen ist). Darüber hinaus das Protokoll bietet die grundlegenden Vorteil, dass einfach zu bedienen und schneller in der Entwicklung und Anpassung in Bezug auf andere Techniken, wie z. B. das automatische Lernalgorithmen und neuronale Netze43. Die Tracking-Techniken hier repräsentieren die letzte Verfeinerung einer experimentellen Aktivität begann mit einem etwas anderen Ansatz44.

Ein entscheidender Schritt im Protokoll ist das Tag-Design; Dabei ist zu berücksichtigen, dass die Umsetzung anderer Tag Entwürfe Otsu Binarisierung verbessern könnte. Zum Beispiel eines der Fehlerquellen berichtet hier war der Richtungslogik zwischen dem schwarzen außerhalb Kreis in den Tag und die weißen interne geometrische Form (siehe Abbildung 9 mit einem binarisierten Rahmen mit einem Detail dieses Fehlers). Es ist möglich, die Binarisierung Prozessverbesserung, zunehmendem Durchmesser (2-3 mm) des schwarzen Kreises außerhalb der weißen inneren geometrischen Form, oder tauschen die Tag-Farben (schwarz/weiß). Halten wir nicht für die Verwendung des Bildes morphologischen Funktionen wie Erodieren oder erweitern, wenn Sie versuchen, diesen Fehler zu beheben, angesichts der Tatsache, dass diese Vorgänge die Struktureigenschaften des Tags abgebildet, als, daher ändern nicht möglich, die Schwellenwerten der Aufrechterhaltung der Skript. Abschließend empfiehlt es sich, das Tag-Design an die Ziel-Tierarten-Anatomie anpassen. Das würde bedeuten, die Anpassung der Skript-Schwellenwerte und die strukturellen Eigenschaften nach dem neuen Design.

Figure 9
Abbildung 9 : Detail des Rahmens Binarisierung Fehler. Ein roter Kreis zeigt, wie Hummer und Tags als ein eindeutiges Objekt erkannt werden. Bitte klicken Sie hier für eine größere Version dieser Figur.

Die wichtigsten Fehlerquelle war die verpasste Erkennung des ROIs (extern und intern). Hier vorgestellten video-Analyse-Skript kann nicht Individuen nachzuverfolgen, die immer noch oder versteckte für einen Zeitraum größer als 100 Frames (die Anzahl der Frames, die das Skript als Hintergrundgeschichte bewahren). Zur Vermeidung von Problemen mit diesem wir die letzte Position des Individuums gespeichert, bis es wieder erkannt wird. Dieser Parameter kann die Ergebnisse der fehlenden unbeweglich oder versteckte Tiere beeinflussen. Diese Tatsache muss berücksichtigt werden, wenn dieses Protokoll Arten zeigen unterschiedliche Mobilität auswirken als die hier vorgestellten für die Hummer mit. Der video-Frame-Rate und Analyse Skript sollte modifiziert und angepasst an die Arten entsprechend ihrer spezifischen Verhaltens verwendet.

Eine große Herausforderung war es, eine einfarbige blaue zu erhalten (472 nm) und IR (850 nm) Beleuchtung, die Möglichkeit der Netzhaut Schaden zu vermeiden und die hellen Umgebungsbedingungen bis das Tier Lebensraum23,45anpassen. Daher die Farbkomponente in video-Aufnahme ist nicht relevant und Videoaufnahmen wurden durchgeführt in Graustufen. Das System schlägt ermöglicht das Programm verschiedene leichte Zeiträume und ändert das Beleuchtungssystem entsprechend den Zielarten Eigenschaften ändern die LED Lichtspektrum. Eine weitere Anpassung in der hier vorgestellten Protokoll zu berücksichtigen ist die Gängigkeit des Zieltier. Für diesen speziellen Fall, die Frame-Rate verwendet 1 Bild pro Sekunde war, Aufnahme Herstellung von video-Dateien von ca. 1 h Länge entsprechend 24 h für experimentelle. Diese zwei Anpassungen (Graustufen und Frame-Rate) erlaubt uns, video-Dateien mit einer geringeren Größe zu erhalten, die waren einfach zu verarbeiten und reduziert die Speicherkapazität und Maschinenzeit zur Nachverfolgung.

Eine Einschränkung des beschriebenen Verfahrens ist, dass es nur mit den hier vorgestellten Arten geprüft worden ist; Allerdings gibt es keine spezifischen Gründe über die Anwendung dieses Protokolls auf andere Arten, die es ermöglichen die Durchführung von ID-Tags. Eine weitere bedeutende Einschränkung ist, dass das Protokoll nicht geeignet, um die Bewegungen der Tiere Anhänge (z. B. Scheeren). Z. B. dekapoden Krebse Scheeren Bewegungen anzuzeigenden Dominanz unter Artgenossen. Zukünftige Implementierungen Zielen auf die Verbesserung dieser Aspekt.

Das vorgeschlagene Protokoll ähnelt früheren vorhandene kommerzielle Software46 und veröffentlichten Methoden SwisTrack und IdTracker7,47. Die kommerzielle Software46 verwendet Hintergrundabzug, um Tiere, ähnlich wie bei den hier vorgestellten Skripten zu erkennen. Auch wenn es ein breiteres Anwendungsspektrum abdeckt, wird es über eine kommerziell interpretierte Programm Sprache48, die ist keine open-Source-Lösung und ist wirtschaftlich aufwendig programmiert. Die SwisTrack-47 -Methode verwendet die OpenCV19 Bibliothek, ähnlich wie bei der hier vorgestellten Ansatz. Dennoch ist es in C++ programmiert. Wir verwendeten Python-Code, der in der Regel einfacher ist, auf die besonderen Bedürfnisse der jeweiligen Umgebung anzupassen. IdTracker7 ist eine starke Annäherung kodiert in einer kommerziell interpretierte Programm Sprache48 aber Ziele nonmarked Tier-Applikationen. Die richtigen Ergebnisse der Nachführung können beeinträchtigt werden, wenn Tiere für eine längere Zeit als in der experimentellen Bedingungen, die hier vorgestellten tritt verdeckt sind. Die Methode hier vorgestellten Prozesse jeden Frame unabhängig und unbeeinflusst von der vorhergehenden Flugbahn des Tieres. Daher wird ein Fehler in einem bestimmten Frame nicht auf zukünftige Frames weitergegeben. Diese Tatsache ist wichtig in dieser Anwendung aber auch Einschränkungen der Methode präsentiert hier auf eine bestimmte Gruppe von Tieren (die manuelle Kennzeichnung zu ermöglichen).

Ein weiterer Aspekt ist, dass wir bei der Entwicklung des Protokolls, darunter die Nachbearbeitung und Speicherung von Videoanalyse Skript generierten Daten sowie den Code zur Steuerung der Beleuchtungsanlage freien Software verwendet haben. Die verarbeiteten Daten werden in ein kostenloses Relationales Datenbanksystem (MySQL) gespeichert. Diese aufbereiteten Daten erhalten Sie nach dem gewünschten Format durch Abfragen in Standard Query Language (SQL). Der Leser kann bearbeiten und die vorgeschlagene offene Code anpassen, oder frei an besondere Bedürfnisse anpassen.

Im Hinblick auf die Methode Toxizität ist der nur zarte Schritt die Verklebung des Tags, das Tier. Wir haben Cyanacrylat-Klebstoff aufgrund seiner geringen Toxizität, seine breiten medizinischen Einsatz49und seine breite Verwendung in Aquarien für fragging Korallen und Fixierung der Fragmente mit Kleber50. Die große Sorge über seine Verwendung ist die Dampf-Toxizität für den Menschen. Die Exposition auf ein Minimum reduziert. Die Gesundheit und Sicherheit Hauptleiter und der United States National Toxicology Program haben festgestellt, dass die Verwendung von Ethyl Cyanacrylat sicher51.

Zukünftige Anwendungen dieses Protokolls sind die Automatisierung des Fundes andere Verhalten der grabende Krebstiere (z.B. Kämpfe, Fuchsbau Dominanz). Zudem wollen wir den Algorithmus, Echtzeit-video-Analyse zu erhalten und Convolutional neuronale Netze52 für verbesserte Tier Erkennung nutzen zu verbessern.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren haben nichts preisgeben.

Acknowledgments

Die Autoren sind dankbar für die Firma Dr. Joan B., die die Veröffentlichung dieser Arbeit finanziert. Darüber hinaus sind die Autoren während der experimentellen Arbeit an die Techniker der experimentellen Aquarium Zone am Institute of Marine Sciences in Barcelona (ICM-CSIC) für ihre Hilfe dankbar.

Diese Arbeit wurde unterstützt durch das RITFIM-Projekt (CTM2010-16274; Prüfärztin: J. Aguzzi) gegründet durch das spanische Ministerium für Wissenschaft und Innovation (MICINN) und der TIN2015-66951-C2-2-R-Zuschuss vom spanischen Ministerium für Wirtschaft und die Wettbewerbsfähigkeit.

Materials

Name Company Catalog Number Comments
Tripod 475 Manfrotto A0673528 Discontinued
Articulated Arm 143 Manfrotto D0057824 Discontinued
Camera USB 2.0 uEye LE iDS UI-1545LE-M https://en.ids-imaging.com/store/products/cameras/usb-2-0-cameras/ueye-le.html
Fish Eye Len C-mount f = 6 mm/F1.4 Infaimon Standard Optical  https://www.infaimon.com/es/estandar-6mm
Glass Fiber Tank 1500 x 700 x 300 mm3
Black Felt Fabric
Wood Structure Tank 5 Wood Strips 50x50x250 mm
Wood Structure Felt Fabric 10 Wood Strips 25x25x250 mm
Stainless Steel Screws As many as necessary for fix wood strips structures
PC 2-cores CPU, 4GB RAM, 1 GB Graphics, 500 GB HD
External Storage HDD 2 TB capacity desirable
iSPY Sotfware for Windows PC iSPY https://www.ispyconnect.com/download.aspx
Zoneminder Software Linux PC Zoneminder https://zoneminder.com/
OpenCV 2.4.13.6 Library OpenCV https://opencv.org/
Python 2.4 Python https://www.python.org/
Camping Icebox
Plastic Tray
Cyanocrylate Gel To glue tag’s 
1 black PVC plastic sheet (1 mm thickness) Tag's construction
1 white PVC plastic sheet (1 mm thickness) Tag's construction
4 Tag’s Ø 40 mm Maked with black & white PVC plastic sheet
3 m Blue Strid Led Ligts (480 nm) Waterproof as desirable
3 m IR Strid Led Ligts (850 nm) Waterproof as desirable
6 m  Methacrylate Pipes Ø 15 mm Enclosed Strid Led
4 PVC Elbow  45o Ø 63 mm Burrow construction
3 m Flexible PVC Pipe Ø 63 mm Burrow construction
4 PVC Screwcap Ø 63 mm Burrow construction
4 O-ring Ø 63 mm Burrow construction
4 Female PVC socket glue / thread Ø 63 mm Burrow construction
10 m DC 12V Electric Cable Light Control Mechanism
Ligt Power Supply DC 12 V 300 W Light Control Mechanism
MOSFET, RFD14N05L, N-Canal, 14 A, 50 V, 3-Pin, IPAK (TO-251) RS Components 325-7580 Light Control Mechanism
Diode, 1N4004-E3/54, 1A, 400V, DO-204AL, 2-Pines RS Components 628-9029 Light Control Mechanism
Fuse Holder RS Components 336-7851 Light Control Mechanism
2 Way Power Terminal 3.81 mm RS Components 220-4658 Light Control Mechanism
Capacitor 220 µF 200 V RS Components 440-6761 Light Control Mechanism
Resistance 2K2 7 W RS Components 485-3038 Light Control Mechanism
Fuse 6.3 x 32 mm2 3A RS Components 413-210 Light Control Mechanism
Arduino Uno Atmel Atmega 328 MCU board RS Components 715-4081 Light Control Mechanism
Prototipe Board CEM3,3 orific.,RE310S2 RS Components 728-8737 Light Control Mechanism
DC/DC converter,12 Vin,+/-5 Vout 100 mA 1 W RS Components 689-5179 Light Control Mechanism
2 SERA T8 blue moonlight fluorescent bulb 36 watts SERA Discontinued/Light isolated facility

DOWNLOAD MATERIALS LIST

References

  1. Dell, A. I., et al. Automated image-based tracking and its application in ecology. Trends in Ecology & Evolution. 29 (7), 417-428 (2014).
  2. Berman, G. J., Choi, D. M., Bialek, W., Shaevitz, J. W. Mapping the stereotyped behaviour of freely moving fruit flies. Journal of The Royal Society Interface. 11 (99), (2014).
  3. Mersch, D. P., Crespi, A., Keller, L. Tracking Individuals Shows Spatial Fidelity Is a Key Regulator of Ant Social Organization. Science. 340 (6136), 1090 (2013).
  4. Tyson, L. Hedrick Software techniques for two- and three-dimensional kinematic measurements of biological and biomimetic systems. Bioinspiration & Biomimetics. 3 (3), 034001 (2008).
  5. Branson, K., Robie, A. A., Bender, J., Perona, P., Dickinson, M. H. High-throughput ethomics in large groups of Drosophila. Nature Methods. 6 (6), 451-457 (2009).
  6. de Chaumont, F., et al. Computerized video analysis of social interactions in mice. Nature Methods. 9, 410 (2012).
  7. Pérez-Escudero, A., Vicente-Page, J., Hinz, R. C., Arganda, S., de Polavieja, G. G. idTracker: tracking individuals in a group by automatic identification of unmarked animals. Nature Methods. 11 (7), 743-748 (2014).
  8. Fiala, M. ARTag, a fiducial marker system using digital techniques. 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05). 2, 590-596 (2005).
  9. Koch, R., Kolb, A., Rezk-Salama, C. CALTag: High Precision Fiducial Markers for Camera Calibration. Koch, R., Kolb, A., Rezk-salama, C. , (2010).
  10. Crall, J. D., Gravish, N., Mountcastle, A. M., Combes, S. A. BEEtag: A Low-Cost, Image-Based Tracking System for the Study of Animal Behavior and Locomotion. PLOS ONE. 10 (9), e0136487 (2015).
  11. Charpentier, R. Free and Open Source Software: Overview and Preliminary Guidelines for the Government of Canada. Open Source Business Resource. , (2008).
  12. Crowston, K., Wei, K., Howison, J. Free/Libre Open Source Software Development: What We Know and What We Do Not Know. ACM Computing Surveys. 37, (2012).
  13. Edmonds, N. J., Riley, W. D., Maxwell, D. L. Predation by Pacifastacus leniusculus on the intra-gravel embryos and emerging fry of Salmo salar. Fisheries Management and Ecology. 18 (6), 521-524 (2011).
  14. Sbragaglia, V., et al. Identification, Characterization, and Diel Pattern of Expression of Canonical Clock Genes in Nephrops norvegicus (Crustacea: Decapoda) Eyestalk. PLOS ONE. 10 (11), e0141893 (2015).
  15. Sbragaglia, V., et al. Dusk but not dawn burrow emergence rhythms of Nephrops norvegicus (Crustacea: Decapoda). Scientia Marina. 77 (4), 641-647 (2013).
  16. Katoh, E., Sbragaglia, V., Aguzzi, J., Breithaupt, T. Sensory Biology and Behaviour of Nephrops norvegicus. Advances in Marine Biology. 64, 65-106 (2013).
  17. Sbragaglia, V., Leiva, D., Arias, A., Antonio García, J., Aguzzi, J., Breithaupt, T. Fighting over burrows: the emergence of dominance hierarchies in the Norway lobster (Nephrops norvegicus). The Journal of Experimental Biology. 220 (24), 4624-4633 (2017).
  18. Welcome to Python.org. , https://www.python.org/ (2018).
  19. Bradski, G. OpenCV Library. Dr. Dobb’s Journal of Software Tools. , (2000).
  20. Piccardi, M. Background subtraction techniques: a review. 2004 IEEE International Conference on Systems, Man and Cybernetics (IEEE Cat. No.04CH37583). 4, 3099-3104 (2004).
  21. Sankur, B. Survey over image thresholding techniques and quantitative performance evaluation. Journal of Electronic Imaging. 13 (1), 146 (2004).
  22. Lai, Y. K., Rosin, P. L. Efficient Circular Thresholding. IEEE Transactions on Image Processing. 23 (3), 992-1001 (2014).
  23. Gaten, E. Light‐induced damage to the dioptric apparatus of Nephrops norvegicus (L.) and the quantitative assessment of the damage. Marine Behaviour and Physiology. 13 (2), 169-183 (1988).
  24. Sbragaglia, V., et al. An automated multi-flume actograph for the study of behavioral rhythms of burrowing organisms. Journal of Experimental Marine Biology and Ecology. 446, 177-186 (2013).
  25. Johnson, M. L., Gaten, E., Shelton, P. M. J. Spectral sensitivities of five marine decapod crustaceans and a review of spectral sensitivity variation in relation to habitat. Journal of the Marine Biological Association of the United Kingdom. 82 (5), 835-842 (2002).
  26. Markager, S., Vincent, W. F. Spectral light attenuation and the absorption of UV and blue light in natural waters. Limnology and Oceanography. 45 (3), 642-650 (2000).
  27. Aguzzi, J., et al. A New Laboratory Radio Frequency Identification (RFID) System for Behavioural Tracking of Marine Organisms. Sensors. 11 (10), 9532-9548 (2011).
  28. Audin, M. Geometry [Electronic Resource. , Springer Berlin Heidelberg:, Imprint: Springer. Berlin, Heidelberg. (2003).
  29. OpenCV Team Structural Analysis and Shape Descriptors - OpenCV 2.4.13.7 documentation. , https://docs.opencv.org/2.4/modules/imgproc/doc/structural_analysis_and_shape_descriptors.html?highlight=findcontours#void%20HuMoments(const%20Moments&%20m,%20OutputArray%20hu) (2018).
  30. Slabaugh, G. G. Computing Euler angles from a rotation matrix. 7, (1999).
  31. Zhang, Z. A flexible new technique for camera calibration. IEEE Transactions on Pattern Analysis and Machine Intelligence. 22 (11), 1330-1334 (2000).
  32. www.FOURCC.org - Video Codecs and Pixel Formats. , https://www.fourcc.org/ (2018).
  33. Suzuki, S., be, K. Topological structural analysis of digitized binary images by border following. Computer Vision, Graphics, and Image Processing. 30 (1), 32-46 (1985).
  34. Sklansky, J. Finding the convex hull of a simple polygon. Pattern Recognition Letters. 1 (2), 79-83 (1982).
  35. Fitzgibbon, A., Fisher, R. A Buyer’s Guide to Conic Fitting. , 51.1-51.10 (1995).
  36. Otsu, N. A Threshold Selection Method from Gray-Level Histograms. IEEE Transactions on Systems, Man, and Cybernetics. 9 (1), 62-66 (1979).
  37. Hu, M. K. Visual pattern recognition by moment invariants. IRE Transactions on Information Theory. 8 (2), 179-187 (1962).
  38. Structural Analysis and Shape Descriptors - OpenCV 2.4.13.6 documentation. , https://docs.opencv.org/2.4/modules/imgproc/doc/structural_analysis_and_shape_descriptors.html?highlight=cvmatchshapes#humoments (2018).
  39. Douglas, D. H., Peucker, T. K. Algorithms for the Reduction of the Number of Points Required to Represent a Digitized Line or its Caricature. Cartographica: The International Journal for Geographic Information and Geovisualization. 10 (2), 112-122 (1973).
  40. Vanajakshi, B., Krishna, K. S. R. Classification of boundary and region shapes using Hu-moment invariants. Indian Journal of Computer Science and Engineering. 3, 386-393 (2012).
  41. Kahle, D., Wickham, H. ggmap : Spatial Visualization with ggplot2. The R Journal. , 144-162 (2013).
  42. Venables, W. N., Ripley, B. D. Modern Applied Statistics with S. , Springer. New York. (2010).
  43. Abbas, Q., Ibrahim, M. E. A., Jaffar, M. A. A comprehensive review of recent advances on deep vision systems. Artificial Intelligence Review. , (2018).
  44. Menesatti, P., Aguzzi, J., Costa, C., García, J. A., Sardà, F. A new morphometric implemented video-image analysis protocol for the study of social modulation in activity rhythms of marine organisms. Journal of Neuroscience Methods. 184 (1), 161-168 (2009).
  45. Chapman, C. J., Shelton, P. M. J., Shanks, A. M., Gaten, E. Survival and growth of the Norway lobster Nephrops norvegicus in relation to light-induced eye damage. Marine Biology. 136 (2), 233-241 (2000).
  46. Video tracking software | EthoVision XT. , https://www.noldus.com/animal-behavior-research/products/ethovision-xt (2018).
  47. Correll, N., Sempo, G., Meneses, Y. L. D., Halloy, J., Deneubourg, J., Martinoli, A. SwisTrack: A Tracking Tool for Multi-Unit Robotic and Biological Systems. 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems. , 2185-2191 (2006).
  48. MATLAB - MathWorks. , https://www.mathworks.com/products/matlab.html (2018).
  49. Leggat, P. A., Smith, D. R., Kedjarune, U. Surgical Applications of Cyanoacrylate Adhesives: A Review of Toxicity. ANZ Journal of Surgery. 77 (4), 209-213 (2007).
  50. Dizon, R. M., Edwards, A. J., Gomez, E. D. Comparison of three types of adhesives in attaching coral transplants to clam shell substrates. Aquatic Conservation: Marine and Freshwater Ecosystems. 18 (7), 1140-1148 (2008).
  51. Cary, R. Methyl cyanoacrylate and ethyl cyanoacrylate. , World Health Organization. Geneva. (2001).
  52. Krizhevsky, A., Sutskever, I., Hinton, G. E. Imagenet classification with deep convolutional neural networks. Advances in neural information processing systems. , http://papers.nips.cc/paper/4824-imagenet-classification-w 1097-1105 (2012).

Tags

Umweltwissenschaften Ausgabe 146 OpenCV Python Videoanalyse Raum Belegung täglich Aktivität Rhythmen tracking
Langfristige Video Tracking Cohoused Wassertiere: A Case Study of der Bewegungsorgane Tagesaktivität der Kaisergranat (<em>Nephrops Norvegicus</em>)
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Garcia, J. A., Sbragaglia, V.,More

Garcia, J. A., Sbragaglia, V., Masip, D., Aguzzi, J. Long-term Video Tracking of Cohoused Aquatic Animals: A Case Study of the Daily Locomotor Activity of the Norway Lobster (Nephrops norvegicus). J. Vis. Exp. (146), e58515, doi:10.3791/58515 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter