Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Environment

Seguimiento a largo plazo del vídeo de animales acuáticos Cohoused: un estudio de caso de la actividad locomotriz de la langosta Noruega (Nephrops norvegicus)

Published: April 8, 2019 doi: 10.3791/58515
* These authors contributed equally

Summary

Aquí presentamos un protocolo para el seguimiento individual de animales durante un largo período de tiempo. Utiliza visión por computadora métodos para identificar un conjunto de etiquetas manualmente construidas mediante un grupo de langostas como caso de estudio, al mismo tiempo proporcionando información sobre cómo casa, manipulan y marcan las langostas.

Abstract

Presentamos un protocolo relacionado con una técnica de seguimiento de vídeo basada en el fondo y umbral de imagen que hace posible un seguimiento individual de animales cohoused. Probamos la rutina de rastreo con cuatro cohoused cigalas (Nephrops norvegicus) bajo condiciones de luz-oscuridad durante 5 días. Las langostas habían sido marcadas individualmente. El montaje experimental y las técnicas de seguimiento utilizadas se basan totalmente en el software de código abierto. La comparación de la salida de rastreo con un detector manual indica que las langostas fueron correctamente detectados 69% de las veces. Entre las langostas correctamente detectadas, sus etiquetas individuales fueron correctamente identificados 89.5% de las veces. Teniendo en cuenta el tipo de marco utilizado en el protocolo y la tasa de movimiento de las langostas, el rendimiento de seguimiento video tiene una buena calidad, y el representante resultados apoyan la validez del protocolo en la producción de valiosos datos para necesidades de investigación (individual ocupación de espacio o patrones de actividad locomotor). El protocolo presentado aquí puede ser fácilmente modificado para requisitos particulares y por lo tanto, es transferible a otras especies donde el seguimiento individual de los especímenes en un grupo puede ser valioso para responder a preguntas de investigación.

Introduction

En los últimos años, seguimiento automatizado basado en imágenes ha proporcionado conjuntos de datos muy precisa que pueden utilizarse para explorar las preguntas básicas en ecología y comportamiento de las disciplinas1. Estos conjuntos de datos pueden utilizarse para el análisis cuantitativo del comportamiento animal2,3. Sin embargo, cada metodología de imagen utilizado para el seguimiento de los animales y la evaluación de comportamiento tiene sus fortalezas y limitaciones. En protocolos de seguimiento basado en imágenes que utilizan información espacial de fotogramas anteriores en una película para rastrear animales4,5,6, se pueden introducir errores cuando se cruzan dos animales. Estos errores son generalmente irreversibles y propagan a través del tiempo. A pesar de los avances computacionales que reducen o casi eliminan este problema5,7, estas técnicas aún necesitan entornos experimentales homogéneos para el seguimiento y la identificación precisa de los animales.

El empleo de las marcas que se pueden identificar únicamente en animales evita estos errores y permite el seguimiento a largo plazo de los individuos identificados. Marcadores utilizados (p. ej., códigos de barras y códigos QR) existen en la industria y el comercio y pueden ser identificados mediante técnicas de visión de computadora conocido, como aumentada realidad (p. ej.,8de ARTag) y calibración de la cámara (p. ej., CALTag9 ). Animales marcados previamente se han utilizado para estudios de comportamiento de alto rendimiento en diferentes especies animales, por ejemplo,3 de hormigas o abejas10, pero algunos de estos sistemas anteriores no están optimizados para el reconocimiento de etiquetas aisladas3.

El protocolo de seguimiento presentado en este papel es especialmente adecuado para el seguimiento de animales en imágenes de un canal, como el infrarrojo (IR) luz o luz monocromática (en particular, usamos la luz azul). Por lo tanto, el método desarrollado no utiliza señales de color, siendo también aplicable a otros ámbitos donde hay restricciones en la iluminación. Además, utilizamos etiquetas personalizadas diseñadas para no para molestar a las langostas y, al mismo tiempo, permite la grabación con cámaras de bajo costo. Por otra parte, el método utilizado aquí es basado en detección de etiqueta independiente de la estructura (es decir., el algoritmo reconoce la presencia de cada etiqueta de la imagen independientemente de la trayectoria anterior). Esta característica es importante en aplicaciones donde los animales pueden ser temporalmente ocluidos, o trayectorias animales pueden intersectar.

El diseño de la etiqueta permite su uso en los diferentes grupos de animales. Una vez que se establecen los parámetros del método, podría ser transferido para enfrentar otros problemas de seguimiento de animales sin la necesidad de entrenamiento de un clasificador específico (otros crustáceos y gasterópodos). Las principales limitaciones de la exportación el protocolo son el tamaño de la etiqueta y la necesidad de apego a los animales (que lo hace no apto para pequeños insectos, como moscas, abejas, etc.) y el 2D para el movimiento animal. Esta restricción es importante, dado que el método propuesto asume que el tamaño de la etiqueta se mantiene constante. Un animal que se mueve libremente en un ambiente 3D (por ejemplo, peces) mostraría tamaños de etiqueta distinta dependiendo de su distancia a la cámara.

El propósito de este protocolo es proporcionar una metodología fácil de usar para el seguimiento de animales marcados múltiples durante un largo período de tiempo (días o semanas) en un contexto 2D. El enfoque metodológico se basa en el uso de hardware y software de código abierto. Software libre y de código abierto permite adaptaciones, modificaciones y redistribución libre; por lo tanto, el software generado mejora a cada paso11,12.

El protocolo aquí presentado se centra en un laboratorio para realizar el seguimiento y evaluar la actividad locomotriz de cuatro animales acuáticos en un tanque durante 5 días. Los archivos de vídeo grabados desde una imagen Time-lapse de 1 s y compilados en un video de 20 fotogramas por segundo (1 día grabado ocupa aproximadamente 1 hora de video). Videos todas las grabaciones son automáticamente posprocesamiento para obtener posiciones de animales, aplicación de algoritmos y métodos de visión de computadora. El protocolo permite obtener grandes cantidades de datos, evitar su anotación manual, que ha demostrado ser mucho tiempo y laborioso en anteriores trabajos experimentales13de seguimiento.

Utilizamos la cigala (Nephrops norvegicus) para el estudio de caso; así, ofrecemos condiciones de laboratorio específicos para mantenerlos. Langostas realizan ritmos de aparición de madriguera bien estudiados que están bajo el control del reloj circadiano14,15, y cuando cohoused, forman la jerarquía de dominación16,17. Por lo tanto, el modelo presentado aquí es un buen ejemplo para los investigadores interesados en la modulación social de comportamiento con un enfoque específico en los ritmos circadianos.

La metodología presentada aquí se reproduce fácilmente y se puede aplicar a otras especies si existe la posibilidad de distinguir entre los animales con las etiquetas individuales. Los requisitos mínimos para este enfoque en el laboratorio de reproducción () son habitaciones isotérmicas para la configuración experimental; (ii) un suministro continuo de agua; (iii) mecanismos de control de temperatura de agua; (iv) un sistema de control de la luz; (v) una cámara USB y un ordenador estándar.

En este protocolo, utilizamos Python18 y OpenCV19 (Open fuente Computer Vision Library). Confiamos en la rápida y comúnmente aplicadas operaciones (tanto en términos de implementación y ejecución), como fondo resta20 y la imagen umbral21,22.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

La especie utilizada en este estudio no es una especie en peligro de extinción o protegida. Experimentos de laboratorio y muestreo habían seguido la legislación española y normativa (ICM-CSIC) institucional interna en materia de bienestar animal. Muestreo de animales se realizó con el permiso de la autoridad local (Generalitat de Catalunya).

1. animal mantenimiento y muestreo

Nota: El siguiente protocolo se basa en la suposición de que los investigadores pueden probar N. norvegicus en el campo durante la noche para evitar el daño a los fotorreceptores23. Debe evitarse la exposición de norvegicus N. a la luz solar. Después del muestreo, las langostas se suponen para ser ubicado en un centro de aclimatación similar al reportado previamente17,24, con un flujo continuo de agua de mar refrigerado (13 ° C). Los animales utilizados en este estudio son hombres en el estado intermoult con una longitud de cefalotórax (CL; media ± SD) de 43.92 ± 2,08 mm (N = 4).

  1. Mantener a las personas en compartimentos aislados para evitar cualquier daño debido a luchas individuales (véase la Figura 1a-d).
  2. Darles de comer alrededor de 3 x a la semana a veces al azar para no interferir con los ritmos circadianos.
    Nota: En este experimento, mejillones (aproximadamente 4 g por langosta) fueron utilizados como alimento. Mejillones se compraron de los proveedores de alimentos congelados y eran convenientes para el consumo humano.
  3. Uso de luz azul (425-515 nm) para simular las horas de luz según la sensibilidad espectral de los especies25 y las condiciones ambientales en el 400 m profundo26 (véase la figura 1C,d).
    Nota: La instalación utiliza aquí tiene un techo vertical de dos azul (478 nm) las lámparas fluorescentes que producen una intensidad de luz de 12 lux a 1 m de distancia de las lámparas. Vea la Figura 1a para la posición de las lámparas de techo y ver la Tabla de materiales de características del fabricante y técnicas lámparas.
  4. Ajustar el fotoperiodo de la facilidad de aclimatación a las horas de luz/oscuridad de 12/12 o simular el fotoperiodo natural de la latitud local.
  5. Regular la instalación temperatura 13 ° C y monitor 2 veces al día para verificar la temperatura de agua de mar inflowing alrededor de 13 ° C (véase la Figura 1e).
  6. Regular la entrada de agua de mar a un ritmo de unos 4 L/min para mantener la buena oxigenación.
    Nota: El agua de mar circula en un circuito abierto (no hay filtros y bombas adicionales se utilizan). El suministro de agua depende de los servicios de planta de acuario principal.

Figure 1
Figura 1 : Vistas de aclimatación centro. (un) tanque de estantes. (a1) Entrada del agua de mar. (a2) Plafones fluorescentes. (b) detalle de la luz azul de iluminación. (c) detalle de célula Animal. (d) detalle de un panel de control de instalaciones aisladas. (e) temperatura ambiente para una de las entradas. Haga clic aquí para ver una versión más grande de esta figura.

2. construcción de etiqueta

Nota: La etiqueta usada aquí se puede cambiar según las características del animal de destino u otras consideraciones específicas.

  1. Cortar cuatro círculos de 40 mm de diámetro de una lámina de plástico negro.
  2. Corte de un blanco PVC plástico dos triángulos equiláteros con los lados de 26 mm.
  3. Corte de un blanco círculos de dos láminas de plástico PVC de 26 mm de diámetro.
  4. Marque el centro de los círculos y triángulos blancos y hacer un agujero de 10 mm en él.
  5. Pegue las cuatro formas blanco en el centro de los cuatro círculos negros.

Figure 2
Figura 2 : Las cuatro etiquetas utilizadas para el marcaje individual de las langostas. Círculo, agujero de círculo, triángulo, triángulo-agujero. Haga clic aquí para ver una versión más grande de esta figura.

3. disposición experimental

Nota: El ámbito experimental, se supone que es en una cámara experimental independiente de pero en proximidad cercana a las instalaciones de aclimatación.

  1. Configurar una cámara experimental donde la temperatura del aire puede ser controlada y mantenida a la misma temperatura que el agua de mar en el ámbito experimental.
  2. Modificar el tanque de fibra de vidrio (1.500 x 700 x 300 mm) para ser utilizado como un espacio experimental. Añadir cuatro madrigueras con tuberías flexibles de PVC en el fondo del tanque y stick arena en la superficie donde las langostas se suponen para moverse (figura 3b-e). Para más detalles, ver17,27.
    1. Proporcionan la arena experimental con LED azul sumergible (472 nm, simulando horas luz) y LEDs IR (850 nm, oscuridad) (véase también figura 3a)17,24.
      Nota: Luz de LED se utiliza debido a su impacto de la baja temperatura y la disponibilidad del control electrónico utilizable y hardware libre. Se utilizó una instalación aislada con una temperatura de 13 ± 0,5 ° C medio ambiente y agua de mar.
    2. Mantenga siempre el IR LED encendido.
      Nota: La IR es necesario para grabación de vídeo en condiciones de oscuridad y en condiciones de luz. No es necesario apagarlo.
    3. Conecte los LEDs azules con un aparato para manejar el fotoperiodo. Vea las sugerencias en la Tabla de materialesy para más detalles, consulte Sbragaglia et al.. 17 (también se muestra en la figura 3a).
      Nota: Iluminación en el análisis automático de vídeo o de imagen es un factor crítico. Regular iluminación sin sombras por toda la arena evitando reflexiones superficiales de agua facilita el posterior vídeo o análisis de imágenes. En el marco del presente Protocolo, se utilizaron las condiciones de luz/oscuridad sólo 12/12. Luz y la oscuridad poco a poco fueron alcanzadas dentro de 30 minutos y se agrega una secuencia de comandos de controlador de luz como archivo adicional 1.
    4. Coloque la entrada de agua de mar refrigerada en una esquina del tanque y la salida correspondiente en la esquina opuesta.
    5. Regular la entrada de agua de mar con un caudal de 4 L/min aproximadamente.
    6. Rodean el depósito con una cortina negra con el fin de proporcionar un aislamiento completo desde otra luz (figura 3a).
  3. Coloque el trípode para que la cámara está fijada al lado de la arena experimental y posición de la cámara anterior (130 cm) y en el centro de la arena de la experimental (75 cm x 32,5 cm (ver figura 3a).
  4. Compruebe si la cámara está en la posición centrada (véase el paso 3.3) para asegurarse de no ha sido movida involuntariamente.
  5. Conecte la cámara web en un equipo que se coloca fuera de la cortina (figura 3a).
    1. Instalar el software para gestionar la grabación Time-lapse con la cámara de video.
      Nota: Grabaciones time-lapse dependen de la velocidad del movimiento de las especies. Además, ver la Tabla de materiales para la cámara, lente ojo de pez, PC y características de software y fabricantes aquí.
    2. Ajustar los parámetros del video grabación de acuerdo a las características de la especie.
      Nota: Teniendo en cuenta la tasa de movilidad de norvegicus N., una grabación Time-lapse de 1 s fue utilizada aquí, y el vídeo se guarda cada 24 h.
    3. Asegúrese de crear una marca de tiempo (incluyendo la fecha) en el vídeo Time-lapse (como esto puede ayudar para el futuro marcador manual del comportamiento).

Figure 3
Figura 3 : Configuración experimental. (a) diagrama de la Asamblea de la experimental adquisición de tanque y video. (b) Vista General del tanque experimental. (c) Fondo vista del tanque experimental, indicando las madrigueras artificiales. (d) parte superior vista, mostrando la parte inferior del tanque experimental. (e) detalle de una de las entradas de la madriguera. Haga clic aquí para ver una versión más grande de esta figura.

4. experimental ensayo y preparación de animales

Nota: Todos los pasos con los animales deben realizarse en las instalaciones de aclimatación y las condiciones de luz roja, según la sensibilidad espectral de la langosta Noruega del25. Al mover los animales entre la aclimatación y la instalación experimental, evitar cualquier exposición de las langostas a la luz, con un bolso negro opaco para cubrir la nevera.

  1. Prepare una nevera separada previamente en cuatro compartimentos sumergidos con agua a 7 ° c aproximadamente.
  2. Prepare las cuatro etiquetas previamente construido y rápido pegamento, como cianoacrilato.
  3. Preparar una bandeja con hielo picado.
  4. Seleccione las cuatro langostas etiquetadas en las instalaciones de aclimatación y poner cada uno de ellos en un compartimento de la nevera.
  5. Esperar 30 minutos y, a continuación, inicie el procedimiento de etiquetado.
    1. Tomar una langosta y ponerla en el hielo machacado durante 5 minutos inmovilizarlo y facilitar la operación de etiquetado.
    2. Seque la parte superior del cefalotórax de la langosta con papel adsorbente y poner una gota de pegamento rápido en él.
    3. Colocar la etiqueta horizontalmente encima de cefalotórax del animal, en contacto con el pegamento, y esperar el tiempo suficiente para se endurezca (de unos 20 s).
    4. Volver la langosta a su compartimiento en la nevera y proceder con los otros tres animales de la misma manera.
    5. Colocar las langostas en la celda donde estaban previamente y esperar 24 horas para asegurarse que la etiqueta se pega correctamente en.
    6. Transferencia de las langostas de la facilidad de aclimatación a la cámara experimental usando la misma nevera que fue utilizada para el procedimiento de etiquetado.
  6. Iniciar la grabación de vídeo y esperar 5 minutos antes de introducir las langostas etiquetadas. Obtener una imagen de fondo promedio de los iniciales 100 marcos.
    Nota: Esperar un mínimo de 1 minuto es obligatoria para obtener cuadros de fondo sin etiquetado langostas; son necesarios para el procesamiento de vídeo.
  7. Introducir los animales uno por uno en el tanque de experimentación dentro de su compartimento respectivo, mantener el agua en él.
  8. Esperar a salir; Si no salen, ayudarles suavemente por la inclinación el compartimiento. Vea la figura 4 como ejemplo de los animales dentro del tanque bajo condiciones experimentales.

Figure 4
Figura 4 : Cuadro de vídeo raw. Un ejemplo de un cuadro representativo de uno de los vídeos Time-lapse recogidos durante los experimentos. En la esquina superior derecha, se muestra la hora con la fecha, la hora y el marco. Tenga en cuenta las diferencias en la iluminación del tanque en la esquina inferior de la imagen. Haga clic aquí para ver una versión más grande de esta figura.

5. vídeo análisis guión

  1. Realizar el análisis después de la terminación del experimento.
    1. Lanzar el script de visión de computadora para análisis de video.
    2. Ejecutar programa en Java para calcular la posición y distancia cubierta por las langostas e introducir los datos en la base de datos.
      Nota: Este programa es un algoritmo basado en la distancia euclidiana28.
    3. Ejecutar secuencia de comandos SQL a binning datos como intervalo de tiempo deseado (ej. 10 minutos).

6. equipo visión guión de análisis de vídeo

Nota: El guión evita la corrección de la imagen ojo de pez porque no introduce un error relevante en la configuración experimental. Sin embargo, es posible corregirlo con OpenCV cámara calibración funciones29 basado en vector y matriz de rotación métodos30,31.

  1. Seleccione el lenguaje de programación Python18 .
  2. Seleccione la biblioteca de procesamiento de vídeo y OpenCV19 imagen.
  3. Cargar un video.
    Nota: Formatos de video .avi o . MP4 se utiliza en este experimento, pero esto no es obligatorio. Depende de los codecs de32 FourCC instalados en el sistema operativo.
  4. Realice los pasos siguientes para cada marco de Fi en el video.
    1. Restar el fondo20B (promedio de los últimos 100 marcos, obtenido en el paso 4.6) de la corriente marco Fiy actualizar la imagen de fondo B como Fi. Utilice la función BackgroundSubtractorMOG2 de la biblioteca19 de OpenCV (ver las secuencias de comandos en el archivo adicional 2).
    2. Determinar el conjunto de las regiones de interés (ROIs) R de los píxeles con movimiento pertinente indicado por el subtractor del fondo. Utilice el método se aplica de BackgroundSubtractorMOG2 en la biblioteca de19 OpenCV (ver las secuencias de comandos en el archivo adicional 2). En conjunto, incluyen las detecciones de animales desde el marco anterior, tener en animales Opticas cuenta.
    3. Realice los pasos siguientes para cada ROI Ri
      1. Aplicar la función de dilate y calcular contornos33 de ROI Ri. Utilizar las funciones dilatar y findContours de la biblioteca19 de OpenCV (ver las secuencias de comandos en el archivo adicional 2).
      2. Calcular el casco zona34Hola en el número de píxeles. Utilizar la función CierreConvexo de la biblioteca de19 OpenCV (ver las secuencias de comandos en el archivo adicional 2).
      3. Calcular el radio35ri de la ROI Ri. Utilizar la función minEnclosingCircle de la biblioteca de19 OpenCV (ver las secuencias de comandos en el archivo adicional 2).
      4. Calcular la solidez si de la ROI Ri. Solidez es la relación de la zona del contorno (obtenida en paso 6.4.3.1) su área convexa (obtenido en paso 6.4.3.2) de la Ri.
      5. Calcular el cociente de aspecto ai de la ROI Ri. Relación de aspecto es la relación entre la anchura y la altura de los Ri-rectángulo de límite. El rectángulo delimitador se calcula utilizando la función boundingRect de la biblioteca19 de OpenCV.
    4. Seleccione un conjunto reducido de ROIs como candidato para contener a los animales, mediante el ajuste de las propiedades de área de casco, radio, solidez y relación de aspecto.
      1. Compruebe si Hola es menor 500.0 o mayor 100000.0. Si es así, deseche el ROI Ri. De lo contrario, mantener la Ri como un candidato ROI para la ubicación de animales.
      2. Compruebe si la ri es menor que 40.0. Si es así, deseche el ROI Ri. De lo contrario, mantener la Ri como un candidato ROI para la ubicación de animales.
      3. Compruebe si el si es menos de -4.0 descartar el ROI Ri. De lo contrario, mantener la Ri como un candidato ROI para la ubicación de animales.
      4. Compruebe si el ai es menor a 0.15 o superior a 4.0. Es así que, descarte el ROI Ri. De lo contrario, mantener la Ri como un candidato ROI para la ubicación de animales.
        Nota: El uso de ROIs reduce el coste computacional, centrando la búsqueda de etiquetas en la región del cuerpo del animal. Animales detecciones de fotogramas anteriores se incluyen para evitar detecciones de mal cuando los animales no se mueven.
    5. Analizar el animal ROIs para determinar las identidades de la etiqueta. Ejecutar de siguiendo los pasos de cada ROI Ri y para cada interno ROI Piy extraer el ROIs internas P.
      1. Binarize la imagen en escala de grises Pi usando el algoritmo de umbral Otsu36 .
      2. Calcular los contornos33 de Pi, como en el paso 6.4.3.1.
      3. Calcular el casco zona34Hola y la relación de aspecto ai, como en los pasos 6.4.3.2 y 6.4.3.5.
      4. Calcular la forma momentos37,38mi PI. Utilizar los momentos de la función de la biblioteca de19 OpenCV (ver las secuencias de comandos en el archivo adicional 2).
      5. Seleccione un conjunto reducido de ROIs como candidato para contener las etiquetas, utilizando los siguientes criterios.
        1. Compruebe si Hola es menor 150.0 o mayor a 500.0. Si es así, deseche el ROI Pi. De lo contrario, mantenga el Pi como candidato ROI para la ubicación de la etiqueta.
        2. Compruebe si el ai es menor de 0.5 o mayor que 1,5. Si es así, deseche el ROI Pi. De lo contrario, mantenga el Pi como candidato ROI para la localización de animales.
        3. Compruebe si el mi es mayor que 0.3. Si es así, deseche el ROI Pi. De lo contrario, mantenga el Pi como candidato ROI para la localización de animales.
    6. Clasificar la etiqueta ROIs. Aproximado de un polígono39 usando el OpenCV19 función38 para cada seleccionado ROI Pi19.
      1. Compruebe si hay exactamente tres vértices en el polígono aproximado; asignar la etiqueta a la clase de triángulo . De lo contrario, asignar la clase de círculo a la región de etiqueta.
        Nota: Polígono aproximado se almacena utilizando una matriz con los vértices.
      2. Compruebe el pixel central de la ROI Pi. Si es un pixel negro , asignar la Pi a la clase de agujeros . En caso contrario, asigne la Pi a la clase blanca .
        Nota: El centro de la forma se deduce de los momentos calculados en el paso 6.4.5.4. Buscar los pixeles negros en una zona de un radio de 4 píxeles alrededor del centro.
  5. Guardar los datos de marco: marco de la fecha, hora de marco, forma clase x centro forma coordenada y coordenada centro forma.
  6. Continuar con el siguiente fotograma o finalizar el proceso. Ver figura 5 a continuación como un ejemplo visual de los pasos de guión de trabajo y ver 1 Video como un ejemplo de secuencia de comandos funciona.

Figure 5
Figura 5 : Medidas pertinentes de los script de procesamiento de video (1) evaluar el movimiento de sustracción de fondo sobre la media de los últimos 100 marcos. (2) resultado del algoritmo de la sustracción de fondo. (3) aplicar una operación morfológica dilate las áreas blanco detectado. (4) aplicar fix, ROI estático, principal; el polígono amarillo corresponde a la zona del tanque inferior. (5) calcular los contornos de cada región blanco detectada en el retorno de la inversión principal y realizar un análisis estructural para cada contorno detectado. (6) Compruebe los valores de las propiedades estructurales y, a continuación, seleccione los candidatos ROI de segundo nivel. (7) Binarize el marco utilizando un algoritmo de umbral Otsu; el script funciona sólo con ROIs de segundo nivel. (8) para cada uno binarizada ROI de segundo nivel, calcular los contornos de las regiones blanco y realizar un análisis estructural para cada uno detectado contorno. (9) Compruebe la propiedad estructural valores y, a continuación, selecciona a candidatos internos de retorno de la inversión. (10) para cada contorno en el candidato de retorno de la inversión interno, calcular los descriptores/momentos. (11) Verifique si los partidos de forma detectado con el modelo de la forma y aproximan de un polígono a los mejores candidatos de partido. (12) comprobar el número de vértices del polígono aproximado y determinar la figura geométrica: círculo o triángulo. Centro (13) calcular la figura y comprobar si se producen píxeles negros; Si Si, es una figura agujereada. (14) resultado visual tras el análisis de la estructura. Haga clic aquí para ver una versión más grande de esta figura.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Se construyó manualmente un subconjunto de los datos experimentales para validar el análisis automatizado de video. Un tamaño de muestra de 1.308 marcos con un nivel de confianza del 99% (que es una medida de seguridad que muestra si la muestra refleja con precisión la población, dentro de su margen de error) y un margen de error del 4% (que es un porcentaje que describe cómo cerrar el respuesta que dio la muestra es el valor real de la población) fue seleccionado al azar, y realizó una anotación manual de la correcta identificación de ROIs y la correcta identificación de la etiqueta dentro de cada retorno de la inversión. Tenga en cuenta que un solo cuadro puede contener un número variable de ROIs dentro de un rango indeterminado porque algunas langostas pueden ocultarse dentro de las madrigueras o un ROI contiene dos o más animales o falsas detecciones.

El número total de animales en los marcos de 1.308 fue 3.852 (ROIs manualmente anotados). El método reveló 3.354 detecciones de animales. Un total de 701 (21%) de estas detecciones fueron falsos positivos (es decir, el número de ROIs donde la langosta estaba confundida con el fondo). El número total de animales contados, 2.653 detecciones (79%) fueron emparejando correctamente (es decir., el número de veces el clasificador correctamente reconoció la presencia de una langosta en las regiones detectadas; véase también la Figura 6a, b). Con respecto a las total 3.852 ROIs presentes en los marcos de 1.308, el script detecta 69% de los individuos.

Con respecto a la detección de la etiqueta, la secuencia de comandos identificados a 2.353 candidatos ROI como etiquetas (89% de las regiones detectados 2.653 con animales). El clasificador con éxito identificado como etiqueta clase 1.808 de estas etiquetas (en que el candidato está clasificado como un círculo, triángulo, círculo agujereado o un triángulo agujereado) y 545 casos (23% de los candidatos ROI 2.353 etiqueta). Relacionadas con la clasificación de etiqueta, 1.619 son correctamente identificados (89.5%, figura 6f). Solamente 70 etiquetas donde erróneamente clasificada (3.8% error, figura 6e) y los 119 restantes (6,6%) correspondió a falsos positivos (ROIs internos identificados como etiqueta que correspondían a partes de animales, como las garras; Figura 6 d).

Figure 6
Figura 6 : Vistas representativas de Marcos mostrando las situaciones experimentales más comunes durante el análisis de video. (a) incorrecto detección de animales, un área de fondo se detecta. (b) animales misdetection. Dos animales están juntos y se detecta solamente uno. (c) forma misdetection. El animal es detectado (rectángulo azul) pero no se detecta la etiqueta. (d) falsa detección de forma. Se detectan dos formas, y una es una garra. (e) clasificación incorrecta de una forma. Un triángulo se clasifica como agujero del triángulo. (f) Ideal situación. Todos los animales son detectados, y las etiquetas están correctamente identificadas. Haga clic aquí para ver una versión más grande de esta figura.

Finalizado el análisis de vídeo, los datos obtenidos posiciones (X, Y) pueden utilizarse para evaluar diferentes patrones de comportamiento de las langostas. Por ejemplo, marcábamos una ocupación del espacio mapa mediante estimación de densidad de kernel dos dimensiones con un eje alineado bivariado normal núcleo, evaluado en una cuadrícula41,42 con el mejor rendimiento es automatizado estimado por la algoritmo estadístico. Un color mayor intensidad representa las áreas fueron que las langostas pasaron un mayor porcentaje de su tiempo (figura 7). Video 2 da un ejemplo visual de seguimiento de animales.

Otro ejemplo es representado por los ritmos de actividad diaria de las langostas, trazado como milímetros y cubierto en intervalos de 10 min desechado (figura 8). Se eliminaron los datos correspondientes a las primeras 24 h del experimento, que correspondió al proceso de adaptación al medio de los animales.

Figure 7
Figura 7 : Mapa de ocupación del espacio. El gráfico muestra sólo el área de depósito inferior que es el área de desplazamiento animal (véase el polígono amarillo en la figura 6). Las áreas eran las langostas etiquetadas diferentes pasadas más tiempo aparecen coloreadas; mayor intensidad de color significa más tiempo de ocupación. Haga clic aquí para ver una versión más grande de esta figura.

Figure 8
Figura 8 : Ritmos diarios de actividad de las langostas trazados como milímetros y cubierto en intervalos de 10 min desechado. Bandas grises indican las horas de oscuridad en luz/oscuridad de 12/12, con el atardecer a partir de las 7:00 y el tiempo del amanecer a partir de las 19:00 haga clic aquí para ver una versión más grande de esta figura.

Movie 1
Video 1: registro de escritorio de un ejemplo de un análisis de funcionamiento video script El video muestra en 2 minutos y 27 s 1 h de imágenes en tiempo real (3.625 Marcos). Observe que no hay ninguna acumulación de error para el animal y la etiqueta misdetections y eventos no identificados mientras se realiza la grabación. Haga clic aquí para descargar este video.

Movie 2
Video 2: Video de seguimiento tras el análisis del aparato locomotor de los animales. Usamos X, coordenadas de píxel de imagen Y de video análisis y almacenados en la base de datos, dibujar la pista de animales en los vídeos grabados como un ejemplo de la secuencia de comandos de análisis de vídeo. Cuanto más la pista, el más rápido el animal se mueve y la mayor distancia recorrida. En este caso, 30 s de video corresponde a 12 minutos de tiempo real. Haga clic aquí para descargar este video.

Archivo adicional 1: Haga clic aquí para descargar este archivo. 

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Los resultados de rendimiento y representante obtenidos con el protocolo de seguimiento de video confirman su validez para la investigación aplicada en el campo del comportamiento animal, con un enfoque específico en modulación social y los ritmos circadianos de los animales cohoused. La eficiencia de la detección de animales (69%) y la exactitud de la discriminación de la etiqueta (89,5%) junto con las características de comportamiento (es decir, velocidad de movimiento) de las especies objetivo utilizadas aquí sugieren que este protocolo es una solución perfecta para ensayos experimentales a largo plazo (por ejemplo, días y semanas). Por otra parte, el protocolo ofrece la ventaja básica de ser fácil de usar y más rápido en su desarrollo y personalización con respecto a otras técnicas, tales como algoritmos de aprendizaje automático y de los nervios redes43. Las técnicas de seguimiento utilizadas aquí representan el perfeccionamiento final de una actividad experimental con un enfoque ligeramente diferente44.

Un paso crítico en el protocolo es el diseño de la etiqueta; debe considerarse que la aplicación de otros diseños de etiqueta podría mejorar el rendimiento de la binarización de Otsu. Por ejemplo, una de las fuentes de error reportado aquí fue misdetection entre el negro fuera de círculo en la etiqueta y la forma geométrica interior blanco (ver figura 9 , con un marco binarizado con un detalle de este error). Es posible mejorar el proceso de binarización, aumentando el diámetro (2-3 mm) del círculo negro fuera de la forma geométrica interna blanca, o cambiar los colores de etiqueta (blanco/negro). No consideramos el uso de imagen funciones morfológicas como erosionar o dilatar al tratar de corregir este error, dado que estas operaciones de modifican las propiedades estructurales de la etiqueta de imagen, siendo, por lo tanto, no es posible mantener los valores de umbral de la Guión. En conclusión, es recomendable adaptar el diseño de la etiqueta a la anatomía de la especie animal de destino. Ello implicaría el ajuste de los valores de umbral de secuencia de comandos y las propiedades estructurales según el nuevo diseño.

Figure 9
Figura 9 : Detalle de los errores de binarización marco. Un círculo rojo muestra cómo langostas y etiquetas se detectan como un objeto único. Haga clic aquí para ver una versión más grande de esta figura.

La fuente más relevante de los errores fue la detección perdida de ROIs (internos y externos). El guión de análisis de vídeo presentado aquí no es capaz de realizar un seguimiento de individuos que son ocultos o aún por un período de más de 100 marcos (el número de fotogramas que el script guarde como historia). Para evitar problemas con esto, almacena la última posición de un individuo hasta que se detecta otra vez. Este parámetro podría influir en los resultados de perder animales inmóviles u ocultos. Este hecho debe tenerse en cuenta cuando se utiliza este protocolo con las especies que las tasas de movilidad diferentes que las que presentamos para las langostas. El guión de análisis y tasa de fotogramas de vídeo debe ser modificado y ajustado a las especies utilizadas según su comportamiento específico.

Un reto fue obtener un azul monocromático (472 nm) e IR (850 nm) iluminación, para evitar la posibilidad de daño retiniano y ajustar las condiciones de luz ambientales del animal hábitat23,45. Por lo tanto, no es relevante el componente de color en la grabación de vídeo y grabaciones de vídeo se realizaron en escala de grises. El sistema propone permite programa de diferentes períodos de tiempo de luz y modifica el sistema de iluminación según las características de la especie Diana cambiando el espectro de luz de LED. Otro arreglo para requisitos particulares a considerar en el protocolo presentado aquí es la velocidad de movimiento del animal objetivo. Para este caso, el tipo de marco utilizado era 1 fotograma por segundo, produciendo archivos de video de aproximadamente 1 h grabación de longitud correspondiente a 24 h de experimental. Estas dos personalizaciones (escala de grises y velocidad de fotogramas) nos permitieron obtener archivos de vídeo con un tamaño reducido que se fácil de trabajar y redujeron la capacidad de almacenamiento y tiempo de máquina para el seguimiento.

Una limitación del método descrito es que sólo ha sido probado con las especies presentadas aquí; sin embargo, no existen razones específicas relativas a la aplicación del presente Protocolo a otras especies que permiten la realización de etiquetas de identificación. Otra limitación importante es que el Protocolo no se adapta para seguir los movimientos de los apéndices animales (e.g., quelos). Por ejemplo, crustáceos decápodos utilizan movimientos de quelos para mostrar dominancia entre sus congéneres. Implementaciones futuras están encaminadas a mejorar este aspecto.

El protocolo propuesto se asemeja a la de software comercial existente anterior46 y métodos publicados SwisTrack y idTracker7,47. El software comercial46 utiliza fondo para detectar animales, similares a las secuencias presentadas aquí. Aunque cubre un espectro más amplio de aplicaciones, está programado mediante un programa interpretado comercialmente lenguaje48, que no es una solución open source y es económicamente costoso. El método de47 SwisTrack utiliza la biblioteca19 de OpenCV, igual que el enfoque presentado aquí. Sin embargo, está codificado en C++. Utilizamos el código de Python, que generalmente es más fácil adaptarse a las necesidades particulares de cada entorno. IdTracker7 es un enfoque fuerte en un programa interpretado comercialmente lenguaje48 pero objetivos depilatorio animales aplicaciones. Los correctos resultados de seguimiento se pueden comprometer cuando animales están ocluidos durante un largo periodo de tiempo como ocurre en las condiciones experimentales presentadas aquí. El método presentado aquí procesos cada frame independientemente y no está influenciado por la trayectoria anterior del animal. Por lo tanto, un error en un determinado no se propaga a los marcos futuros. Este hecho es pertinente en este uso, pero también las limitaciones el método presentado aquí a un conjunto específico de los animales (los que permiten la selección manual).

Otro aspecto a considerar es que hemos utilizado software libre durante el desarrollo del Protocolo, incluyendo el postproceso y almacenamiento de los datos generados por el script de análisis de vídeo, así como el código utilizado para controlar el sistema de iluminación. Los datos procesados se almacenan en un sistema de base de datos relacional libre (MySQL). Estos datos pueden obtenerse a través de consultas en lenguaje estándar de consulta (SQL) según el formato deseado. El lector puede modificar y adaptar el proyecto de código abierto y libremente se adaptan a necesidades particulares.

Con respecto a la toxicidad del método, el paso sólo delicado es el pegado de la etiqueta para el animal. Utilizamos pegamento del cianocrilato debido a su baja toxicidad, su uso médico ancho49y su amplio uso en el acuario para esquejes de corales y la fijación de los fragmentos con cola50. La principal preocupación sobre su uso es la toxicidad de vapor para los seres humanos. Hemos reducido la exposición al mínimo. La salud y seguridad y el programa nacional de Toxicología de Estados Unidos han concluido que el uso de cianoacrilato de etilo es seguro51.

Futuras aplicaciones de este protocolo son la automatización de la detección de otros comportamientos de barranqueros crustáceos (p. ej., peleas, dominación de la madriguera). También pretendemos mejorar el algoritmo para obtener análisis de vídeo en tiempo real y utilizar redes neuronales convolucional52 para mejor detección de animales.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Los autores no tienen nada que revelar.

Acknowledgments

Los autores agradecemos a la Dr. Joan B. empresa que financió la publicación de este trabajo. También, los autores están agradecidos a los técnicos de la zona de acuario experimental en el Instituto de Ciencias del mar de Barcelona (ICM-CSIC) por su ayuda durante el trabajo experimental.

Este trabajo fue financiado por el proyecto RITFIM (CTM2010-16274; investigador principal: J. Aguzzi) fundada por el Ministerio de ciencia e innovación (MICINN) y la concesión de TIN2015-66951-C2-2-R por el Ministerio de economía y competitividad.

Materials

Name Company Catalog Number Comments
Tripod 475 Manfrotto A0673528 Discontinued
Articulated Arm 143 Manfrotto D0057824 Discontinued
Camera USB 2.0 uEye LE iDS UI-1545LE-M https://en.ids-imaging.com/store/products/cameras/usb-2-0-cameras/ueye-le.html
Fish Eye Len C-mount f = 6 mm/F1.4 Infaimon Standard Optical  https://www.infaimon.com/es/estandar-6mm
Glass Fiber Tank 1500 x 700 x 300 mm3
Black Felt Fabric
Wood Structure Tank 5 Wood Strips 50x50x250 mm
Wood Structure Felt Fabric 10 Wood Strips 25x25x250 mm
Stainless Steel Screws As many as necessary for fix wood strips structures
PC 2-cores CPU, 4GB RAM, 1 GB Graphics, 500 GB HD
External Storage HDD 2 TB capacity desirable
iSPY Sotfware for Windows PC iSPY https://www.ispyconnect.com/download.aspx
Zoneminder Software Linux PC Zoneminder https://zoneminder.com/
OpenCV 2.4.13.6 Library OpenCV https://opencv.org/
Python 2.4 Python https://www.python.org/
Camping Icebox
Plastic Tray
Cyanocrylate Gel To glue tag’s 
1 black PVC plastic sheet (1 mm thickness) Tag's construction
1 white PVC plastic sheet (1 mm thickness) Tag's construction
4 Tag’s Ø 40 mm Maked with black & white PVC plastic sheet
3 m Blue Strid Led Ligts (480 nm) Waterproof as desirable
3 m IR Strid Led Ligts (850 nm) Waterproof as desirable
6 m  Methacrylate Pipes Ø 15 mm Enclosed Strid Led
4 PVC Elbow  45o Ø 63 mm Burrow construction
3 m Flexible PVC Pipe Ø 63 mm Burrow construction
4 PVC Screwcap Ø 63 mm Burrow construction
4 O-ring Ø 63 mm Burrow construction
4 Female PVC socket glue / thread Ø 63 mm Burrow construction
10 m DC 12V Electric Cable Light Control Mechanism
Ligt Power Supply DC 12 V 300 W Light Control Mechanism
MOSFET, RFD14N05L, N-Canal, 14 A, 50 V, 3-Pin, IPAK (TO-251) RS Components 325-7580 Light Control Mechanism
Diode, 1N4004-E3/54, 1A, 400V, DO-204AL, 2-Pines RS Components 628-9029 Light Control Mechanism
Fuse Holder RS Components 336-7851 Light Control Mechanism
2 Way Power Terminal 3.81 mm RS Components 220-4658 Light Control Mechanism
Capacitor 220 µF 200 V RS Components 440-6761 Light Control Mechanism
Resistance 2K2 7 W RS Components 485-3038 Light Control Mechanism
Fuse 6.3 x 32 mm2 3A RS Components 413-210 Light Control Mechanism
Arduino Uno Atmel Atmega 328 MCU board RS Components 715-4081 Light Control Mechanism
Prototipe Board CEM3,3 orific.,RE310S2 RS Components 728-8737 Light Control Mechanism
DC/DC converter,12 Vin,+/-5 Vout 100 mA 1 W RS Components 689-5179 Light Control Mechanism
2 SERA T8 blue moonlight fluorescent bulb 36 watts SERA Discontinued/Light isolated facility

DOWNLOAD MATERIALS LIST

References

  1. Dell, A. I., et al. Automated image-based tracking and its application in ecology. Trends in Ecology & Evolution. 29 (7), 417-428 (2014).
  2. Berman, G. J., Choi, D. M., Bialek, W., Shaevitz, J. W. Mapping the stereotyped behaviour of freely moving fruit flies. Journal of The Royal Society Interface. 11 (99), (2014).
  3. Mersch, D. P., Crespi, A., Keller, L. Tracking Individuals Shows Spatial Fidelity Is a Key Regulator of Ant Social Organization. Science. 340 (6136), 1090 (2013).
  4. Tyson, L. Hedrick Software techniques for two- and three-dimensional kinematic measurements of biological and biomimetic systems. Bioinspiration & Biomimetics. 3 (3), 034001 (2008).
  5. Branson, K., Robie, A. A., Bender, J., Perona, P., Dickinson, M. H. High-throughput ethomics in large groups of Drosophila. Nature Methods. 6 (6), 451-457 (2009).
  6. de Chaumont, F., et al. Computerized video analysis of social interactions in mice. Nature Methods. 9, 410 (2012).
  7. Pérez-Escudero, A., Vicente-Page, J., Hinz, R. C., Arganda, S., de Polavieja, G. G. idTracker: tracking individuals in a group by automatic identification of unmarked animals. Nature Methods. 11 (7), 743-748 (2014).
  8. Fiala, M. ARTag, a fiducial marker system using digital techniques. 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05). 2, 590-596 (2005).
  9. Koch, R., Kolb, A., Rezk-Salama, C. CALTag: High Precision Fiducial Markers for Camera Calibration. Koch, R., Kolb, A., Rezk-salama, C. , (2010).
  10. Crall, J. D., Gravish, N., Mountcastle, A. M., Combes, S. A. BEEtag: A Low-Cost, Image-Based Tracking System for the Study of Animal Behavior and Locomotion. PLOS ONE. 10 (9), e0136487 (2015).
  11. Charpentier, R. Free and Open Source Software: Overview and Preliminary Guidelines for the Government of Canada. Open Source Business Resource. , (2008).
  12. Crowston, K., Wei, K., Howison, J. Free/Libre Open Source Software Development: What We Know and What We Do Not Know. ACM Computing Surveys. 37, (2012).
  13. Edmonds, N. J., Riley, W. D., Maxwell, D. L. Predation by Pacifastacus leniusculus on the intra-gravel embryos and emerging fry of Salmo salar. Fisheries Management and Ecology. 18 (6), 521-524 (2011).
  14. Sbragaglia, V., et al. Identification, Characterization, and Diel Pattern of Expression of Canonical Clock Genes in Nephrops norvegicus (Crustacea: Decapoda) Eyestalk. PLOS ONE. 10 (11), e0141893 (2015).
  15. Sbragaglia, V., et al. Dusk but not dawn burrow emergence rhythms of Nephrops norvegicus (Crustacea: Decapoda). Scientia Marina. 77 (4), 641-647 (2013).
  16. Katoh, E., Sbragaglia, V., Aguzzi, J., Breithaupt, T. Sensory Biology and Behaviour of Nephrops norvegicus. Advances in Marine Biology. 64, 65-106 (2013).
  17. Sbragaglia, V., Leiva, D., Arias, A., Antonio García, J., Aguzzi, J., Breithaupt, T. Fighting over burrows: the emergence of dominance hierarchies in the Norway lobster (Nephrops norvegicus). The Journal of Experimental Biology. 220 (24), 4624-4633 (2017).
  18. Welcome to Python.org. , https://www.python.org/ (2018).
  19. Bradski, G. OpenCV Library. Dr. Dobb’s Journal of Software Tools. , (2000).
  20. Piccardi, M. Background subtraction techniques: a review. 2004 IEEE International Conference on Systems, Man and Cybernetics (IEEE Cat. No.04CH37583). 4, 3099-3104 (2004).
  21. Sankur, B. Survey over image thresholding techniques and quantitative performance evaluation. Journal of Electronic Imaging. 13 (1), 146 (2004).
  22. Lai, Y. K., Rosin, P. L. Efficient Circular Thresholding. IEEE Transactions on Image Processing. 23 (3), 992-1001 (2014).
  23. Gaten, E. Light‐induced damage to the dioptric apparatus of Nephrops norvegicus (L.) and the quantitative assessment of the damage. Marine Behaviour and Physiology. 13 (2), 169-183 (1988).
  24. Sbragaglia, V., et al. An automated multi-flume actograph for the study of behavioral rhythms of burrowing organisms. Journal of Experimental Marine Biology and Ecology. 446, 177-186 (2013).
  25. Johnson, M. L., Gaten, E., Shelton, P. M. J. Spectral sensitivities of five marine decapod crustaceans and a review of spectral sensitivity variation in relation to habitat. Journal of the Marine Biological Association of the United Kingdom. 82 (5), 835-842 (2002).
  26. Markager, S., Vincent, W. F. Spectral light attenuation and the absorption of UV and blue light in natural waters. Limnology and Oceanography. 45 (3), 642-650 (2000).
  27. Aguzzi, J., et al. A New Laboratory Radio Frequency Identification (RFID) System for Behavioural Tracking of Marine Organisms. Sensors. 11 (10), 9532-9548 (2011).
  28. Audin, M. Geometry [Electronic Resource. , Springer Berlin Heidelberg:, Imprint: Springer. Berlin, Heidelberg. (2003).
  29. OpenCV Team Structural Analysis and Shape Descriptors - OpenCV 2.4.13.7 documentation. , https://docs.opencv.org/2.4/modules/imgproc/doc/structural_analysis_and_shape_descriptors.html?highlight=findcontours#void%20HuMoments(const%20Moments&%20m,%20OutputArray%20hu) (2018).
  30. Slabaugh, G. G. Computing Euler angles from a rotation matrix. 7, (1999).
  31. Zhang, Z. A flexible new technique for camera calibration. IEEE Transactions on Pattern Analysis and Machine Intelligence. 22 (11), 1330-1334 (2000).
  32. www.FOURCC.org - Video Codecs and Pixel Formats. , https://www.fourcc.org/ (2018).
  33. Suzuki, S., be, K. Topological structural analysis of digitized binary images by border following. Computer Vision, Graphics, and Image Processing. 30 (1), 32-46 (1985).
  34. Sklansky, J. Finding the convex hull of a simple polygon. Pattern Recognition Letters. 1 (2), 79-83 (1982).
  35. Fitzgibbon, A., Fisher, R. A Buyer’s Guide to Conic Fitting. , 51.1-51.10 (1995).
  36. Otsu, N. A Threshold Selection Method from Gray-Level Histograms. IEEE Transactions on Systems, Man, and Cybernetics. 9 (1), 62-66 (1979).
  37. Hu, M. K. Visual pattern recognition by moment invariants. IRE Transactions on Information Theory. 8 (2), 179-187 (1962).
  38. Structural Analysis and Shape Descriptors - OpenCV 2.4.13.6 documentation. , https://docs.opencv.org/2.4/modules/imgproc/doc/structural_analysis_and_shape_descriptors.html?highlight=cvmatchshapes#humoments (2018).
  39. Douglas, D. H., Peucker, T. K. Algorithms for the Reduction of the Number of Points Required to Represent a Digitized Line or its Caricature. Cartographica: The International Journal for Geographic Information and Geovisualization. 10 (2), 112-122 (1973).
  40. Vanajakshi, B., Krishna, K. S. R. Classification of boundary and region shapes using Hu-moment invariants. Indian Journal of Computer Science and Engineering. 3, 386-393 (2012).
  41. Kahle, D., Wickham, H. ggmap : Spatial Visualization with ggplot2. The R Journal. , 144-162 (2013).
  42. Venables, W. N., Ripley, B. D. Modern Applied Statistics with S. , Springer. New York. (2010).
  43. Abbas, Q., Ibrahim, M. E. A., Jaffar, M. A. A comprehensive review of recent advances on deep vision systems. Artificial Intelligence Review. , (2018).
  44. Menesatti, P., Aguzzi, J., Costa, C., García, J. A., Sardà, F. A new morphometric implemented video-image analysis protocol for the study of social modulation in activity rhythms of marine organisms. Journal of Neuroscience Methods. 184 (1), 161-168 (2009).
  45. Chapman, C. J., Shelton, P. M. J., Shanks, A. M., Gaten, E. Survival and growth of the Norway lobster Nephrops norvegicus in relation to light-induced eye damage. Marine Biology. 136 (2), 233-241 (2000).
  46. Video tracking software | EthoVision XT. , https://www.noldus.com/animal-behavior-research/products/ethovision-xt (2018).
  47. Correll, N., Sempo, G., Meneses, Y. L. D., Halloy, J., Deneubourg, J., Martinoli, A. SwisTrack: A Tracking Tool for Multi-Unit Robotic and Biological Systems. 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems. , 2185-2191 (2006).
  48. MATLAB - MathWorks. , https://www.mathworks.com/products/matlab.html (2018).
  49. Leggat, P. A., Smith, D. R., Kedjarune, U. Surgical Applications of Cyanoacrylate Adhesives: A Review of Toxicity. ANZ Journal of Surgery. 77 (4), 209-213 (2007).
  50. Dizon, R. M., Edwards, A. J., Gomez, E. D. Comparison of three types of adhesives in attaching coral transplants to clam shell substrates. Aquatic Conservation: Marine and Freshwater Ecosystems. 18 (7), 1140-1148 (2008).
  51. Cary, R. Methyl cyanoacrylate and ethyl cyanoacrylate. , World Health Organization. Geneva. (2001).
  52. Krizhevsky, A., Sutskever, I., Hinton, G. E. Imagenet classification with deep convolutional neural networks. Advances in neural information processing systems. , http://papers.nips.cc/paper/4824-imagenet-classification-w 1097-1105 (2012).

Tags

Ciencias ambientales número 146 OpenCV Python análisis de vídeo ocupación de espacio diario ritmos de actividad seguimiento
Seguimiento a largo plazo del vídeo de animales acuáticos Cohoused: un estudio de caso de la actividad locomotriz de la langosta Noruega (<em>Nephrops norvegicus</em>)
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Garcia, J. A., Sbragaglia, V.,More

Garcia, J. A., Sbragaglia, V., Masip, D., Aguzzi, J. Long-term Video Tracking of Cohoused Aquatic Animals: A Case Study of the Daily Locomotor Activity of the Norway Lobster (Nephrops norvegicus). J. Vis. Exp. (146), e58515, doi:10.3791/58515 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter