Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Seguimiento de ratas en cámaras de acondicionamiento de operantes utilizando una cámara de vídeo casera versátil y DeepLabCut

Published: June 15, 2020 doi: 10.3791/61409

Summary

Este protocolo describe cómo construir una cámara de video pequeña y versátil, y cómo utilizar los videos obtenidos de ella para entrenar una red neuronal para rastrear la posición de un animal dentro de las cámaras de acondicionamiento de operandos. Este es un valioso complemento a los análisis estándar de los registros de datos obtenidos de las pruebas de acondicionamiento de operandos.

Abstract

Las cámaras de acondicionamiento de operantes se utilizan para realizar una amplia gama de pruebas de comportamiento en el campo de la neurociencia. Los datos registrados se basan típicamente en la activación de los sensores de palanca y nariz-poke presentes dentro de las cámaras. Si bien esto proporciona una vista detallada de cuándo y cómo los animales realizan ciertas respuestas, no se puede utilizar para evaluar comportamientos que no activan ningún sensor. Como tal, evaluar cómo los animales se posicionan y se mueven dentro de la cámara rara vez es posible. Para obtener esta información, los investigadores generalmente tienen que grabar y analizar videos. Los fabricantes de cámaras de acondicionamiento de operandos normalmente pueden suministrar a sus clientes configuraciones de cámara de alta calidad. Sin embargo, estos pueden ser muy costosos y no necesariamente se ajustan a cámaras de otros fabricantes u otras configuraciones de pruebas de comportamiento. El protocolo actual describe cómo construir una cámara de video barata y versátil utilizando componentes electrónicos de hobby. Describe además cómo utilizar el paquete de software de análisis de imágenes DeepLabCut para realizar un seguimiento del estado de una señal de luz fuerte, así como la posición de una rata, en vídeos recopilados de una cámara de acondicionamiento de operando. El primero es una gran ayuda a la hora de seleccionar segmentos cortos de interés en vídeos que cubren sesiones de prueba completas, y el segundo permite el análisis de parámetros que no se pueden obtener de los registros de datos producidos por las cámaras operantes.

Introduction

En el campo de la neurociencia conductual, los investigadores suelen utilizar cámaras de acondicionamiento de operandos para evaluar una amplia gama de diferentes características cognitivas y psiquiátricas en roedores. Si bien hay varios fabricantes diferentes de estos sistemas, por lo general comparten ciertos atributos y tienen un diseño casi estandarizado1,,2,3. Las cámaras son generalmente cuadradas o rectangulares, con una pared que se puede abrir para colocar animales en el interior, y una o dos de las paredes restantes que contienen componentes tales como palancas, aberturas de golpe de nariz, bandejas de recompensa, ruedas de respuesta y luces de varios tipos1,,2,,3. Las luces y sensores presentes en las cámaras se utilizan tanto para controlar el protocolo de ensayo como para realizar un seguimiento de los comportamientos de los animales1,2,3,4,5. Los sistemas típicos de acondicionamiento de operandos permiten un análisis muy detallado de cómo los animales interactúan con las diferentes operandodas y aberturas presentes en las cámaras. En general, cualquier ocasión en que se activen sensores puede ser grabada por el sistema, y a partir de estos datos los usuarios pueden obtener archivos de registro detallados que describen lo que el animal hizo durante pasos específicos de la prueba4,,5. Si bien esto proporciona una representación extensa del rendimiento de un animal, sólo se puede utilizar para describir comportamientos que activan directamente uno o más sensores4,5. Como tal, los aspectos relacionados con cómo el animal se posiciona y se mueve dentro de la cámara durante las diferentes fases de la prueba no están bien descritos6,7,8,9,10. Esto es desafortunado, ya que tal información puede ser valiosa para entender completamente el comportamiento del animal. Por ejemplo, se puede utilizar para aclarar por qué ciertos animales tienen un rendimiento deficiente en una prueba dada6,para describir las estrategias que los animales podrían desarrollar para manejar tareas difíciles6,,7,8,9,10, o para apreciar la verdadera complejidad de los comportamientos supuestamente simples11,12. Para obtener dicha información articulada, los investigadores suelen recurrir al análisis manual de los vídeos6,7,8,9,10,11.

Al grabar vídeos de cámaras de acondicionamiento de operandos, la elección de la cámara es fundamental. Las cámaras se encuentran comúnmente en cubículos de aislamiento, con protocolos que suelen hacer uso de pasos donde no hay luz visiblebrilla 3,6,7,8,9. Por lo tanto, el uso de iluminación infrarroja (IR) en combinación con una cámara sensible a infrarrojos es necesario, ya que permite la visibilidad incluso en completa oscuridad. Además, el espacio disponible para colocar una cámara dentro del cubículo de aislamiento es a menudo muy limitado, lo que significa que uno se beneficia fuertemente de tener cámaras pequeñas que utilizan lentes con un amplio campo de visión (por ejemplo, lentes de ojo de pez)9. Mientras que los fabricantes de sistemas de acondicionamiento de operandos a menudo pueden suministrar configuraciones de cámara de alta calidad a sus clientes, estos sistemas pueden ser costosos y no necesariamente se adaptan a cámaras de otros fabricantes o configuraciones para otras pruebas de comportamiento. Sin embargo, una ventaja notable sobre el uso de cámaras de vídeo independientes es que estas configuraciones a menudo pueden interactuar directamente con los sistemas de acondicionamiento deoperandos 13,14. A través de esto, se pueden configurar para registrar sólo eventos específicos en lugar de sesiones de prueba completas, lo que puede ayudar en gran medida en el análisis que sigue.

El protocolo actual describe cómo construir una cámara de video barata y versátil utilizando componentes electrónicos de hobby. La cámara utiliza una lente ojo de pez, es sensible a la iluminación IR y tiene un conjunto de diodos emisores de luz IR (LED IR) conectados a ella. Además, está construido para tener un perfil plano y delgado. Juntos, estos aspectos lo hacen ideal para grabar videos de la mayoría de las cámaras de acondicionamiento de operandos disponibles comercialmente, así como otras configuraciones de pruebas de comportamiento. El protocolo describe además cómo procesar los vídeos obtenidos con la cámara y cómo utilizar el paquete de software DeepLabCut15,16 para ayudar en la extracción de secuencias de vídeo de interés, así como el seguimiento de los movimientos de un animal en el mismo. Esto evita parcialmente el uso de una cámara independiente sobre las soluciones integradas proporcionadas por los fabricantes de operantes de sistemas de acondicionamiento, y ofrece un complemento a la puntuación manual de comportamientos.

Se han hecho esfuerzos para escribir el protocolo en un formato general para destacar que el proceso general se puede adaptar a los videos de diferentes pruebas de acondicionamiento de operandos. Para ilustrar ciertos conceptos clave, los videos de ratas que realizan la prueba de tiempo de reacción en serie de 5 opciones (5CSRTT)17 se utilizan como ejemplos.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Todos los procedimientos que incluyen el manejo de animales han sido aprobados por el Comité ético malmo-Lund para la investigación animal.

1. Construcción de la cámara de vídeo

NOTA: En la Tabla de materialesse proporciona una lista de los componentes necesarios para construir la cámara. Refiera también al cuadro 1, al cuadro 2, al cuadro 3, al cuadro 4, al cuadro 5.

  1. Coloque el anillo metálico magnético (que acompaña al paquete de lentes ojo de pez) alrededor de la abertura del soporte de la cámara(Figura 2A). Esto permitirá que la lente ojo de pez se coloque delante de la cámara.
  2. Conecte el módulo de la cámara al soporte de la cámara(Figura 2B). Esto dará cierta estabilidad al módulo de la cámara y ofrecerá cierta protección a los circuitos electrónicos.
  3. Abra los puertos de la cámara en el módulo de la cámara y el microordenador (Figura 1) tirando suavemente de los bordes de sus clips de plástico (Figura 2C).
  4. Coloque el cable de cinta en los puertos de la cámara, de modo que los conectores plateados se enfrenten a las placas de circuito (Figure2C). Bloquee el cable en su lugar empujando los clips de plástico de los puertos de la cámara.
  5. Coloque el microordenador en la caja de plástico e inserte la tarjeta micro SD listada(Figura 2D).
    NOTA: La tarjeta micro SD funcionará como el disco duro del microordenador y contiene un sistema operativo completo. La tarjeta micro SD listada viene con un gestor de instalación preinstalado en ella (nuevo software fuera de caja (NOOBS). Como alternativa, se puede escribir una imagen de la última versión del sistema operativo del microordenador (Raspbian o Rasberry Pi OS) en una tarjeta micro SD genérica. Para obtener ayuda con esto, consulte los recursos oficiales de la web18. Es preferible utilizar una tarjeta micro SD de clase 10 con 32 Gb de espacio de almacenamiento. Es posible que las tarjetas SD más grandes no sean totalmente compatibles con el microordenador indicado.
  6. Conecte un monitor, un teclado y un ratón al microordenador y, a continuación, conecte su fuente de alimentación.
  7. Siga los pasos que indica la guía de instalación para realizar una instalación completa del sistema operativo del microordenador (Raspbian o Rasberry Pi OS). Cuando el microordenador haya arrancado, asegúrese de que esté conectado a Internet a través de un cable Ethernet o Wi-Fi.
  8. Siga los pasos descritos a continuación para actualizar los paquetes de software preinstalados del microordenador.
    1. Abra una ventana de terminal (Figura 3A).
    2. Escriba "sudo apt-get update" (excluyendo comillas) y pulse la tecla Intro(Figura 3B). Espere a que finalice el proceso.
    3. Escriba "sudo apt full-upgrade" (excluyendo comillas) y pulse Intro. Realice respuestas de botón cuando se le solicite y espere a que finalice el proceso.
  9. En el menú Inicio, seleccione Preferencias y configuraciones de Raspberry Pi (Figura 3C). En la ventana abierta, vaya a la pestaña Interfaces y haga clic en Enable the Camera and I2C. Esto es necesario para que el microordenador funcione con la cámara y los módulos LED IR.
  10. Cambie el nombre del archivo suplementario 1 a "Pi_video_camera_Clemensson_2019.py". Cópielo en una memoria USB y, posteriormente, en la carpeta /home/pi del microordenador (Figura 3D). Este archivo es una secuencia de comandos de Python, que permite realizar grabaciones de vídeo con los interruptores de botón que se adjuntan en el paso 1.13.
  11. Siga los pasos descritos a continuación para editar el archivo rc.local del microordenador. Esto hace que el equipo inicie el script copiado en el paso 1.10 e inicie los LED IR conectados en el paso 1.13 cuando se inicia.
    ADVERTENCIA: Esta función de inicio automático no funciona de forma fiable con placas de microordenador que no sean el modelo indicado.
    1. Abra una ventana de terminal, escriba "sudo nano /etc/rc.local" (excluyendo comillas) y pulse Intro. Esto abre un archivo de texto (Figura 4A).
    2. Utilice las teclas de flecha del teclado para mover el cursor hacia abajo hasta el espacio entre "fi" y "exit 0"(Figura 4A).
    3. Agregue el texto siguiente como se muestra en la Figura 4B, escribiendo cada cadena de texto en una nueva línea:
      sudo i2cset -y 1 0x70 0x00 0xa5 &
      sudo i2cset -y 1 0x70 0x09 0x0f &
      sudo i2cset -y 1 0x70 0x01 0x32 &
      sudo i2cset -y 1 0x70 0x03 0x32 &
      sudo i2cset -y 1 0x70 0x06 0x32 &
      sudo i2cset -y 1 0x70 0x08 0x32 &
      sudo python /home/pi/Pi_video_camera_Clemensson_2019.py &
    4. Guarde los cambios pulsando Ctrl + x seguido de y y Enter.
  12. Soldar los componentes necesarios como se indica en la Figura 5A,y como se describe a continuación.
    1. Para los dos LED de colores, conecte una resistencia y un cable de puente hembra a una pierna, y un cable de puente hembra a la otra(Figura 5A). Trate de mantener los cables lo más cortos posible. Tome nota de cuál de los electrodos del LED es el negativo (normalmente el corto), ya que esto necesita ser conectado a tierra en los pines de entrada/salida de propósito general (GPIO) del microordenador.
    2. Para los dos interruptores de botón, conecte un cable de puente hembra a cada pierna(Figura 5A). Haga que los cables sean largos para uno de los interruptores y cortos para el otro.
    3. Para montar el módulo LED IR, siga las instrucciones disponibles en sus recursos web oficiales19.
    4. Cubra las juntas soldadas con tubos retráctiles para limitar el riesgo de cortocircuito de los componentes.
  13. Apague el microordenador y conecte los interruptores y LEDs a sus pines GPIO como se indica en la Figura 5B,y se describe a continuación.
    ADVERTENCIA: El cableado de los componentes a los pines GPIO incorrectos podría dañarlos y/o el microordenador cuando la cámara está encendida.
    1. Conecte un LED para que su extremo negativo se conecte al pin #14 y su extremo positivo se conecte a #12 de pines. Este LED brillará cuando el microordenador haya arrancado y la cámara esté lista para ser utilizada.
    2. Conecte el interruptor de botón con cables largos para que un cable se conecte al #9 de pasador y el otro para anclar #11. Este botón se utiliza para iniciar y detener las grabaciones de vídeo.
      NOTA: El script que controla la cámara se ha escrito para que este botón no responda durante unos segundos justo después de iniciar o detener una grabación de vídeo.
    3. Conecte un LED para que su extremo negativo se conecte al pin #20 y su extremo positivo se conecte a #13 de pines. Este LED brillará cuando la cámara esté grabando un vídeo.
    4. Conecte el interruptor de botón con los cables cortos para que un cable se conecte al pin #37 y el otro para anclar #39. Este interruptor se utiliza para apagar la cámara.
    5. Conecte el módulo LED IR como se describe en sus recursos web oficiales19.

2. Diseñar el protocolo de acondicionamiento de operandos de interés

NOTA: Para utilizar DeepLabCut para realizar un seguimiento de la progresión del protocolo en vídeos grabados desde cámaras operantes, los protocolos de comportamiento deben estructurarse de maneras específicas, como se explica a continuación.

  1. Establezca el protocolo para utilizar la luz de la casa de la cámara, u otra señal de luz fuerte, como indicador de un paso específico en el protocolo (como el inicio de ensayos individuales, o la sesión de prueba) (Figura 6A). Esta señal se denominará "indicador de paso de protocolo" en el resto de este protocolo. La presencia de esta señal permitirá rastrear la progresión del protocolo en los vídeos grabados.
  2. Establezca el protocolo para registrar todas las respuestas de interés con marcas de tiempo individuales en relación con cuando el indicador de paso de protocolo se active.

3. Grabación de vídeos de animales realizando la prueba conductual de interés

  1. Coloque la cámara en la parte superior de las cámaras de operación, de modo que registre una vista superior del área interior (Figura 7).
    NOTA: Esto es especialmente adecuado para capturar la posición general y la postura de un animal dentro de la cámara. Evite colocar las luces indicadoras de la cámara y el módulo LED IR cerca de la lente de la cámara.
  2. Encienda la cámara conectándola a una toma de corriente a través del cable de alimentación.
    NOTA: Antes del primer uso, es beneficioso ajustar el enfoque de la cámara, utilizando la pequeña herramienta que acompaña al módulo de la cámara.
  3. Utilice el botón conectado en el paso 1.13.2 para iniciar y detener grabaciones de vídeo.
  4. Apague la cámara siguiendo estos pasos.
    1. Mantenga pulsado el botón conectado en el paso 1.13.4 hasta que el LED conectado en el paso 1.13.1 se apague. Esto inicia el proceso de apagado de la cámara.
    2. Espere hasta que el LED verde visible en la parte superior del microordenador (Figura 1) haya dejado de parpadear.
    3. Retire la fuente de alimentación de la cámara.
      ADVERTENCIA: Desenchufar la fuente de alimentación mientras el microordenador sigue funcionando puede causar daños en los datos de la tarjeta micro SD.
  5. Conecte la cámara a un monitor, teclado, ratón y dispositivo de almacenamiento USB y recupere los archivos de vídeo de su escritorio.
    NOTA: Los archivos se nombran según la fecha y la hora en que se inició la grabación de vídeo. Sin embargo, el microordenador no tiene un reloj interno y sólo actualiza su configuración de tiempo cuando está conectado a Internet.
  6. Convierte los vídeos grabados de .h264 a . MP4, ya que este último funciona bien con DeepLabCut y la mayoría de los reproductores multimedia.
    NOTA: Hay varias maneras de lograrlo. Uno se describe en el archivo suplementario 2.

4. Análisis de vídeos con DeepLabCut

NOTA: DeepLabCut es un paquete de software que permite a los usuarios definir cualquier objeto de interés en un conjunto de fotogramas de vídeo, y posteriormente utilizarlos para entrenar una red neuronal en el seguimiento de las posiciones de los objetos en vídeos de longitud completa15,,16. Esta sección proporciona un esquema aproximado de cómo utilizar DeepLabCut para realizar un seguimiento del estado del indicador de paso de protocolo y la posición de la cabeza de una rata. La instalación y el uso de DeepLabCut está bien descrito en otros protocolos publicados15,,16. Cada paso se puede hacer a través de comandos específicos de Python o la interfaz gráfica de usuario de DeepLabCut, como se describe en otros lugares15,,16.

  1. Cree y configure un nuevo proyecto DeepLabCut siguiendo los pasos descritos en16.
  2. Utilice la función de captura de fotogramas de DeepLabCut para extraer fotogramas de vídeo de 700 o 2012900 de uno o más de los vídeos grabados en la sección 3.
    NOTA: Si los animales difieren considerablemente en la pigmentación del pelaje u otras características visuales, es aconsejable que los fotogramas de vídeo extraídos 700-u2012900 se dividan entre videos de diferentes animales. A través de esto, una red entrenada se puede utilizar para rastrear a diferentes individuos.
    1. Asegúrese de incluir fotogramas de vídeo que muestren el estado activo (Figura 8A) e inactivo (Figura 8B) del indicador de paso de protocolo.
    2. Asegúrese de incluir fotogramas de vídeo que cubran el rango de diferentes posiciones, posturas y movimientos de la cabeza que la rata puede mostrar durante la prueba. Esto debe incluir fotogramas de vídeo donde la rata está parada en diferentes áreas de la cámara, con su cabeza apuntando en diferentes direcciones, así como fotogramas de vídeo donde la rata se está moviendo activamente, entrando en aberturas de golpe de nariz y entrando en la vaguada de pellets.
  3. Utilice DeepLabCut's Labeling Toolbox para marcar manualmente la posición de la cabeza de la rata en cada fotograma de vídeo extraído en el paso 4.2. Utilice el cursor del ratón para colocar una etiqueta de "cabeza" en una posición central entre las orejas de la rata (Figura 8A, B). Además, marque la posición de la luz de la casa de la cámara (u otro indicador de paso de protocolo) en cada fotograma de vídeo donde está brillando activamente (Figura 8A). Deje la luz de la casa sin etiquetar en marcos donde esté inactiva (Figura 8B).
  4. Utilice las funciones "crear conjunto de datos de entrenamiento" y "red de entrenamiento" de DeepLabCut para crear un conjunto de datos de entrenamiento a partir de los fotogramas de vídeo etiquetados en el paso 4.3 e iniciar el entrenamiento de una red neuronal. Asegúrese de seleccionar "resnet_101" para el tipo de red elegido.
  5. Detenga el entrenamiento de la red cuando la pérdida de entrenamiento se haya estanado por debajo de 0.01. Esto puede tardar hasta 500.000 iteraciones de entrenamiento.
    NOTA: Cuando se utiliza una máquina GPU con aproximadamente 8 GB de memoria y un conjunto de entrenamiento de unos 900 fotogramas de vídeo (resolución: 1640 x 1232 píxeles), se ha encontrado que el proceso de entrenamiento tarda aproximadamente 72 h.
  6. Utilice la función de análisis de vídeo de DeepLabCut para analizar los vídeos recopilados en el paso 3, utilizando la red neuronal entrenada en el paso 4.4. Esto proporcionará un archivo .csv que enumera las posiciones rastreadas de la cabeza de la rata y el indicador de paso de protocolo en cada fotograma de vídeo de los videos analizados. Además, creará archivos de vídeo marcados donde las posiciones rastreadas se muestran visualmente (Videos 1-8).
  7. Evalúe la precisión del seguimiento siguiendo los pasos descritos a continuación.
    1. Utilice la función de evaluación integrada de DeepLabCut para obtener una evaluación automatizada de la precisión de seguimiento de la red. Esto se basa en los fotogramas de vídeo que se etiquetaron en el paso 4.3 y describe cuán lejos, en promedio, la posición rastreada por la red está de la etiqueta colocada manualmente.
    2. Seleccione una o más secuencias de vídeo breves (de aproximadamente 100 fotogramas de vídeo de 100 u2012200 cada una) en los vídeos marcados obtenidos en el paso 4.6. Ir a través de las secuencias de vídeo, fotograma a fotograma, y tenga en cuenta en cuántos fotogramas las etiquetas indican correctamente las posiciones de la cabeza de la rata, la cola, etc., y en cuántos fotogramas las etiquetas se colocan en posiciones erróneas o no se muestran.
      1. Si la etiqueta de una parte u objeto del cuerpo se pierde con frecuencia o se coloca en una posición errónea, identifique las situaciones en las que se produce un error en el seguimiento. Extraiga y añada marcos etiquetados de estas ocasiones repitiendo los pasos 4.2. y 4.3. A continuación, vuelva a entrenar la red y vuelva a analizar los vídeos repitiendo los pasos 4.4-4.7. En última instancia, se debe lograr una precisión de seguimiento de >90%.

5. Obtención de coordenadas para los puntos de interés en las cámaras de operación

  1. Utilice DeepLabCut como se describe en el paso 4.3 para marcar manualmente los puntos de interés en las cámaras de operación (como aberturas de golpes de nariz, palancas, etc.) en un solo fotograma de vídeo (Figura 8C). Estos se eligen manualmente en función de los intereses específicos del estudio, aunque siempre se debe incluir la posición del indicador de paso de protocolo.
  2. Recupere las coordenadas de los puntos de interés marcados del archivo .csv que DeepLabCut almacena automáticamente en "datos etiquetados" en la carpeta del proyecto.

6. Identificación de segmentos de vídeo donde el indicador de paso de protocolo está activo

  1. Cargue los archivos .csv obtenidos del análisis de vídeo DeepLabCut en el paso 4.6 en un software de gestión de datos de su elección.
    NOTA: Debido a la cantidad y complejidad de los datos obtenidos de DeepLabCut y los sistemas de acondicionamiento de operantes, la gestión de datos se realiza mejor a través de scripts de análisis automatizados. Para empezar a trabajar con esto, consulte las guías de nivel de entrada disponibles en otros lugares20,21,22.
  2. Tenga en cuenta en qué segmentos de vídeo se realiza un seguimiento del indicador de paso de protocolo dentro de 60 píxeles de la posición obtenida en la sección 5. Estos serán períodos en los que el indicador del paso del protocolo está activo (Figura 6B).
    NOTA: Durante los segmentos de vídeo en los que el indicador de paso de protocolo no está brillante, el vídeo marcado puede parecer indicar que DeepLabCut no lo está rastreando a ninguna posición. Sin embargo, esto rara vez es el caso, y en su lugar se realiza un seguimiento normalmente a varias ubicaciones dispersas.
  3. Extraiga el punto de partida exacto para cada período en el que el indicador de paso de protocolo está activo (Figura 6C: 1).

7. Identificación de segmentos de interés de vídeo

  1. Considere los puntos donde el indicador del paso del protocolo se activa(Figura 6C: 1) y las marcas de tiempo de las respuestas grabadas por las cámaras de operación (sección 2, Figura 6C: 2).
  2. Utilice esta información para determinar qué segmentos de vídeo cubren eventos interesantes específicos, como intervalos entre pruebas, respuestas, recuperaciones de recompensas, etc. (Figura 6C: 3, Figura 6D).
    NOTA: Para ello, tenga en cuenta que la cámara descrita aquí graba vídeos a 30 fps.
  3. Tenga en cuenta los fotogramas de vídeo específicos que cubren estos eventos de interés.
  4. (Opcional) Edite archivos de vídeo de sesiones de prueba completas para incluir solo los segmentos de interés específicos.
    NOTA: Hay varias maneras de lograrlo. Uno se describe en el archivo suplementario 2 y 3. Esto ayuda en gran medida al almacenar un gran número de videos y también puede hacer que revisar y presentar resultados sea más conveniente.

8. Analizar la posición y los movimientos de un animal durante segmentos de vídeo específicos

  1. Subconjunto de los datos de seguimiento completos de la posición del cabezal obtenidos de DeepLabCut en el paso 4.6 para incluir solo los segmentos de vídeo que se incluyen en la sección 7.
  2. Calcular la posición de la cabeza del animal en relación con uno o más de los puntos de referencia seleccionados en la sección 5 (Figura 8C). Esto permite comparaciones de seguimiento y posición entre diferentes vídeos.
  3. Realizar un análisis en profundidad relevante de la posición y los movimientos del animal.
    NOTA: El análisis específico realizado será muy específico del estudio. A continuación se muestran algunos ejemplos de parámetros que se pueden analizar.
    1. Visualice los trazados de ruta trazando todas las coordenadas detectadas durante un período seleccionado dentro de un gráfico.
    2. Analice la proximidad a un punto de interés determinado utilizando la siguiente fórmula:
      Equation 1
    3. Analice los cambios de velocidad durante un movimiento calculando la distancia entre las coordenadas rastreadas en fotogramas consecutivos y divida entre 1/fps de la cámara.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Rendimiento de la cámara de vídeo

Los resultados representativos se reunieron en cámaras de acondicionamiento de operantes para ratas con superficies de 28,5 cm x 25,5 cm, y alturas de 28,5 cm. Con la lente ojo de pez conectada, la cámara captura el área completa del suelo y grandes partes de las paredes circundantes, cuando se coloca por encima de la cámara (Figura 7A). Como tal, se puede obtener una buena vista, incluso si la cámara se coloca descentró en la parte superior de la cámara. Esto debería ser válido para cámaras operantes comparables. Los LED IR son capaces de iluminar toda la cámara(Figura 7B,C),lo que permite una buena vista, incluso cuando todas las demás luces dentro de la cámara están apagadas (Figura 7C). Sin embargo, la iluminación en tales situaciones no es del todo uniforme, y puede resultar en algunas dificultades en la obtención de un seguimiento preciso. Si dicho análisis es de interés, es posible que se requieran fuentes adicionales de iluminación IR. También vale la pena señalar que algunas cámaras utilizan sartenes metálicos para recoger orina y heces. Si la cámara se coloca directamente sobre dichas superficies, los fuertes reflejos de la luz de los LED IR serán visibles en los vídeos grabados (Figura 7B). Sin embargo, esto puede evitarse colocando toallas de papel en la bandeja de goteo, dando una imagen muy mejorada(Figura 7C). Colocar los LED IR o de color de la cámara demasiado cerca de la lente de la cámara puede provocar que sean visibles en la periferia de la imagen (Figura 7B). Como la cámara es sensible a la infrarrojo, cualquier fuente de luz IR que esté presente dentro de las cámaras puede ser visible en los videos. Para muchas configuraciones, esto incluirá el brillo continuo de los sensores de rotura de haz IR(Figura 7C). La iluminación continua de los LED IR de la cámara no perturba la calidad de imagen de las cámaras bien iluminadas(Figura 7D). El tamaño de los vídeos grabados con la cámara es de aproximadamente 77 Mb/min. Si se utiliza una tarjeta micro SD de 32 Gb para la cámara, debe haber unos 20 Gb disponibles después de la instalación del sistema operativo. Esto deja espacio durante aproximadamente 260 minutos de metraje grabado.

La lente ojo de pez hace que la cámara tenga un enfoque ligeramente desigual, siendo nítida en el centro de la imagen, pero reduce la nitidez hacia los bordes. Esto no parece afectar a la precisión del seguimiento. Además, la lente ojo de pez da como resultado que la imagen grabada se distorsione. Por ejemplo, las distancias entre puntos igualmente espaciados a lo largo de líneas rectas mostrarán un espaciado artificialmente reducido hacia la periferia de la imagen (Figura 9A,B). Si la cámara se utiliza para aplicaciones en las que la mayoría del campo de visión o las mediciones absolutas de distancia y velocidad son de interés, vale la pena considerar la posibilidad de corregir los datos para esta distorsión23 (Archivo suplementario 4). La distorsión es, sin embargo, relativamente suave en el centro de la imagen (Figura 9B). Para los videos reunidos en nuestra cámara de operación, el área de interés se limita al 25% central del campo de visión de la cámara. Dentro de esta área, el efecto de la distorsión de ojo de pez es mínimo(Figura 9C-u2012F).

Precisión del seguimiento con DeepLabCut

Los principales factores que determinarán la precisión de seguimiento de una red entrenada son (i) el número de tramas etiquetadas en su conjunto de datos de entrenamiento, (ii) qué tan bien capturan esos fotogramas etiquetados el comportamiento de interés y (iii) el número de iteraciones de entrenamiento utilizadas. DeepLabCut incluye una función de evaluación, que informa de una estimación de cuán lejos (en número de píxeles) se puede esperar que su seguimiento sea desde la ubicación real de un objeto. Esto, sin embargo, no proporciona necesariamente una buena descripción del número de fotogramas en los que se pierde un objeto y/o se etiqueta incorrectamente (Figura 10A), lo que provoca la necesidad de una evaluación manual adicional de la precisión del seguimiento.

Para analizar comportamientos dentro de una cámara de operación, una red bien entrenada debe permitir la identificación precisa de todos los eventos en los que el indicador de paso de protocolo está activo. De lo contrario, es posible que sea necesario volver a entrenar la red o elegir un indicador diferente. A pesar de tener una red bien entrenada, el seguimiento del indicador del paso del protocolo puede en ocasiones ser interrumpido por animales que bloquean la vista de la cámara (Figura 10B). Esto provocará interrupciones en el seguimiento que recuerdan a los episodios en los que el indicador está inactivo. La frecuencia de este evento dependerá de la tensión animal, el tipo de protocolo de comportamiento y la elección del indicador de paso de protocolo. En los datos de ejemplo del 5CSRTT que se utiliza aquí, ocurrió en cuatro de cada 400 ensayos (datos no mostrados). Todas las ocasiones fueron fácilmente identificables, ya que sus duraciones no coincidían con la del paso de interrupción que se había incluido en el diseño del protocolo (Figura 6A). En última instancia, elegir un indicador que se coloca en lo alto de la cámara y lejos de los componentes con los que los animales interactúan es probable que sea útil.

Una red bien entrenada debe permitir una precisión >90% al rastrear la cabeza de un animal durante segmentos de interés de vídeo (Video 1). Con esto, solo un pequeño subconjunto de fotogramas de vídeo tendrá que excluirse del análisis posterior y los datos de seguimiento utilizables se podrán obtener de prácticamente todos los ensayos dentro de una sesión de prueba. El seguimiento preciso es claramente identificable por marcadores que siguen a un animal a lo largo de sus movimientos (Video 2) y trazados que aparecen lisos (Figura 10C). Por el contrario, el seguimiento inexacto se caracteriza por marcadores que no permanecen de forma fiable en el objetivo (Vídeo 3) y por rutas trazadas que aparecen irregulares (Figura 10D). Este último es causado por el objeto que se rastrea a posiciones erróneas distantes en fotogramas de vídeo individuales dentro de secuencias de seguimiento preciso. Como resultado de esto, el seguimiento inexacto suele provocar cambios repentinos en las velocidades de movimiento calculadas(Figura 10E). Esto se puede utilizar para identificar fotogramas de vídeo en los que el seguimiento es inexacto, para excluirlos del análisis posterior. Si hay problemas sustanciales con la precisión del seguimiento, se deben identificar las ocasiones en las que se produce un error en el seguimiento y se debe volver a entrenar la red mediante un conjunto de entrenamiento ampliado que contenga fotogramas de vídeo etiquetados de estos eventos (Figura 10A,E).

Uso del seguimiento de vídeo para complementar el análisis de comportamientos de operantes

Analizar cómo un animal se mueve y se posiciona durante las pruebas de operación proporcionará múltiples perspectivas sobre la naturaleza compleja y multifacética de sus comportamientos. Mediante el seguimiento de dónde se encuentra un animal durante una sesión de prueba, se puede evaluar cómo se relacionan los patrones de movimiento distintos con el rendimiento (Figura 11A,B). Mediante la investigación de los movimientos de la cabeza durante pasos de protocolo específicos, se puede detectar y caracterizar el uso de diferentes estrategias (Figura 11C-u2012E).

Para ejemplificarlo, considere los datos representativos presentados para las ratas que realizan la prueba 5CSRTT (Figura 6A, Figura 11). En esta prueba, los animales se presentan con múltiples ensayos que cada uno comienza con un paso de espera de 5 s (intervalo entre pruebas - ITI) (Figura 6A: 1). Al final de esto, una luz brillará dentro de una de las aberturas de golpe de la nariz (posición elegida al azar en cada ensayo, Figura 6A: 2). El golpe de nariz en la abertura de cued se considera una respuesta correcta y se recompensa(Figura 6A: 3). Responder a otra abertura se considera incorrecto. No responder dentro de 5 s después de la presentación de la luz se considera una omisión. El seguimiento de los movimientos de la cabeza durante la ITI de esta prueba ha revelado que en los ensayos en los que las ratas realizan una respuesta, son rápidas en el movimiento hacia el área alrededor de las aberturas de la nariz (Figura 11A,B, Video 4). Por el contrario, en la mayoría de los ensayos de omisión, las ratas no logran acercarse al área alrededor de las aberturas (Figura 11B, Video 5). Este comportamiento está en línea con la interpretación común de omisiones estando estrechamente relacionados con una baja motivación para realizar la prueba3,,16. Sin embargo, en un subconjunto de ensayos de omisión (aproximadamente el 20% del conjunto de datos actual), las ratas mostraron un enfoque claro hacia las aberturas (Figura 11B, Video 6) pero no pudieron notar la ubicación exacta de la abertura de cued. Así pues, los datos indican que existen al menos dos tipos diferentes de omisiones, una relacionada con un posible desinterés en el ensayo en curso y otra que depende más de una atención visuospatial insuficiente3. El seguimiento de la cabeza también se puede utilizar para distinguir estrategias aparentes. Como ejemplo, se revelaron dos estrategias atencionales distintas al analizar cómo se mueven las ratas cuando están cerca de las aberturas de la nariz durante el 5CSRTT (Figura 11C-u2012E). En la primera estrategia, las ratas mostraron un enfoque extremadamente centrado, manteniendo una posición central en la mayor parte de la ITI (Figura 11C, Video 7). Por el contrario, las ratas que adoptan la otra estrategia movieron constantemente sus cabezas entre las diferentes aberturas de una manera similar a la búsqueda(Figura 11D, Video 8). Este tipo de diferencias de comportamiento se pueden cuantificar convenientemente calculando la cantidad de tiempo empleado en proximidad a las diferentes aberturas (Figura 11E). Por último, analizando a qué apertura de la rata está más cerca en el momento de la presentación de la luz de cue (Figura 11F), se puede demostrar que estar en una posición central (Figura 11G) y / o muy cerca de la ubicación de la abertura de cued (Figura 11H) parece ser beneficioso para un rendimiento preciso en la prueba.

Figure 1
Figura 1: Esbozo del microordenador listado. El esquema muestra la posición de varios componentes de interés en la placa base del microordenador. Estos están marcados con números circulares de la siguiente manera: 1: Conector para el cable de cinta de la cámara; 2: luz LED que indica cuando el ordenador está en funcionamiento; 3: Micro USB para cable de alimentación; 4: Micro USB para ratón / teclado; 5: Pines de entrada/salida de uso general (pins GPIO), estos pines se utilizan para conectar el microordenador a LED, interruptores y el módulo LED IR; 6: Mini salida HDMI; 7: Ranura para tarjeta Micro SD. En la parte inferior de la figura, se muestra una parte recortada y ampliada de los pines GPIO para indicar cómo contar a lo largo de ellos para identificar correctamente la posición de un pin específico. Haga clic aquí para ver una versión más grande de esta figura.

Figure 2
Figura 2: Construcción del cuerpo principal de la cámara. Las figuras ilustraban los pasos principales para construir el cuerpo de la cámara. (A) Conecte el anillo de metal magnético al soporte de la cámara. (B) Conecte el módulo de la cámara al soporte de la cámara. (C) Conecte el módulo de la cámara al microordenador a través del cable plano de cinta. Observe las flechas blancas que indican cómo abrir y cerrar los puertos de la cámara presentes tanto en el microordenador como en el módulo de la cámara. (D) Coloque el microordenador en la carcasa de plástico e inserte una tarjeta micro SD. Haga clic aquí para ver una versión más grande de esta figura.

Figure 3
Figura 3: Actualización del sistema operativo del microordenador y habilitación de los periféricos. La figura muestra cuatro capturas de pantalla diferentes que representan la interfaz de usuario del microordenador. (A) Las ventanas de terminales se pueden abrir haciendo clic en el icono "terminal" en la esquina superior izquierda de la pantalla. (B) Dentro del terminal, se puede escribir diferentes tipos de comandos, como se detalla en el texto del protocolo. La captura de pantalla muestra el comando para actualizar los paquetes de software del sistema. (C) La captura de pantalla muestra cómo navegar al menú de configuraciones, donde se puede habilitar el uso del módulo de cámara y los pines GPIO I2C. (D) La captura de pantalla muestra la carpeta /home/pi, donde se debe copiar el script de la cámara en el paso 1.10 del protocolo. La ventana se abre haciendo clic en el icono indicado en la esquina superior izquierda de la pantalla. Haga clic aquí para ver una versión más grande de esta figura.

Figure 4
Figura 4: Configuración del archivo rc.local del microordenador. La figura muestra dos capturas de pantalla del archivo rc.local del microordenador, cuando se accede a través del terminal como se describe en el paso 1.11.1. (A) Una captura de pantalla del archivo rc.local en su formato original. La flecha indica el espacio donde se debe introducir el texto para habilitar la función de inicio automático de la cámara. (B) Una captura de pantalla del archivo rc.local después de que se ha editado para brillar los LED IR e iniciar la secuencia de comandos python que controla la cámara al iniciar el microordenador. Haga clic aquí para ver una versión más grande de esta figura.

Figure 5
Figura 5: Conexión de interruptores y LED a los pines GPIO del microordenador. (A) Esquema que muestra un interruptor de botón con cables de puente hembra (arriba) y un LED con resistencia y cables de puente hembra (abajo). (1) Interruptor de botón, (2) cables de puente hembra, (3) LED, (4) resistencia. (B) Imagen esquemática que muestra cómo cambian los dos botones, los LED de color y la placa LED IR están conectados a los pines GPIO del microordenador. Los cables azules y los pines GPIO indican tierra. La posición de dos pines GPIO se indica en la figura (pins GPIO #2 y #40): (1) Botón para iniciar/detener la grabación de vídeo. (2) LED que indica cuándo se está grabando el vídeo. (3) Botón para apagar la cámara. (4) LED que indica cuándo la cámara ha arrancado y está lista para ser utilizada. (5) Módulo LED IR. Tenga en cuenta que los circuitos con LED también contienen resistencias de 330o. Haga clic aquí para ver una versión más grande de esta figura.

Figure 6
Figura 6: Uso del seguimiento DeepLabCut del indicador de paso de protocolo para identificar secuencias de interés en vídeos de larga duración. (A) Esquema de los pasos de un único ensayo en la prueba de tiempo de reacción en serie de 5 opciones (5CSRTT): (1) En primer lugar, hay un breve período de espera (ITI). Flecha indica una luz doméstica que brilla activamente. (2) Al final de la ITI, una luz brillará en una de las cinco aberturas de golpe de nariz (flecha). (3) Si una rata responde con precisión realizando una nariz asomarse a la abertura de cued, se entrega una recompensa (flecha). (4) La rata puede recuperar la recompensa. (5) Para permitir el uso de la luz de la casa como indicador de paso de protocolo, se implementa un breve paso de pausa en el que se apaga la luz de la casa (flecha) antes de que comience el siguiente ensayo. Tenga en cuenta que la luz de la casa brilla durante los pasos posteriores del ensayo. (B) Un gráfico de ejemplo que representa la coordenada x de la luz de la casa activa, tal como la realiza DeepLabCut, durante un segmento de vídeo de una prueba 5CSRTT. Durante los segmentos donde la luz de la casa está brillando (indicador activo - 1), la posición se rastrea a un punto consistente y estable (también tenga en cuenta el marcador rojo (indicado por la flecha) en el marco de vídeo de ejemplo), comparable a la de la posición de la luz de la casa en la Figura 8C (x, y: 163, 503). Durante los segmentos donde la luz de la casa no está brillando (indicador inactivo - 2, observe la flecha blanca en el marco de vídeo de ejemplo), la posición rastreada no es estable, y lejos de la coordenada real de la luz de la casa. (C) La Tabla 1 muestra un ejemplo de la salida procesada obtenida del seguimiento de DeepLabCut de un indicador de paso de protocolo. En esta salida, se ha enumerado el punto de partida para cada ocasión en la que el indicador está activo. En el Cuadro 2 se muestra un ejemplo de los datos obtenidos del sistema de acondicionamiento de operandos, dando detalles relevantes para ensayos individuales. En este ejemplo, se ha registrado la duración de la ITI, la posición de la apertura de cued y las latencias para realizar una respuesta y recuperar la recompensa. La Tabla 3 muestra un ejemplo de datos obtenidos mediante la fusión de los resultados de seguimiento de DeepLabCut y los datos grabados desde el sistema de acondicionamiento de operandos. A través de esto, se han obtenido los fotogramas de vídeo para el punto de partida de la ITI (paso 1 en A), el punto de partida de la presentación de la luz de referencia (paso 2 en A), la respuesta (paso 3 en A) y la recuperación (paso 4 en A) para una prueba de ejemplo. (D) Un gráfico de ejemplo que representa la coordenada x de la luz de la casa, tal como la rastrea DeepLabCut, durante un ensayo 5CSRTT filmado. Se indican los diferentes pasos del protocolo: (1) ITI; (2) presentación de una luz de cue (posición indicada por flecha blanca); (3) respuesta; (4) recuperación de recompensas. La identificación de fotogramas de vídeo que representan el inicio y la parada de estos diferentes pasos de protocolo se hizo a través de un proceso comparable al indicado en D. Haga clic aquí para ver una versión más grande de esta figura.

Figure 7
Figura 7: Características de imagen de la cámara. (A) Imagen sin recortar obtenida de una cámara colocada encima de una cámara de acondicionamiento de operando. La imagen fue capturada mientras la cámara se colocaba en una habitación brillantemente iluminada. Observe la (1) luz de la casa y (2) la vaguada de pellets de recompensa a lo largo de la pared izquierda de la cámara y (3) la fila de cinco aberturas de punta a lo largo de la pared derecha de la cámara. Cada abertura de golpe de nariz contiene una pequeña luz de cue. (B) Imagen sin recortar que muestra el fuerte reflejo causado por (1) la bandeja de caída de metal, así como los reflejos causados por el posicionamiento subóptimo de los (2) LED indicadores de la cámara y (3) el módulo LED IR. (C) Imagen recortada de la cámara en completa oscuridad. Tenga en cuenta que las luces de los detectores de rotura de haz IR en las aberturas de cinco puntas a lo largo de la pared derecha de la cámara son claramente visibles (flecha). (D) Imagen recortada de la cámara cuando está brillantemente iluminada. Haga clic aquí para ver una versión más grande de esta figura.

Figure 8
Figura 8: Seguimiento posicional del indicador del paso del protocolo y partes del cuerpo de interés. (A) La imagen muestra la posición de un indicador de paso de protocolo (rojo), así como la cabeza (amarillo) y la cola (verde) de una rata, según lo rastrea DeepLabCut. Como se indica en el seguimiento de la luz de la casa iluminada, el fotograma de vídeo se toma de una instantánea de una prueba activa. (B) La imagen muestra la posición de la cabeza (amarillo) y la cola (verde) según lo rastreado por DeepLabCut durante un momento en el que un ensayo no está activo. Tenga en cuenta la falta de seguimiento de la luz de la casa. (C) Las posiciones de los puntos de interés utilizadas en el análisis de los datos que se muestran en la Figura 6 y en la Figura 11; (1) Luz de la casa, en este caso utilizada como indicador de paso de protocolo, (2-u20126) Aberturas de golpe de nariz #1-u20125. Haga clic aquí para ver una versión más grande de esta figura.

Figure 9
Figura 9: Distorsión de imagen de la lente ojo de pez. (A) Imagen de un patrón de tablero de cuadros con cuadrados blancos y negros de igual tamaño y espaciados tomados con la cámara descrita en este protocolo. La imagen fue tomada a una altura comparable a la utilizada al grabar videos de cámaras de acondicionamiento de operandos. Los cuadrados negros a lo largo de las líneas horizontales y verticales centrales se han marcado con DeepLabCut. (B) Gráfico que representa cómo cambia el espaciado de los cuadrados marcados en (A) con la proximidad al centro de la imagen. (C) Imagen que representa las mediciones tomadas para evaluar el impacto del efecto de distorsión de ojo de pez en los vídeos recopilados de cámaras de operación. Las esquinas y puntos medios a lo largo del borde de la zona del suelo, la posición central de cada peldazo de suelo individual y la posición de las aberturas de cinco puntas nasales se han indicado con DeepLabCut (puntos de color); (1) espaciado de los peldones del suelo, (2) ancho del suelo de la cámara a lo largo del centro de la cámara, (3) espaciado de las aberturas del golpe de la nariz. (D) Espaciado de los peldones de suelo (promediados para cada conjunto de tres peldones consecutivos), numerados de izquierda a derecha en (C). Hay un pequeño efecto de la distorsión de ojo de pez, lo que resulta en los peldices centrales que se espa spacean aproximadamente 3 píxeles (8%) más separados que los peldones que se colocan en los bordes del suelo de la cámara. (E) Ancho del suelo de la cámara en (C) medido en sus bordes izquierdo y derecho, así como en el punto medio. Hay un pequeño efecto de la distorsión de ojo de pez, lo que resulta en que el ancho medido en el punto medio es de aproximadamente 29 píxeles (5%) más tiempo que las otras mediciones. (F) Espaciado de las aberturas de la nariz en (C), numeradas desde la parte superior de la imagen. Hay un pequeño efecto de la distorsión de ojo de pez, lo que resulta en el espaciado entre las tres aberturas centrales (H2, H3, H5) siendo aproximadamente 5 píxeles (4%) más amplio que el espaciado entre H1-H2 y H4-H5. Para D-F, los datos se recopilaron de cuatro videos y los gráficos representan la media del grupo + error estándar. Haga clic aquí para ver una versión más grande de esta figura.

Figure 10
Figura 10: Revisión de la precisión del seguimiento de DeepLabCut. (A) Una tabla que enumera la información de entrenamiento de dos redes neuronales entrenadas para rastrear ratas dentro de cámaras de operación. Network #1 utiliza un conjunto de datos de entrenamiento más pequeño, pero un gran número de iteraciones de entrenamiento en comparación con Network #2. Ambas redes lograron una baja puntuación de error de la función de evaluación de DeepLabCut (error de prueba DLC) y mostraron una baja pérdida de entrenamiento hacia el final del entrenamiento. A pesar de esto, Network #1 mostró una precisión de seguimiento muy pobre en la evaluación manual de fotogramas de vídeo marcados (precisión medida, estimada a partir de 150 fotogramas de vídeo que cubren un segmento de vídeo comparable a los de Vídeo 2 y Vídeo 3). Network #2 representa la versión mejorada de Network #1, después de haber incluido fotogramas de vídeo adicionales de ratas que mueven activamente al conjunto de datos de entrenamiento, como se describe en (E). (B) Imagen que representa a una rata levantando y cubriendo la luz de la casa de la cámara (Figura 7A) con su cabeza, interrumpiendo el seguimiento de la misma. (C) Fotograma de vídeo que captura una respuesta realizada durante un ensayo 5CSRTT (Figura 6A: 3). La trayectoria de movimiento de la cabeza durante la respuesta y la ITI anterior se ha superpuesto a la imagen en amarillo. El seguimiento se considera preciso. Observe el seguimiento suave durante los movimientos (flecha blanca). Un vídeo correspondiente está disponible como Video 2. Se utilizó #2 de red (véase A) para el seguimiento. (D) Fotograma de vídeo que captura una respuesta realizada durante una prueba 5CSRTT (Figura 6A: 3). La trayectoria de movimiento de la cabeza durante la respuesta y la ITI anterior se ha superpuesto a la imagen en amarillo. Los datos se refieren al mismo ensayo que se muestra en (C) pero analizados con la red #1 (véase A). El seguimiento se considera inexacto. Observe la apariencia irregular de la ruta con varias líneas rectas (flechas blancas), causadas por el seguimiento ocasional de la cabeza a posiciones erróneas distantes (flechas negras). Un vídeo correspondiente está disponible como Video 3. (E) Gráfico que representa los cambios dinámicos en la velocidad de movimiento del seguimiento de la cabeza en (C) y (D). Identificable en el gráfico son tres movimientos principales vistos en Video 2 y 3, donde la rata primero gira para mirar hacia la nariz aberturas de golpe (giro inicial), hace un pequeño ajuste para acercarse más a ellos (ajuste), y finalmente realiza una respuesta. El perfil de velocidad para el buen seguimiento obtenido por Network #2 (A) muestra curvas suaves de cambios en la velocidad de movimiento (flechas azules), lo que indica un seguimiento preciso. El perfil de velocidad para el seguimiento deficiente obtenido por Network #1 (A) muestra múltiples picos repentinos en la velocidad de movimiento (flechas rojas) indicativos de errores de seguimiento ocasionales en fotogramas de vídeo individuales. Vale la pena señalar que estos problemas de seguimiento ocurren específicamente durante los movimientos. Para rectificar esto, el conjunto de entrenamiento inicial utilizado para entrenar a Network #1 se amplió con una gran cantidad de fotogramas de vídeo que representan ratas en movimiento activo. Esto se utilizó posteriormente para entrenar a la red #2, que eliminó eficientemente este problema de seguimiento. Haga clic aquí para ver una versión más grande de esta figura.

Figure 11
Figura 11: Uso del seguimiento posicional a través de DeepLabCut para complementar el análisis conductual de las pruebas de acondicionamiento de operandos. (Un) Una vista superior del interior de una cámara de acondicionamiento de operando. Se indican tres áreas de la cámara. El área cerca de la vaguada de pellets de recompensa (Pellet), el área de la cámara central (Centro) y el área alrededor de la nariz se asoda aberturas (Aperturas). (B) Un gráfico que representa la cantidad relativa de tiempo que las ratas pasan en las tres áreas diferentes de la cámara de operación delineadas en (A) durante el paso ITI del 5CSRTT. Tenga en cuenta que en los ensayos con una respuesta, las ratas tienden inicialmente a colocarse cerca de la vaguada de pellets (negro) y el centro de la cámara (gris), pero a medida que la ITI progresa, se desplazan hacia la posición alrededor de la nariz se asoma aberturas (blanco). Por el contrario, en los ensayos típicos de omisión, las ratas permanecen colocadas alrededor de la vaguada de pellets y el centro de la cámara. En un subconjunto de ensayos de omisión (aproximadamente 20%) las ratas claramente cambian su enfoque hacia las aberturas de la nariz, pero todavía no realizan una respuesta cuando se le pide. El análisis bidireccional de ANOVA del tiempo que pasa alrededor de la nariz se precipita que se abren utilizando el tipo de ensayo como factor entre sujetos y el tiempo como factor dentro del sujeto revelan un tiempo significativo (p < 0.001, F(4,8) = 35.13), trial type (p < 0.01, F(2,4) = 57.33) and time x trial type interaction (p < 0.001, F(8,16) = 15.3) effects. Data gathered from four animals performing 100 trials each. Graph displays mean + standard error. (C) Mapa de calor que muestra todas las posiciones de la cabeza rastreadas en proximidad de las aberturas de golpes de la nariz, por una rata específica durante 50 ITIs de una sesión de prueba 5CSRTT. Tenga en cuenta que la rata tiene una fuerte tendencia a mantener su cabeza en un punto cerca de la abertura del golpe de la nariz central. (D) Mapa de calor que muestra todas las posiciones de la cabeza rastreadas en proximidad de las aberturas de golpe de la nariz, por una rata específica durante 50 ITIs de una sesión de prueba 5-CSRTT. Tenga en cuenta que la rata no muestra ninguna preferencia clara para cualquier abertura específica. (E) Gráfico que representa la cantidad relativa de tiempo que las dos ratas mostradas en (C) y (D) pasan siendo más cercanas a las diferentes aberturas de golpes de nariz durante 50 ITI del 5CSRTT. La rata que muestra una estrategia enfocada (C) (negro) muestra una fuerte preferencia por estar más cerca de la abertura central, mientras que la rata con una estrategia similar a la búsqueda (D) (blanco) no muestra ninguna preferencia por ninguna abertura en particular. El gráfico representa el error promedio + estándar. (F) Una imagen de una rata en el momento de la presentación de cue en un ensayo 5CSRTT (Figura 6A). Tenga en cuenta que la rata ha colocado su cabeza más cerca de la abertura central (flecha blanca), siendo dos aberturas lejos de la abertura de cued (flecha negra). (G) Un gráfico que muestra la precisión del rendimiento en el 5CSRTT (es decir, la frecuencia de realizar respuestas correctas) en relación con si la cabeza de las ratas estaba más cerca de la abertura central o de una de las otras aberturas en el momento de la presentación de la cue (Figura 6A2). Datos recopilados de cuatro animales que realizan aproximadamente 70 respuestas cada uno. Gráfico muestra la media del grupo + error estándar (prueba t coincidente: p < 0.05). (H) Un gráfico que representa la precisión del rendimiento en el 5CSRTT en relación con la distancia entre la posición de la abertura de cued y la posición de la cabeza de una rata, en el punto de presentación de la señal. La distancia se refiere al número de aberturas entre la posición de la cabeza de las ratas y la posición de la abertura señalizada. Datos recopilados de cuatro animales que realizan aproximadamente 70 respuestas cada uno. Gráfico muestra media + error estándar (ANOVA unidireccional coincidente: p < 0.01). For the presented analysis, Network #2 described in Figura 10A se utilizó. El conjunto de datos analizado completo incluía aproximadamente 160.000 fotogramas de vídeo y 400 ensayos. De ellos, el 2,5% de los fotogramas de vídeo fueron excluidos debido a que la velocidad de movimiento observada del animal es superior a 3.000 píxeles/s, lo que indica un seguimiento erróneo (Figura 10E). No se excluyeron las pruebas completas. Haga clic aquí para ver una versión más grande de esta figura.

Video 1: Rendimiento de seguimiento representativo de una red neuronal bien entrenada. El vídeo muestra un montaje de una rata que realiza 45 ensayos con respuestas correctas durante una sesión de prueba 5CSRTT (consulte la figura 6A para obtener detalles del protocolo). Seguimiento de la luz de la casa (marcador rojo), la base de la cola (marcador verde) y la cabeza (marcador azul) se indican en el vídeo. El entrenamiento de la red (Red #2 en la Figura 10A) hizo hincapié en la precisión de los movimientos realizados a lo largo del suelo de la cámara en proximidad a las aberturas del golpe de la nariz (pared derecha, Figura 7A). El seguimiento de estos segmentos muestra en promedio >90% de precisión. El seguimiento de los episodios de crianza y aseo son inexactos, ya que el conjunto de entrenamiento no incluyó marcos de estos comportamientos. Tenga en cuenta que el vídeo se ha comprimido para reducir el tamaño del archivo y no se puede representar de la calidad de vídeo obtenida con la cámara. Por favor, haga clic aquí para descargar este video.

Video 2: Ejemplo de animal rastreado con precisión. El video muestra una sola prueba bien rastreada de una rata realizando una respuesta correcta durante el 5CSRTT. Seguimiento de la luz de la casa (marcador rojo), la base de la cola (marcador verde) y la cabeza (marcador azul) se indican en el vídeo. #2 de red neuronal descrito en la Figura 10A se utilizó para el seguimiento. Observe cómo los marcadores siguen los movimientos del animal con precisión. Consulte también la Figura 10C,E para conocer la ruta trazada y la velocidad de movimiento para el seguimiento de la cabeza en este clip de vídeo. Por favor, haga clic aquí para descargar este video.

Video 3: Ejemplo de animal mal rastreado. El video muestra una sola prueba mal rastreada de una rata realizando una respuesta correcta durante el 5CSRTT. Seguimiento de la luz de la casa (marcador rojo), la base de la cola (marcador verde) y la cabeza (marcador azul) se indican en el vídeo. #1 de red neuronal descrito en la Figura 10A se utilizó para el seguimiento. El clip de vídeo es el mismo que el utilizado en Video 2. Tenga en cuenta que el marcador de la cabeza no se coloca de forma fiable en la parte superior de la cabeza de la rata. Consulte también la Figura 10D,E para conocer la ruta trazada y la velocidad de movimiento para el seguimiento de la cabeza en este clip de vídeo. Por favor, haga clic aquí para descargar este video.

Vídeo 4: Ejemplo de movimientos realizados durante un ensayo 5CSRTT con una respuesta. El video muestra una sola prueba bien rastreada de una rata realizando una respuesta correcta durante el 5-CSRTT. Seguimiento de la luz de la casa (marcador rojo), la base de la cola (marcador verde) y la cabeza (marcador azul) se indican en el vídeo. Observe cómo la rata al principio se coloca en clara proximidad al receptáculo de pellets (pared izquierda, Figura 7A)y luego se mueve para centrar su atención en la fila de aberturas de la nariz. Por favor, haga clic aquí para descargar este video.

Vídeo 5: Ejemplo de un ensayo típico de omisión durante el 5CSRTT. El video muestra una sola prueba bien rastreada de una rata realizando una omisión típica durante el 5CSRTT. Seguimiento de la luz de la casa (marcador rojo), la base de la cola (marcador verde) y la cabeza (marcador azul) se indican en el vídeo. Observe cómo la rata mantiene su posición alrededor del receptáculo de pellets (pared izquierda, Figura 7A)y el centro de la cámara, en lugar de dar la vuelta para mirar la nariz aberturas (pared derecha, Figura 7A). El comportamiento mostrado y la causa de la omisión se pueden argumentar para reflejar un bajo interés en realizar la prueba. Por favor, haga clic aquí para descargar este video.

Vídeo 6: Ejemplo de un ensayo de omisión atípico durante el 5CSRTT. El video muestra una sola prueba bien rastreada de una rata realizando una omisión atípica durante el 5CSRTT. Seguimiento de la luz de la casa (marcador rojo), la base de la cola (marcador verde) y la cabeza (marcador azul) se indican en el vídeo. Observe cómo la rata se posiciona hacia la nariz se asoma a las aberturas a lo largo de la pared derecha de la cámara (Figura 7A). Esto se puede argumentar para indicar que el animal está interesado en realizar la prueba. Sin embargo, la rata se aleja de la abertura de cued (posición central) cuando se presenta la cue (5 s en el clip). En contraste con la omisión mostrada en el video 4, el que se ve aquí es probablemente relacionado con los procesos de atención visuospatial subóptimo. Por favor, haga clic aquí para descargar este video.

Vídeo 7: Ejemplo de un animal que mantiene una posición central enfocada durante una ITI del 5CSRTT. El video muestra una sola prueba bien rastreada de una rata realizando una respuesta correcta en un ensayo del 5CSRTT. Observe cómo la rata mantiene una posición central durante la ITI, manteniendo su cabeza firme cerca de la nariz central se abre a lo largo de la pared derecha de las cámaras(Figura 7A). Seguimiento de la luz de la casa (marcador rojo), la base de la cola (marcador verde) y la cabeza (marcador azul) se indican en el vídeo. Por favor, haga clic aquí para descargar este video.

Vídeo 8: Ejemplo de un animal que muestra una estrategia de atención similar a una búsqueda durante una ITI del 5CSRTT. El video muestra una sola prueba bien rastreada de una rata realizando una respuesta correcta en un ensayo del 5CSRTT. Observe cómo la rata con frecuencia reposiciona su cabeza para enfrentar diferentes aberturas de golpe de nariz a lo largo de la pared derecha de la cámara (Figura 7A). Seguimiento de la luz de la casa (marcador rojo), la base de la cola (marcador verde) y la cabeza (marcador azul) se indican en el vídeo. Por favor, haga clic aquí para descargar este video.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Este protocolo describe cómo construir una cámara de video económica y flexible que se puede utilizar para grabar videos de cámaras de acondicionamiento de operandos y otras configuraciones de pruebas de comportamiento. Además, demuestra cómo utilizar DeepLabCut para rastrear una señal de luz fuerte dentro de estos videos, y cómo se puede utilizar para ayudar a identificar segmentos de vídeo breves de interés en archivos de vídeo que cubren sesiones de prueba completas. Por último, describe cómo utilizar el seguimiento de la cabeza de una rata para complementar el análisis de comportamientos durante las pruebas de acondicionamiento de operandos.

El protocolo presenta una alternativa a las soluciones de grabación de vídeo disponibles comercialmente para cámaras de acondicionamiento de operandos. Como se ha señalado, el principal beneficio de estos es que se integran con las cámaras de operación, permitiendo grabaciones de vídeo de eventos específicos. El enfoque para identificar segmentos de interés de vídeo descritos en este protocolo es más laborioso y lento en comparación con el uso de un sistema totalmente integrado para grabar eventos específicos. Sin embargo, es considerablemente más barato (un cálculo reciente del coste de los equipos de monitoreo de vídeo para 6 cámaras operantes se fijó en aproximadamente 13.000 USD. En comparación, la construcción de seis de las cámaras enumeradas aquí costaría alrededor de 720 USD). Además, las cámaras se pueden utilizar para varias otras configuraciones de prueba de comportamiento. Cuando se trabaja con la cámara, es importante tener en cuenta las áreas de electrónica expuesta (la parte posterior del componente de la cámara, así como el componente LED IR), para que no entren en contacto con fluidos. Además, el cable de cinta que conecta el módulo de la cámara al microordenador y los cables que conectan los LED y los interruptores a los pines GPIO pueden desprenderse si la cámara se mueve con frecuencia. Por lo tanto, ajustar el diseño de la caja de la cámara puede ser beneficioso para algunas aplicaciones.

El uso de DeepLabCut para identificar segmentos de vídeo de interés y rastrear movimientos de animales ofrece un complemento y/o alternativa al análisis de vídeo manual. Aunque el primero no invalida el segundo, hemos encontrado que proporciona una manera conveniente de analizar los movimientos y comportamientos dentro de las cámaras de operación. En particular, proporciona datos posicionales del animal, que contiene información más detallada que lo que normalmente se extrae a través de la puntuación manual (es decir, coordenadas reales en comparación con la información posicional cualitativa como "delante de", "al lado" etc.).

Al seleccionar un indicador de paso de protocolo, es importante elegir uno que indique consistentemente un paso determinado del protocolo de comportamiento, y que es poco probable que sea bloqueado por el animal. Si este último es problemático, se puede considerar la posibilidad de colocar una lámpara fuera de la cámara de operación y filmarla a través de las paredes de la cámara. Muchas cámaras de acondicionamiento de operando son modulares y permiten a los usuarios mover libremente luces, sensores y otros componentes alrededor. Cabe señalar que hay otros paquetes de software que también permiten a los usuarios entrenar redes neuronales en el reconocimiento y seguimiento de objetos definidos por el usuario en vídeos24,,25,,26. Es probable que se puedan utilizar como alternativas a DeepLabCut en el protocolo actual.

El protocolo describe cómo rastrear la parte central de la cabeza de una rata para medir los movimientos dentro de las cámaras de operación. Como DeepLabCut ofrece plena libertad en la selección de partes del cuerpo u objetos de interés, esto se puede modificar con comodidad para adaptarse a los intereses específicos del estudio. Una extensión natural del seguimiento descrito en este documento es también rastrear la posición de las orejas y la nariz de las ratas, para juzgar mejor no sólo la posición de la cabeza, sino también la orientación. Los datos representativos que se muestran aquí fueron recodificados con ratas de Long Evans. Estas ratas muestran una variación intere individual considerable en su patrón de pigmentación, particularmente hacia su base de cola. Esto puede resultar en algunas dificultades para aplicar una sola red neuronal entrenada para el seguimiento de diferentes individuos. Para limitar estas cuestiones, lo mejor es incluir fotogramas de vídeo de todos los animales de interés en el conjunto de entrenamiento para la red. La cabeza negra de la rata Long Evans proporciona un contraste razonablemente fuerte contra las superficies metálicas de la cámara utilizada aquí. Por lo tanto, obtener un seguimiento preciso de sus cabezas probablemente requiere menos esfuerzo que con cepas albinas. El paso más crítico para obtener un seguimiento preciso con DeepLabCut o paquetes de software comparables es seleccionar un buen número de fotogramas de vídeo diversos para el entrenamiento de la red neuronal. Por lo tanto, si se considera que el seguimiento de un objeto de interés es subóptimo, el aumento del conjunto de marcos de entrenamiento siempre debe ser el primer paso para mejorar los resultados.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Si bien los materiales y recursos de la fundación Raspberry Pi han sido utilizados y citados en este manuscrito, la fundación no participó activamente en la preparación o uso de equipos y datos en este manuscrito. Lo mismo es cierto para Pi-Supply. Los autores no tienen nada que revelar.

Acknowledgments

Este trabajo fue apoyado por subvenciones de la Fundación Cerebral Sueca, la Fundación Sueca del Parkinson y los Fondos del Gobierno sueco para la Investigación Clínica (M.A.C.), así como las fundaciones Wenner-Gren (M.A.C, E.K.H.C), la Fundación Hlén (M.A.C.) y la fundación Blanceflor Boncompagni Ludovisi, de soltera Bildt (S.F).

Materials

Name Company Catalog Number Comments
32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

DOWNLOAD MATERIALS LIST

References

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user's manual. Coulbourn instruments. , Holliston, Massachusetts. 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer's manual. Med Associates Inc. , St. Albans, Vermont. 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat's behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user's manual. Med Associates Inc. , St. Albans, Vermont. 26-30 (2004).
  14. Coulbourn Instruments. Coulbourn Instruments. , Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020).
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. Raspberry Pi foundation. Raspberry Pi foundation. , Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020).
  19. Pi-supply. Pi-supply. , Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018).
  20. Python. Python. , Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020).
  21. MathWorks. MathWorks. , Available from: https://mathworks.com/academia/highschool/ (2020).
  22. Cran.R-Project.org. Cran.R-Project.org. , Available from: https://cran.r-project.org/manuals.html (2020).
  23. Liu, Y., Tian, C., Huang, Y. Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Tags

Comportamiento Número 160 Acondicionamiento operante cognición grabación de video comportamiento de roedores Raspberry Pi DeepLabCut
Seguimiento de ratas en cámaras de acondicionamiento de operantes utilizando una cámara de vídeo casera versátil y DeepLabCut
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Clemensson, E. K. H., Abbaszadeh,More

Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter