Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove

Behavior

Rata automatizada de un solo pellet alcanzando la reconstrucción tridimensional de trayectorias de patas y dígitos

doi: 10.3791/59979 Published: July 10, 2019

Summary

El alcance con habilidades de roedores se utiliza comúnmente para estudiar habilidades hábiles, pero requiere mucho tiempo y esfuerzo para implementar la tarea y analizar el comportamiento. Describimos una versión automatizada del alcance cualificado con seguimiento de movimiento y reconstrucción tridimensional de trayectorias de alcance.

Abstract

El alcance con habilidades de roedores se utiliza comúnmente para estudiar habilidades hábiles, pero requiere mucho tiempo y esfuerzo para implementar la tarea y analizar el comportamiento. Recientemente se han desarrollado varias versiones automatizadas de alcance cualificado. Aquí, describimos una versión que presenta automáticamente pellets a ratas mientras graba vídeo de alta definición desde múltiples ángulos a altas velocidades de fotogramas (300 fps). La pata y los dígitos individuales se rastrean con DeepLabCut, un algoritmo de aprendizaje automático para la estimación de la pose sin marcadores. Este sistema también se puede sincronizar con grabaciones fisiológicas, o ser utilizado para desencadenar intervenciones fisiológicas (por ejemplo, estimulación eléctrica u óptica).

Introduction

or Start trial to access full content. Learn more about your institution’s access to JoVE content here

Los humanos dependen en gran medida de la habilidad dietuta, definida como movimientos que requieren movimientos multi-articulares y digitales coordinados con precisión. Estas habilidades se ven afectadas por una serie de patologías comunes del sistema nervioso central, incluyendo lesiones estructurales (por ejemplo, accidente cerebrovascular, tumor, lesiones desmielinantes), enfermedad neurodegenerativa (por ejemplo, enfermedad de Parkinson) y anomalías funcionales circuitos (por ejemplo, distonía). Entender cómo se aprenden e implementan las habilidades hábiles por los circuitos motores centrales tiene, por lo tanto, el potencial de mejorar la calidad de vida de una gran población. Además, es probable que esta comprensión mejore el rendimiento motor en personas sanas optimizando las estrategias de capacitación y rehabilitación.

Disecijar los circuitos neuronales subyacentes a la habilidad hábil en los seres humanos está limitado por consideraciones tecnológicas y éticas, lo que requiere el uso de modelos animales. Los primates no humanos se utilizan comúnmente para estudiar movimientos de extremidades hábiles dada la similitud de sus sistemas motores y repertorio conductual con los seres humanos1. Sin embargo, los primates no humanos son caros con largos tiempos de generación, lo que limita el número de sujetos de estudio y las intervenciones genéticas. Además, mientras que la caja de herramientas neurocientífica aplicable a los primates no humanos es más grande que para los seres humanos, muchos avances tecnológicos recientes no están disponibles o están significativamente limitados en los primates.

El alcance experto de los roedores es un enfoque complementario para estudiar el control del motor diestro. Las ratas y los ratones pueden ser entrenados para alcanzar, agarrar y recuperar un pellet de azúcar en una secuencia estereotipada de movimientos homólogos a los patrones de alcance humano2. Debido a su tiempo de generación relativamente corto y menores costos de vivienda, así como su capacidad para adquirir alcances calificados durante días o semanas, es posible estudiar un gran número de asignaturas durante las fases de aprendizaje y consolidación de habilidades. El uso de roedores, especialmente ratones, también facilita el uso de potentes herramientas neurocientíficas modernas (por ejemplo, optogenética, imágenes de calcio, modelos genéticos de la enfermedad) para estudiar la habilidad hábil.

El alcance experto de los roedores se ha utilizado durante décadas para estudiar el control motornormal y cómo se ve afectado por patologías específicas como el accidente cerebrovascular y la enfermedad de Parkinson 3. Sin embargo, la mayoría de las versiones de esta tarea son laboristas y de mucho tiempo, mitigando los beneficios del estudio de los roedores. Las implementaciones típicas implican la colocación de roedores en una cámara de alcance con un estante delante de una ranura estrecha a través de la cual el roedor debe alcanzar. Un investigador coloca manualmente los pellets de azúcar en el estante, espera a que el animal llegue, y luego coloca otro. Los alcances se puntúan como éxitos o fracasos, ya sea en tiempo real o por revisión de vídeo4. Sin embargo, simplemente la puntuación alcanza los éxitos o los fracasos ignora los datos cinemáticos enriquecidos que pueden proporcionar información sobre cómo (en lugar de simplemente si) el alcance se ve afectado. Este problema se solucionó mediante la implementación de una revisión detallada de los vídeos de acceso para identificar y puntuar semicuantitativamente los submovimientos5. Si bien esto añadió algunos datos sobre la cinemática de alcance, también aumentó significativamente el tiempo y el esfuerzo del experimentador. Además, los altos niveles de participación de los experimentadores pueden conducir a incoherencias en la metodología y el análisis de datos, incluso dentro del mismo laboratorio.

Más recientemente, se han desarrollado varias versiones automatizadas de alcance cualificado. Algunos se adhieren a la jaula doméstica6,7, eliminando la necesidad de transferir animales. Esto reduce el estrés en los animales y elimina la necesidad de aclimatarlos a una cámara de alcance especializada. Otras versiones permiten el seguimiento de la pata para que los cambios cinemáticos bajo intervenciones específicas se puedan estudiar8,9,10, o tener mecanismos para determinar automáticamente si los pellets fueron arrancados de la plataforma11. Las tareas automatizadas de alcance cualificado son especialmente útiles para el entrenamiento de alta intensidad, como puede ser necesario para la rehabilitación después de una lesión12. Los sistemas automatizados permiten a los animales realizar un gran número de alcances durante largos períodos de tiempo sin necesidad de una participación intensiva de los investigadores. Además, los sistemas que permiten el seguimiento de la pata y la puntuación automatizada de los resultados reducen el tiempo dedicado al investigador a realizar el análisis de datos.

Desarrollamos un sistema automatizado de alcance experto en ratas con varias características especializadas. En primer lugar, mediante el uso de un pedestal móvil para llevar el pellet a "posición de alcance" desde abajo, obtenemos una vista casi sin obstáculos de la extremidad delantera. En segundo lugar, un sistema de espejos permite múltiples vistas simultáneas del alcance con una sola cámara, permitiendo la reconstrucción tridimensional (3-D) de las trayectorias de alcance utilizando una cámara de alta resolución y alta velocidad (300 fps). Con el reciente desarrollo de algoritmos de aprendizaje automático robustos para el seguimiento de movimiento sin marcadores13,ahora rastreamos no sólo la pata, sino los nudillos individuales para extraer el alcance detallado y la cinemática de agarre. En tercer lugar, un frame-grabber que realiza un procesamiento de vídeo simple permite la identificación en tiempo real de distintas fases de alcance. Esta información se utiliza para desencadenar la adquisición de vídeo (la adquisición continua de vídeo no es práctica debido al tamaño del archivo), y también se puede utilizar para desencadenar intervenciones (por ejemplo, optogenética) en momentos precisos. Por último, los fotogramas de vídeo individuales son activados por pulsos de lógica transistor-transistor (TTL), lo que permite que el vídeo se sincronice con precisión con grabaciones neuronales (por ejemplo, electrofisiología o fotometría). Aquí, describimos cómo construir este sistema, entrenar ratas para realizar la tarea, sincronizar el aparato con sistemas externos y reconstruir trayectorias de alcance 3D.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

or Start trial to access full content. Learn more about your institution’s access to JoVE content here

Todos los métodos relacionados con el uso animal descritos aquí han sido aprobados por el Comité Institucional de Cuidado y Uso de Animales (IACUC) de la Universidad de Michigan.

1. Configuración de la cámara de alcance

NOTA: 14 para obtener detalles y diagramas del aparato. Los números de pieza se refieren a la Figura 1.

  1. Unir paneles de policarbonato transparente con cemento acrílico para construir la cámara de alcance (15 cm de ancho por 40 cm de largo por 40 cm de alto) (parte #1). Un panel lateral (parte #2) tiene una puerta con bisagras (18 cm de ancho por 15 cm de alto) con una cerradura. Si la rata se atará a un cable, corte una hendidura (5 cm de ancho por 36 cm de largo) en el techo de la cámara para acomodarla (parte #12). El panel de suelo tiene 18 orificios (1,75 cm de diámetro) (parte #13) cortados en él y no está unido al resto de la cámara.
  2. Montar y alinear sensores infrarrojos (parte #3) en los paneles laterales a 4,5 cm de la parte posterior de la cámara y 3,8 cm del suelo. El software de comportamiento tiene un indicador ('IR Back') que es verde cuando el haz infrarrojo está intacto y rojo cuando el haz está roto. Una vez que se configura el software, esto se puede utilizar para comprobar la alineación del sensor.
  3. Monte un espejo (15 cm x 5 cm, parte #4) 10 cm por encima de la ranura de alcance (parte #14). Angulo el espejo para que la varilla de entrega de pellets sea visible para la cámara.
  4. Coloque la cámara sobre una caja de soporte sanitizable (59 cm de ancho por 67,3 cm de largo por 30,5 cm de alto, parte #5). La cámara descansa por encima de un agujero en la caja de soporte (12 cm de ancho por 25 cm de largo) que permite que la basura caiga a través de los orificios del suelo (parte #13) y fuera de la cámara de reaching. Cortar un segundo agujero (7 cm de ancho por 6 cm de largo, parte #15) en la caja de soporte delante de la ranura de alcance, lo que permite que una varilla de entrega de pellets para llevar pellets a la ranura de alcance.
  5. Montar dos espejos (8,5 cm de ancho x 18,5 cm de alto, parte #6) en el suelo con imanes a cada lado de la cámara para que el borde largo del espejo toque el panel lateral a 3 cm de la parte delantera de la caja que llega. Angulo los espejos para que la cámara pueda ver en la caja y el área delante de la ranura de alcance donde se entregará el pellet.
  6. Monte la cámara de alta definición (parte #7) a 17 cm de la ranura de alcance, frente a la caja.
  7. Monte papel negro (parte #18) a ambos lados de la cámara para que el fondo de los espejos laterales esté oscuro. Esto mejora el contraste para mejorar la detección de patas en tiempo real y fuera de línea.
  8. Montar el actuador lineal (parte #16) en un marco sanitizable (25 cm de ancho por 55 cm de largo por 24 cm de alto, parte #8) con tornillos. El actuador está montado boca abajo para evitar que el polvo de pellets se acumule dentro de su potenciómetro de sensor de posición.
  9. Inserte una placa tórica de espuma en el cuello del depósito de pellets (embudo) (parte #9) para evitar que se acumule polvo en el conjunto. Monte el embudo debajo de un agujero (6 cm de diámetro, parte #17) en la parte superior del marco deslizando los bordes del embudo por encima de tres tornillos perforados en la parte inferior de la parte superior del marco. Inserte el tubo guía (#10 de piezas) en el cuello del embudo.
  10. Fije el conector T de plástico al extremo de la varilla de acero del actuador. Inserte el extremo cónico de la varilla de entrega de pellets en la parte superior del conector y el extremo tapado a través del tubo guía en el depósito de pellets.
  11. Coloque el conjunto del actuador lineal debajo de la cámara de alcance hábil para que la varilla de entrega de pellets pueda extenderse a través del orificio (parte #15) delante de la ranura de alcance.
  12. Coloque todo el aparato de alcance en un armario con ruedas (121 cm x 119 cm x 50 cm) ventilado con ventiladores de computadora (el interior se calienta cuando está bien iluminado) y forrado con espuma acústica.
  13. Construir cinco paneles de luz (parte #11) mediante la adhering tiras de luz LED en paneles de soporte de 20,3 cm por 25,4 cm. Monte la película difusora sobre las tiras de luz. Monte un panel de luz en el techo sobre el área de la varilla de entrega de pellets. Monte los otros cuatro en los lados de los armarios a lo largo de la cámara de alcance.
    NOTA: Es importante iluminar el área alrededor de la ranura de acceso y la varilla de entrega de pellets para la identificación de la pata en tiempo real.

2. Configuración del ordenador y el hardware

  1. Instale el agarrador de marcos FPGA y las tarjetas de extensión digital según las instrucciones del fabricante (consulte la Tabla de materiales).
    NOTA: Recomendamos al menos 16 GB de RAM y un disco duro de estado sólido interno para el almacenamiento de datos, ya que la transmisión de vídeo de alta velocidad requiere una capacidad de almacenamiento en búfer significativa.
  2. Instale los controladores para la cámara de alta definición y conéctelo al framegrabber FPGA. El software de comportamiento debe estar en ejecución e interactuando con la cámara para utilizar el software asociado con la cámara.
    NOTA: El código incluido (ver archivos complementarios) accede a los registros programables en la cámara y puede que no sea compatible con otras marcas. Recomendamos grabar al menos 300 fotogramas por segundo (fps); a 150 fps encontramos que los cambios clave en la postura de la pata a menudo se echaban de menos.
  3. Copie el código incluido (proyecto) en "SR Automation_dig_ext_card_64bit" en el equipo.

3. Entrenamiento conductual

  1. Prepare ratas antes del entrenamiento.
    1. House Long-Evans ratas (hombres o hembras, de 10 a 20 semanas) en grupos de 2-3 por jaula en un ciclo de luz/oscuridad inversa. Tres días antes del entrenamiento, coloque a las ratas en la restricción de alimentos para mantener el peso corporal 10-20% por debajo del nivel basal.
    2. Manipule ratas durante varios minutos al día durante al menos 5 días. Después de manipular, coloque 4-5 pellets de azúcar por rata en cada jaula doméstica para introducir el nuevo alimento.
  2. Habituar la rata a la cámara de alcance (1-3 días)
    1. Encienda las luces LED y coloque 3 pellets de azúcar en la parte delantera y trasera de la cámara.
    2. Coloque la rata en la cámara y deje que la rata explore durante 15 minutos. Repita esta fase hasta que la rata se coma todos los pellets del suelo.
    3. Limpie la cámara con etanol entre ratas.
      NOTA: Realice entrenamientos y pruebas durante la fase oscura. Entrena a las ratas a la misma hora todos los días.
  3. Entrena a la rata para que alcance y observe la preferencia de la pata (1–3 días).
    1. Encienda las luces y coloque la rata en la hábil cámara de acceso.
    2. Usando fórceps, sostenga un pellet a través de la ranura de alcance en la parte delantera de la caja (Figura1, Figura 2). Deje que la rata coma 3 perdigones de los fórceps.
    3. La próxima vez que la rata intente comer el pellet de los fórceps, tire del pellet hacia atrás. Eventualmente, la rata intentará alcanzar el pellet con su pata.
    4. Repita esto 11 veces. La pata que la rata utiliza más de los 11 intentos es la "preferencia de pata" de la rata.
      NOTA: Un intento se define como la pata que se extiende más allá de la ranura de alcance. La rata no necesita obtener y comer con éxito el pellet.
  4. Entrenar a la rata para llegar a la barra de entrega de pellets (1-3 días)
    1. Alinee la varilla de entrega de pellets con el lado de la ranura que llega contralateral a la pata preferida de la rata (utilice una guía para asegurar una colocación consistente a 1,5 cm de la parte delantera de la cámara de alcance). La parte superior de la varilla de entrega debe alinearse con la parte inferior de la ranura de alcance (Figura2B). Coloque un pellet en la varilla de entrega.
      NOTA: Colocar la barra de entrega frente a la pata preferida de la rata dificulta que la rata obtenga el pellet con su pata no preferida. No hemos tenido problemas con ratas usando su pata no preferida. Sin embargo, en ciertos modelos (por ejemplo, accidente cerebrovascular) esto todavía puede ocurrir y se puede agregar una restricción en la extremidad de alcance no preferida.
    2. Cebo la rata con un pellet sostenido usando fórceps, pero dirigir la rata hacia la barra de entrega para que su pata golpee el pellet en la varilla. Si la rata saca el pellet de la varilla, reemplácelo. Algunas ratas pueden no llegar inicialmente lo suficientemente lejos. En este caso, mueva la barra de entrega de pellets más cerca de la ranura de alcance y luego muévala lentamente más lejos a medida que la rata mejora.
    3. Después de unos 5-15 cebo llega la rata comenzará a alcanzar el pellet en la barra de entrega espontáneamente. Una vez que la rata ha intentado 10 llega a la barra de entrega sin ser cebado, puede avanzar a la siguiente fase.
  5. Entrena a la rata para solicitar un pellet (2-8 días).
    NOTA: Aunque hemos tenido ratas de entrenamiento 100% de éxito para alcanzar pellets, alrededor del 10% de las ratas no aprenden a solicitar un pellet moviéndose a la parte posterior de la cámara.
    1. Coloque la varilla de entrega de pellets en función de la preferencia de la pata de la rata y establézcala en la posición 2 (Figura2A). Ajuste las posiciones de altura de la barra de entrega de pellets utilizando el mando a distancia del actuador. Manteniendo pulsados los botones 1 y 2 simultáneamente mueve la barra de entrega hacia arriba, mientras que manteniendo presionados los botones 3 y 2 mueve la barra de entrega hacia abajo. Cuando la barra de entrega esté a la altura correcta, mantenga pulsado el número deseado hasta que la luz parpadee en rojo para ajustarla.
    2. Coloque la rata en la cámara y cebón la rata a la parte posterior con un pellet. Cuando la rata se mueva lo suficientemente lejos a la parte posterior de la cámara que rompería el haz infrarrojo si la versión automatizada se estaba ejecutando, mueva la barra de entrega de pellets a la posición 3 (Figura2B).
    3. Espere a que la rata alcance el pellet y luego mueva la varilla de entrega de pellets de nuevo a la posición 2 (Figura2A). Coloque un nuevo pellet en la barra de entrega si fue derribado.
    4. Repita estos pasos, cebando gradualmente la rata cada vez menos, hasta que la rata comience a: (i) moverse hacia atrás para solicitar un pellet sin ser cebado, y (ii) inmediatamente pasar al frente después de solicitar un pellet en la parte posterior. Una vez que la rata ha hecho esto 10 veces, está listo para el entrenamiento en la tarea automatizada.

4. Entrenamiento de ratas utilizando el sistema automatizado

  1. Configure el sistema automatizado.
    1. Encienda las luces de la cámara y rellene el depósito de pellets si es necesario.
    2. Coloque la varilla de entrega de pellets de acuerdo con la preferencia de la pata de la rata. Compruebe que las posiciones del actuador están configuradas correctamente (como en la Figura 2A).
    3. Encienda el ordenador y abra el programa Skilled Reaching (SR_dig_extension_card_64bit_(HOST)_3.vi). Introduzca el número de identificación de rata en Asunto y seleccione la preferencia de pata en el menú desplegable Mano. Especifique la ruta de guardado para los vídeos.
    4. Establezca Tiempo de sesión y Vídeos máximos (número de vídeos en los que finalizar la sesión). El programa dejará de ejecutarse en el límite que se alcance primero.
    5. Establezca la duración de la elevación del pellet (duración del tiempo que la varilla de entrega permanece en la posición "3" después de que la rata solicite un pellet). Activar o desactivar la penalización de alcance anticipado (la barra de entrega se restablece a la posición "1" y luego de nuevo a "2" si la rata llega antes de solicitar un pellet).
  2. Tome imágenes de calibración. La reconstrucción de trayectoria 3D utiliza una caja de herramientas de visión artificial para determinar las matrices de transformación adecuadas, lo que requiere identificar los puntos coincidentes en cada vista. Para ello, utilice un cubo pequeño con patrones de tablero de ajedrez en cada lado (Figura3).
    1. Coloque la mano de ayuda dentro de la cámara de alcance y empuje el clip del caimán a través de la ranura de alcance. Sostenga el cubo delante de la ranura de acceso con el clip de cocodrilo.
    2. Coloque el cubo de modo que el lado rojo aparezca en el espejo superior, el lado verde en el espejo izquierdo y el lado azul en el espejo derecho. Toda la cara de cada uno de los tres lados debe ser visible en los espejos (Figura3).
    3. En el programa de comportamiento, asegúrese de que El Umbral de ROI esté establecido en un valor muy grande (por ejemplo, 60000). Haga clic en el botón Ejecutar (flecha blanca). Una vez que el botón Camera Initialized se vuelva verde, pulse START. Tenga en cuenta que el vídeo se está adquiriendo.
    4. Haga clic en Modo Cal. A continuación, tome una imagen haciendo clic en Tomar imagen cal. La ruta del directorio de imágenes aparecerá ahora en ".png path" con el nombre de archivo .png con el formato "GridCalibration_YYYYMMDD_img.png".
    5. Mueva el cubo ligeramente y tome otra imagen. Repita de nuevo para un total de 3 imágenes.
    6. Detenga el programa haciendo clic en STOP y luego en el botón de detención. Retire la mano y el cubo que ayudan de la caja.
    7. Tenga cuidado de no golpear nada en la cámara conductual después de que las imágenes de calibración se hayan tomado ese día. Si algo se mueve, es necesario tomar nuevas imágenes de calibración.
  3. Ejecute el sistema automatizado.
    NOTA: Determine la configuración de "Umbral de ROI" (que se describe a continuación) para cada espejo antes de ejecutar ratas para la adquisición de datos reales. Una vez que se hayan determinado estos ajustes, preconfigurándolos antes de iniciar el programa y ajuste durante la adquisición si es necesario.
    1. Coloque la rata en la hábil cámara de acceso. Haga clic en la flecha blanca para ejecutar el programa.
    2. Antes de hacer clic en START, establezca la posición del ROI para la detección de la pata ajustando x-Offset (coordenada x de la esquina superior izquierda del rectángulo de ROI), y-Offset (coordenada y de la esquina superior izquierda del ROI), ROI Width y Altura del ROI.
    3. Coloque el ROI en el espejo lateral que muestra el dorso de la pata, directamente delante de la ranura de alcance (Figura2C). Asegúrese de que la barra de entrega de pellets no entre en el ROI y que el ROI no se extienda en la caja para evitar que el pellet o el pelaje de la rata activen un video cuando la rata no está alcanzando.
    4. Haga clic en INICIO para iniciar el programa.
    5. Ajuste el valor "Bajo umbral de ROI" hasta que el "Valor de activación de ROI en vivo" esté oscilando entre "0" y "1" (cuando la rata no está alcanzando). Este valor es el número de píxeles dentro del ROI con valores de intensidad en el intervalo de umbral.
    6. Establezca el Umbral de ROI. Observe el valor del disparador de ROI en vivo cuando la rata mete la nariz en el ROI y cuando la rata alcance el pellet. Establezca el umbral de ROI para que sea significativamente mayor que el "Valor de activación de ROI en vivo" durante los pinchazos de nariz y menor que el "Valor de activación de ROI en vivo" cuando la rata alcance. Ajustar hasta que los vídeos se activen constantemente cuando la rata alcanza, pero no cuando se mete la nariz a través de la ranura
      NOTA: Esto supone que la pata es de color más claro que la nariz; los ajustes se invertirían si la pata es más oscura que la nariz.
    7. Supervise las primeras pruebas para asegurarse de que todo funciona correctamente. Cuando una rata alcanza antes de solicitar un pellet (barra de entrega en la posición "2"), el número de "Llega temprano" aumenta. Cuando una rata llega después de solicitar un pellet (barra de entrega en la posición "3"), el número de "Videos" aumenta y un video se guarda como un archivo .bin con el nombre "RXXXX_YYYYMMDD_HH_MM_SS_trial".
      NOTA: El valor predeterminado es que los vídeos contengan 300 fotogramas (es decir, 1 s) antes y 1000 fotogramas después del evento de disparo (esto es configurable en el software), que es lo suficientemente largo como para contener todo el movimiento de alcance a agarre, incluida la retracción de la pata.
    8. Una vez alcanzado el tiempo de sesión o el máximo de vídeos, el programa se detiene. Pulse el botón de detención.
    9. Limpie la cámara con etanol y repita con otra rata, o si se hace para el día proceda a convertir videos.
  4. Convierta archivos .bin a archivos .avi.
    NOTA: La compresión de vídeos durante la adquisición provoca la pérdida de fotogramas, por lo que los archivos binarios se transmiten al disco durante la adquisición (utilice una unidad de estado sólido debido a las altas tasas de transferencia de datos). Estos archivos binarios deben comprimirse sin conexión o los requisitos de almacenamiento son prohibitivamente grandes.
    1. Abra el programa "bin2avi-color_1473R_noEncode.vi".
    2. En "Control de ruta de archivo" haga clic en el botón de carpeta para seleccionar la sesión (por ejemplo, R0235_20180119a) que desea convertir. Repita el proceso para cada sesión (hasta seis).
    3. Haga clic en la flecha blanca (ejecutar) y luego en "START" para comenzar. Puede supervisar la compresión de vídeo en el "Progreso general (%)" Bar. Deje que el programa se ejecute durante la noche.
    4. Antes de comenzar a entrenar animales al día siguiente, comprueba que los vídeos se han convertido y elimina los archivos .bin para que haya suficiente espacio para adquirir nuevos vídeos.

5. Análisis de vídeos con DeepLabCut

NOTA: Se entrenan diferentes redes para cada preferencia de pata (pata derecha y pata izquierda) y para cada vista (vista directa y vista de espejo izquierdo para ratas con patas derechas, vista directa y vista de espejo derecho para ratas con patas izquierdas). La vista del espejo superior no se utiliza para la reconstrucción 3D, sólo para detectar cuando la nariz entra en la ranura, lo que puede ser útil para desencadenar intervenciones (por ejemplo, optogenética). A continuación, cada red se utiliza para analizar un conjunto de vídeos recortados para la pata y la vista correspondientes.

  1. Entrene las redes DeepLabCut (se proporcionan instrucciones detalladas en la documentación de DeepLabCut en https://github.com/AlexEMG/DeepLabCut).
    1. Cree y configure un nuevo proyecto en DeepLabCut, un algoritmo de aprendizaje automático para la estimación de poses sin marcadores13.
    2. Utilice el programa para extraer fotogramas de los vídeos de alcance cualificado y recortar imágenes a la vista para incluirlos (vista directa o reflejada) en la interfaz del programa. Recorte marcos lo suficientemente grandes para que la rata y ambas patas delanteras sean visibles.
      NOTA: Las redes suelen requerir de 100 a 150 marcos de entrenamiento. Se necesitan más marcos de entrenamiento cuando la pata está dentro en comparación con fuera de la cámara debido a la iluminación. Un recorte más ajustado reduce el tiempo de procesamiento, pero tenga cuidado de que las regiones recortadas sean lo suficientemente grandes como para detectar la trayectoria completa de la pata para cada rata. Debe ser lo suficientemente ancho como para que todo el cuerpo de la rata quepa en el marco (vista directa), y para ver lo más lejos posible en la cámara y delante de la barra de entrega (vista de espejo).
    3. Utilice la GUI del programa para etiquetar las partes del cuerpo. Etiqueta 16 puntos en cada cuadro: 4 articulaciones metacarpofalángicas (MCP), 4 articulaciones interfalángicas proximales (PIP), puntas de 4 dígitos, el dorso de la pata que llega, la nariz, el dorso de la pata no alcanzada y el pellet (Figura 4).
    4. Siga las instrucciones de DeepLabCut (abreviado como DLC a partir de ahora) para crear el conjunto de datos de entrenamiento, entrenar la red y evaluar la red entrenada.
  2. Analiza vídeos y refina la red.
    1. Antes de analizar todos los vídeos con una red recién entrenada, analice 10 vídeos para evaluar el rendimiento de la red. Si hay errores consistentes en ciertas posturas, extraiga marcos de entrenamiento adicionales que contengan esas posturas y vuelva a entrenar la red.
    2. Al analizar vídeos, asegúrese de generar archivos .csv, que se introducirán en el código para la reconstrucción de trayectoria 3D.

6. Calibración de la caja

NOTA: Estas instrucciones se utilizan para determinar las matrices de transformación para convertir los puntos identificados en las vistas directas y reflejadas en coordenadas 3D. Para obtener la versión más actualizada y obtener más detalles sobre cómo usar el paquete boxCalibration, consulte Leventhal Lab GitHub: https://github.com/LeventhalLab/boxCalibration, que incluye instrucciones paso a paso para su uso.

  1. Recopile todas las imágenes de calibración en la misma carpeta.
  2. Con ImageJ/Fiji, marque manualmente los puntos del tablero de ajedrez para cada imagen de calibración. Guarde esta imagen como "GridCalibration_YYYYMMDD_.tif" donde 'YYYYMMDD' es la fecha en la que corresponde la imagen de calibración y '' es el número de imagen para esa fecha.
    1. Utilice la función de medición en ImageJ (en la barra de herramientas, seleccione Analizar ? Medir). Esto mostrará una tabla que contiene coordenadas para todos los puntos marcados. Guarde este archivo con el nombre "GridCalibration_YYYYMMDD_.csv", donde la fecha y el número de imagen son los mismos que el archivo .tif correspondiente.
  3. En el paquete boxCalibration, abra el archivo 'setParams.m'. Este archivo contiene todas las variables necesarias y su descripción. Edite las variables según sea necesario para ajustarse a las especificaciones del proyecto.
  4. Ejecute la función calibrateBoxes. Aparecerán varias solicitudes en la ventana de comandos. El primer mensaje pregunta si se deben analizar todas las imágenes de la carpeta. Al escribir Y finalizará las solicitudes y se analizarán todas las imágenes de todas las fechas. Al escribir N, se pedirá al usuario que introduzca las fechas que desea analizar.
    NOTA: Se crearán dos nuevos directorios en la carpeta de imágenes de calibración: 'markedImages' contiene archivos .png con las marcas de tablero de ajedrez definidas por el usuario en la imagen de calibración. La carpeta 'boxCalibration' contiene archivos .mat con los parámetros de calibración de la caja.
  5. Ejecute la función checkBoxCalibration. Esto creará una nueva carpeta, 'checkCalibration' en la carpeta 'boxCalibration'. Cada fecha tendrá una subcarpeta que contiene las imágenes y varios archivos .fig, que se utilizan para verificar que la calibración de la caja se completó con precisión.

7. Reconstrucción de trayectorias 3D

  1. Ensamble los archivos .csv que contienen la salida del programa de aprendizaje en la estructura de directorios descrita en el script reconstruct3Dtrajectories.
  2. Ejecute reconstruct3Dtrajectories. Este script buscará la estructura de directorios y coincidirá con los puntos directos/espejo en función de sus nombres en el programa de inclinación (es importante utilizar los mismos nombres de partes de cuerpo en ambas vistas).
  3. Ejecute calculateKinematics. Este script extrae características cinemáticas simples de las reconstrucciones de trayectoria 3D, que se pueden adaptar a las necesidades específicas.
    NOTA: El software calcula la posición de las partes del cuerpo ocluidas en función de sus vecinos y su ubicación en la vista complementaria (por ejemplo, la ubicación de una parte del cuerpo en la vista de cámara directa restringe sus posibles ubicaciones en la vista reflejada). Para las ocasiones en las que la pata se ocluye en la vista de espejo a medida que pasa a través de la ranura, las coordenadas de la pata se interpolan en función de los fotogramas vecinos.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

or Start trial to access full content. Learn more about your institution’s access to JoVE content here

Las ratas adquieren la tarea de alcance experto rápidamente una vez aclimatedcado al aparato, con el rendimiento estancado en términos de número de alcances y precisión durante 1-2 semanas (Figura5). La Figura 6 muestra fotogramas de vídeo de ejemplo que indican estructuras identificadas por DeepLabCut, y la Figura 7 muestra trayectorias de alcance individuales superpuestas desde una sola sesión. Finalmente, en la Figura8, ilustramos lo que sucede si el activador de detección de pata (pasos 4.3.4–4.3.6) no se establece con precisión. Hay una variabilidad significativa en el marco en el que la pata rompe la ranura de alcance. Esto no es un problema importante en términos de analizar la cinemática de alcance. Sin embargo, podría conducir a la variabilidad en el momento en que las intervenciones (por ejemplo, optogenética) se activan durante los movimientos de alcance.

Figure 1
Figura 1: La hábil cámara de acceso.
En el sentido de las agujas del reloj desde la parte superior izquierda hay una vista lateral, una vista desde la parte delantera y superior, el marco en el que se monta el actuador (consulte el paso 1.8) y una vista desde el lado y por encima. La hábil cámara de alcance (1) tiene una puerta (2) cortada en un lado para permitir que las ratas sean colocadas y sacadas de la cámara. Se corta una hendidura en el panel del techo (12) para permitir que el animal se ata y los agujeros se cortan en el panel del suelo (13) para permitir que la basura caiga a través. Dos sensores infrarrojos (3) están alineados a ambos lados de la parte posterior de la cámara. Un espejo (4) se monta por encima de la ranura de alcance (14) en la parte delantera de la cámara de alcance y otros dos espejos (6) están montados a cada lado de la cámara de alcance. La hábil cámara de alcance se encuentra sobre una caja de apoyo (5). La cámara de alta definición (7) se monta en la caja de soporte delante de la ranura de alcance. Dos trozos de papel negro (18) están montados a cada lado de la cámara (7) para mejorar el contraste de la pata en los espejos laterales (6). Debajo de la caja de soporte hay un marco (8) que soporta el actuador lineal (16) y el depósito de pellets (9). Un tubo guía que encierra la varilla de entrega de pellets (10) se ajusta al depósito de pellets y es controlado por el actuador lineal. Los orificios se cortan en el bastidor del actuador (17) y la caja de soporte (15) por encima del depósito de pellets para permitir que la varilla de entrega de pellets se mueva hacia arriba y hacia abajo libremente. La caja está iluminada con paneles de luz (11) montados en las paredes y el techo del armario. Haga clic aquí para ver una versión más grande de esta figura.

Figure 2
Figura 2: Estructurade prueba única .
(A) Comienza un ensayo con la varilla de entrega de pellets (controlada por un actuador lineal) situada en la posición "lista" (posición 2 – a medio camino entre el suelo y la parte inferior de la ranura de alcance). (B) La rata se mueve a la parte posterior de la cámara para romper el haz infrarrojo (IR), lo que hace que la varilla de entrega de pellets se eleve a la posición 3 (alineada con la parte inferior de la ranura de alcance). (C) La rata llega a través de la ranura de alcance para agarrar el pellet. Los alcances se detectan en tiempo real utilizando un framegrabber FPGA que detecta los cambios de intensidad de píxeles dentro de una región de interés (ROI) en la vista de espejo lateral directamente delante de la ranura. Cuando hay suficientes píxeles que coincidan con la "intensidad de pata" definida por el usuario, se activa la adquisición de vídeo. (D) Dos segundos más tarde el pellet se baja a la posición 1, recogiendo un nuevo pellet del depósito de pellets antes de restablecer a la posición 2. Haga clic aquí para ver una versión más grande de esta figura.

Figure 3
Figura 3: Imagen de calibración de muestra.
Una mano de ayuda se coloca dentro de la hábil cámara de alcance. Un clip de cocodrilo atraviesa la ranura de alcance para mantener el cubo de calibración en su lugar fuera de la cámara de alcance. Los tres patrones de tablero de ajedrez son totalmente visibles en la vista directa y las vistas de espejo correspondientes (verde: izquierda; rojo: superior; y azul: derecha). Haga clic aquí para ver una versión más grande de esta figura.

Figure 4
Figura 4: Posiciones de marcador esdecirdor del algoritmo de aprendizaje.
Columna izquierda: vista directa; columna derecha: vista de espejo. Marcadores 1–4: Juntas MCP; 5–8: Juntas PIP; 9–12: puntas de dígitos; 13: dorso de alcanzar la pata; 14: nariz; 15: dorso de pata no alcanzada. El marcador 16 (pellet) no es visible. Haga clic aquí para ver una versión más grande de esta figura.

Figure 5
Figura 5: Las ratas adquieren rápidamente la tarea de alcance automatizado.
Promedio de la tasa de éxito de primer alcance (verde, eje izquierdo) y pruebas totales promedio (azul, eje derecho) en las primeras 20 sesiones de entrenamiento en la tarea de alcance automatizado calificado (n a 19). Cada sesión de entrenamiento duró 30 minutos Las barras de error representan un error estándar de la media. Haga clic aquí para ver una versión más grande de esta figura.

Figure 6
Figura 6: Fotogramas de vídeo de ejemplo marcados por el programa de aprendizaje.
Columna izquierda: vista de espejo; columna derecha: vista directa. Los puntos cian, rojo, amarillo y verde marcan los dígitos 1–4, respectivamente. El punto blanco marca la nariz, el punto negro marca el pellet. Los círculos rellenos fueron identificados por DeepLabCut. Los círculos abiertos marcan las posiciones de los objetos estimadas por donde ese objeto apareció en la vista opuesta. Las X son puntos reproyectados en los fotogramas de vídeo a partir de las estimaciones de sus ubicaciones 3D. Este video se activó en el fotograma 300, cuando la pata pasó a través de la ranura. Las imágenes superiores son del primer fotograma cuando se detectó la pata de alcance. Las imágenes inferiores son del marco en el que se amplió al máximo el segundo dígito. Estos marcos fueron identificados por el software de procesamiento de imágenes. Haga clic aquí para ver una versión más grande de esta figura.

Figure 7
Figura 7: Trayectorias 3D de muestra de una sola sesión de prueba.
Ambos ejes muestran los mismos datos, pero girados para facilitar la presentación. Las líneas negras indican trayectorias medias. Cian, rojo, amarillo y verde son trayectorias individuales de las puntas de los dígitos 1–4, respectivamente. Las líneas azules indican la trayectoria de la pata dorsum. El gran punto negro indica el pellet de azúcar situado en (0,0,0). Esto representa sólo el avance inicial de la pata para facilitar la presentación (incluyendo retracciones y múltiples alcances hace que la figura sea casi ininterpretable). Sin embargo, todos los datos cinemáticos están disponibles para su análisis. Haga clic aquí para ver una versión más grande de esta figura.

Figure 8
Figura 8: Histogramas de números de fotogramas en los que se identificaron fases de alcance específicas para 2 sesiones diferentes.
En una sesión (líneas sólidas oscuras), los valores del disparador de ROI se establecieron cuidadosamente, y la pata fue identificada rompiendo la ranura dentro de los mismos fotogramas en cada ensayo. En la otra sesión (líneas discontinuas ligeras), la nariz a menudo se identificó erróneamente como la pata que llegaba, desencadenando la adquisición de video prematuramente. Tenga en cuenta que esto tendría poco efecto en los análisis cinemáticos fuera de línea a menos que no se capturara todo el alcance. Sin embargo, las posibles intervenciones desencadenadas por la pata que llega estarían mal cronometradas. Haga clic aquí para ver una versión más grande de esta figura.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

or Start trial to access full content. Learn more about your institution’s access to JoVE content here

El alcance especializado en roedores se ha convertido en una herramienta estándar para estudiar la fisiología del sistema motor y la fisiopatología. Hemos descrito cómo implementar una tarea automatizada de alcance experto en ratas que permite: entrenamiento y pruebas con supervisión mínima, reconstrucción de trayectoria de patas y dígitos 3D (durante el alcance, agarre y retracción de la pata), identificación en tiempo real de la pata durante el alcance, y la sincronización con la electrónica externa. Es adecuado para correlacionar la cinemática de las extremidades delanteras con la fisiología o para realizar intervenciones con precisión durante los movimientos de alcance.

Desde que informamos inicialmente de este diseño14,nuestra eficiencia de entrenamiento ha mejorado para que casi el 100% de las ratas adquieran la tarea. Hemos identificado varios factores importantes que conducen a una formación consistentemente exitosa. Al igual que con muchas tareas motivadas por el hambre, las ratas deben ser cuidadosamente monitoreadas durante la restricción calórica para mantener 80-90% de su peso corporal anticipado. Manejar las ratas diariamente, incluso antes del entrenamiento, es de vital importancia para aclimatarlas a los seres humanos. Las ratas deben ser entrenadas para llegar antes de aprender a regresar a la parte posterior de la cámara para solicitar pellets, esto reduce en gran medida el tiempo de entrenamiento y mejora la probabilidad de que las ratas adquieran la tarea. Finalmente, cuando se transfieren entre cámaras aparentemente idénticas, las ratas a menudo realizan menos alcances. Esto era especialmente cierto cuando las cámaras se utilizaban por primera vez. Especulamos que esto se debe a diferencias en el olor entre cámaras. Cualquiera que sea la razón, es importante mantener un entorno de entrenamiento lo más estable posible, o aclimatar las ratas a todas las cajas en las que se puedan realizar pruebas.

El aparato descrito aquí es fácilmente adaptable a necesidades específicas. Hemos descrito una versión de rata de la tarea, pero también hemos implementado una versión de ratón (aunque es difícil identificar dígitos individuales con DeepLabCut en ratones). Debido a que los fotogramas de vídeo individuales están marcados con pulsos TTL, los vídeos se pueden sincronizar con cualquier sistema de grabación que acepte entradas digitales o analógicas (por ejemplo, amplificadores de electrofisiología o fotometría). Por último, los ratones fijoscon cabeza realizan fácilmente un alcance experto que alcanza 9, y una versión fija de la cabeza de esta tarea podría implementarse para imágenes de 2 fotones o grabaciones yuxtacelulares. Es importante destacar que sólo hemos utilizado este sistema con ratas Long-Evans, cuya nariz y pelaje de pata (blanco y negro, respectivamente) difieren lo suficiente en color que los golpes nasales no se confunden con alcances (con la configuración de ROI adecuada, Figura 8). Esto puede ser un problema para ratas con coloración similar en sus patas y narices (por ejemplo, ratas albinas), pero podría resolverse coloreando la pata con tinta, esmalte de uñas o tatuajes.

La versión presentada de alcance experto tiene varias características distintas, que pueden ser ventajosas dependiendo de la aplicación específica. El hardware relativamente complicado y la necesidad de procesamiento de vídeo en tiempo real lo hacen poco adecuado para el entrenamiento de jaulas para el hogar6,7. Por otro lado, el entrenamiento en jaulas en el hogar dificulta la adquisición de vídeo de alta resolución de alta velocidad desde múltiples ángulos, o ate a los animales para grabaciones/intervenciones fisiológicas. Las tarjetas de adquisición de datos y el requisito de un ordenador por cámara hacen que cada cámara sea relativamente cara, y los videos requieren un espacio de almacenamiento digital significativo (200 MB por vídeo de 4 s). Hemos implementado una versión basada en microcontrolador más simple que cuesta alrededor de $300 por cámara, aunque carece de retroalimentación en tiempo real o la capacidad de sincronizar con dispositivos externos. Estas cajas son esencialmente idénticas a las descritas aquí, pero utilizan una videocámara comercial y no requieren un ordenador excepto para programar el microcontrolador (los detalles de esta configuración y el software asociado están disponibles bajo petición). El procesamiento de vídeo en tiempo real en el agarrador de fotogramas FPGA es especialmente útil; encontramos que identifica más robustamente los alcances en tiempo real que los haces infrarrojos o los sensores de proximidad (lo que puede confundir el hocivo de la rata con la pata que llega). Además, se pueden utilizar múltiples gatillos para identificar la pata en diferentes fases de alcance (por ejemplo, aproximación a la ranura, elevación de la pata, extensión a través de la ranura). Esto no sólo permite perturbaciones neuronales reproducibles y con tiempo preciso, sino que se pueden utilizar para desencadenar el almacenamiento de videos cortos de alta velocidad.

Si bien nuestra versión automatizada de alcance cualificado tiene varias ventajas para aplicaciones específicas, también tiene algunas limitaciones. Como se señaló anteriormente, la cámara de alta velocidad y alta resolución es moderadamente costosa, pero es necesaria para incluir vistas de espejo y directas en una sola imagen y capturar el movimiento de alcance muy rápido. El uso de una cámara elimina la necesidad de sincronizar y grabar múltiples secuencias de vídeo simultáneamente, o comprar varias cámaras y captadores de fotogramas. La pata en la vista reflejada está efectivamente aproximadamente dos veces más lejos de la cámara (por trazado de rayos) que en la vista directa. Esto significa que una de las vistas siempre está desenfocada, aunque el DLC sigue identificando de forma sólida dígitos individuales en ambas vistas (Figura4, Figura6). Finalmente, utilizamos una cámara a color porque, antes de la disponibilidad de DLC, probamos la codificación de color de los dígitos con tatuajes. Si bien es posible que este programa basado en el aprendizaje sea igualmente eficaz en vídeo en blanco y negro (o de menor resolución), solo podemos verificar la eficacia del hardware descrito aquí. Por último, nuestro código de análisis (que no sea DLC) está escrito principalmente en un paquete de software comercial (consulte Tabla de materiales),pero debe ser sencillo de adaptar a los lenguajes de programación de código abierto (por ejemplo, Python) según sea necesario.

Hay varias maneras en que estamos trabajando para mejorar este sistema. Actualmente, la vista de espejo está parcialmente ocluida por el panel frontal. Por lo tanto, hemos estado explorando maneras de obtener múltiples vistas simultáneas de la pata mientras minimizamos las obstrucciones. Otro desarrollo importante será puntuar automáticamente los alcances (el sistema puede rastrear la cinemática, pero un humano todavía debe puntuar con éxito frente a los alcances fallidos). Se han desarrollado métodos para determinar si los pellets fueron arrancados de la estantería/pedestal, pero no pueden determinar si el pellet fue agarrado o se perdió por completo11. Al rastrear el pellet con DLC, estamos explorando algoritmos para determinar el número de alcances por ensayo, así como si el pellet fue captado, derribado del pedestal o perdido por completo. En esta línea, también estamos trabajando para automatizar completamente el flujo de trabajo desde la recopilación de datos hasta la conversión de vídeo, el procesamiento de DLC y la puntuación automática. En última instancia, imaginamos un sistema en el que se pueden ejecutar múltiples experimentos en un día, y a la mañana siguiente se han determinado la cinemática completa de las extremidades anteriores y las puntuaciones de alcance de cada experimento.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Los autores no tienen nada que revelar.

Acknowledgments

Los autores quieren agradecer a Karunesh Ganguly y a su laboratorio por su consejo sobre la hábil tarea de llegar, y Alexander y Mackenzie Mathis por su ayuda en la adaptación de DeepLabCut. Este trabajo fue apoyado por el Instituto Nacional de Enfermedades Neurológicas y Accidentes Cerebrovasculares (número de subvención K08-NS072183) y la Universidad de Michigan.

Materials

Name Company Catalog Number Comments
clear polycarbonate panels TAP Plastics cut to order (see box design)
infrared source/detector Med Associates ENV-253SD 30" range
camera Basler acA2000-340kc 2046 x 1086 CMV2000 340 fps Color Camera Link
camera lens Megapixel (computar) M0814-MP2 2/3" 8mm f1.4 w/ locking Iris & Focus
camera cables Basler #2000031083 Cable PoCL Camera Link SDR/MDR Full, 5 m - Data Cables
mirrors Amazon
linear actuator Concentrics LACT6P Linear Actuator 6" Stroke (nominal), 110 Lb Force, 12 VDC, with Potentiometer
pellet reservoir/funnel Amico (Amazon) a12073000ux0890 6" funnel
guide tube ePlastics ACREXT.500X.250 1/2" OD x 1/4" ID Clear. Extruded Plexiglass Acrylic Tube x 6ft long
pellet delivery rod ePlastics ACRCAR.250 0.250" DIA. Cast Acrylic Rod (2' length)
plastic T connector United States Plastic Corp #62065 3/8" x 3/8" x 3/8" Hose ID Black HDPE Tee
LED lights Lighting EVER 4100066-DW-F 12V Flexible Waterproof LED Light Strip, LED Tape, Daylight White, Super Bright 300 Units 5050 LEDS, 16.4Ft 5 M Spool
Light backing ePlastics ACTLNAT0.125X12X36 0.125" x 12" x 36" Natural Acetal Sheet
Light diffuser films inventables 23114-01 .007x8.5x11", matte two sides
cabinet and custom frame materials various (Home Depot, etc.) 3/4" fiber board (see protocol for dimensions of each structure)
acoustic foam Acoustic First FireFlex Wedge Acoustical Foam (2" Thick)
ventilation fans Cooler Master (Amazon) B002R9RBO0 Rifle Bearing 80mm Silent Cooling Fan for Computer Cases and CPU Coolers
cabinet door hinges Everbilt (Home Depot #14609 continuous steel hinge (1.4" x 48")
cabinet wheels Everbilt (Home Depot #49509 Soft rubber swivel plate caster with 90 lb. load rating and side brake
cabinet door handle Everbilt (Home Depot #15094 White light duty door pull (4.5")
computer Hewlett Packard Z620 HP Z620 Desktop Workstation
Camera Link Frame Grabber National Instruments #781585-01 PCIe-1473 Virtex-5 LX50 Camera Link - Full
Multifunction RIO Board National Instruments #781100-01 PCIe-17841R
Analog RIO Board Cable National Instruments SCH68M-68F-RMIO Multifunction Cable
Digital RIO Board Cable National Instruments #191667-01 SHC68-68-RDIO Digital Cable for R Series
Analog Terminal Block National Instruments #782536-01 SCB-68A Noise Rejecting, Shielded I/O Connector Block
Digital Terminal Block National Instruments #782536-01 SCB-68A Noise Rejecting, Shielded I/O Connector Block
24 position relay rack Measurement Computing Corp. SSR-RACK24 Solid state relay backplane (Gordos/OPTO-22 type relays), 24-channel
DC switch Measurement Computing Corp. SSR-ODC-05 Solid state relay module, single, DC switch, 3 to 60 VDC @ 3.5 A
DC Sense Measurement Computing Corp. SSR-IDC-05 solid state relay module, single, DC sense, 3 to 32 VDC
DC Power Supply BK Precision 1671A Triple-Output 30V, 5A Digital Display DC Power Supply
sugar pellets Bio Serv F0023 Dustless Precision Pellets, 45 mg, Sucrose (Unflavored)
LabVIEW National Instruments LabVIEW 2014 SP1, 64 and 32-bit versions 64-bit LabVIEW is required to access enough memory to stream videos, but FPGA coding must be performed in 32-bit LabVIEW
MATLAB Mathworks Matlab R2019a box calibration and trajectory reconstruction software is written in Matlab and requires the Computer Vision toolbox

DOWNLOAD MATERIALS LIST

References

  1. Chen, J., et al. An automated behavioral apparatus to combine parameterized reaching and grasping movements in 3D space. Journal of Neuroscience Methods. (2018).
  2. Sacrey, L. A. R. A., Alaverdashvili, M., Whishaw, I. Q. Similar hand shaping in reaching-for-food (skilled reaching) in rats and humans provides evidence of homology in release, collection, and manipulation movements. Behavioural Brain Research. 204, 153-161 (2009).
  3. Whishaw, I. Q., Kolb, B. Decortication abolishes place but not cue learning in rats. Behavioural Brain Research. 11, 123-134 (1984).
  4. Klein, A., Dunnett, S. B. Analysis of Skilled Forelimb Movement in Rats: The Single Pellet Reaching Test and Staircase Test. Current Protocols in Neuroscience. 58, 8.28.1-8.28.15 (2012).
  5. Whishaw, I. Q., Pellis, S. M. The structure of skilled forelimb reaching in the rat: a proximally driven movement with a single distal rotatory component. Behavioural Brain Research. 41, 49-59 (1990).
  6. Zeiler, S. R., et al. Medial premotor cortex shows a reduction in inhibitory markers and mediates recovery in a mouse model of focal stroke. Stroke. 44, 483-489 (2013).
  7. Fenrich, K. K., et al. Improved single pellet grasping using automated ad libitum full-time training robot. Behavioural Brain Research. 281, 137-148 (2015).
  8. Azim, E., Jiang, J., Alstermark, B., Jessell, T. M. Skilled reaching relies on a V2a propriospinal internal copy circuit. Nature. (2014).
  9. Guo, J. Z. Z., et al. Cortex commands the performance of skilled movement. Elife. 4, e10774 (2015).
  10. Nica, I., Deprez, M., Nuttin, B., Aerts, J. M. Automated Assessment of Endpoint and Kinematic Features of Skilled Reaching in Rats. Frontiers in Behavioral Neuroscience. 11, 255 (2017).
  11. Wong, C. C., Ramanathan, D. S., Gulati, T., Won, S. J., Ganguly, K. An automated behavioral box to assess forelimb function in rats. Journal of Neuroscience Methods. 246, 30-37 (2015).
  12. Torres-Espín, A., Forero, J., Schmidt, E. K. A., Fouad, K., Fenrich, K. K. A motorized pellet dispenser to deliver high intensity training of the single pellet reaching and grasping task in rats. Behavioural Brain Research. 336, 67-76 (2018).
  13. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21, 1281-1289 (2018).
  14. Ellens, D. J., et al. An automated rat single pellet reaching system with high-speed video capture. Journal of Neuroscience Methods. 271, 119-127 (2016).
Rata automatizada de un solo pellet alcanzando la reconstrucción tridimensional de trayectorias de patas y dígitos
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Bova, A., Kernodle, K., Mulligan, K., Leventhal, D. Automated Rat Single-Pellet Reaching with 3-Dimensional Reconstruction of Paw and Digit Trajectories. J. Vis. Exp. (149), e59979, doi:10.3791/59979 (2019).More

Bova, A., Kernodle, K., Mulligan, K., Leventhal, D. Automated Rat Single-Pellet Reaching with 3-Dimensional Reconstruction of Paw and Digit Trajectories. J. Vis. Exp. (149), e59979, doi:10.3791/59979 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
simple hit counter