Waiting
Login-Verarbeitung ...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Una plataforma flexible para monitorear el aprendizaje asociativo sensorial dependiente del cerebelo

Published: January 19, 2022 doi: 10.3791/63205

Summary

Hemos desarrollado una plataforma única para rastrear el comportamiento animal durante dos tareas de aprendizaje asociativo dependientes de la fibra de escalada. El diseño de bajo costo permite la integración con experimentos optogenéticos o de imágenes dirigidos a la actividad cerebelosa asociada a la fibra de escalada.

Abstract

La escalada de entradas de fibra a las células de Purkinje proporciona señales instructivas críticas para el aprendizaje asociativo dependiente del cerebelo. El estudio de estas señales en ratones con cabeza fija facilita el uso de métodos de imagen, electrofisiológicos y optogenéticos. Aquí, se desarrolló una plataforma de comportamiento de bajo costo (~ $ 1000) que permite el seguimiento del aprendizaje asociativo en ratones con cabeza fija que se vuelven libremente en una rueda de carrera. La plataforma incorpora dos paradigmas comunes de aprendizaje asociativo: el acondicionamiento del parpadeo ocular y el acondicionamiento de sobresalto táctil retardado. El comportamiento se rastrea utilizando una cámara y el movimiento de la rueda por un detector. Describimos los componentes y la configuración y proporcionamos un protocolo detallado para la capacitación y el análisis de datos. Esta plataforma permite la incorporación de estimulación optogenética e imagen de fluorescencia. El diseño permite que una sola computadora host controle múltiples plataformas para entrenar a múltiples animales simultáneamente.

Introduction

El condicionamiento pavloviano de la asociación subsegundo entre estímulos para provocar una respuesta condicionada se ha utilizado durante mucho tiempo para sondear el aprendizaje dependiente del cerebelo. Por ejemplo, en el acondicionamiento clásico de retardo del parpadeo ocular (DEC), los animales aprenden a hacer un parpadeo protector bien oportuno en respuesta a un estímulo condicional neutro (CS; por ejemplo, un destello de luz o tono auditivo) cuando se combina repetidamente con un estímulo incondicional (US; por ejemplo, una bocanada de aire aplicada a la córnea) que siempre provoca un parpadeo reflejo, y que llega al final o cerca del final del CS. La respuesta aprendida se conoce como respuesta condicionada (RC), mientras que la respuesta refleja se conoce como respuesta incondicionada (UR). En conejos, las lesiones específicas del cerebelo interrumpen esta forma de aprendizaje 1,2,3,4. Además, los picos complejos celulares de Purkinje, impulsados por sus entradas de fibra ascendente5, proporcionan una señal necesaria de 6,7 y 8,9 suficiente para la adquisición de CR correctamente sincronizados.

Más recientemente, se han desarrollado paradigmas de aprendizaje asociativo dependientes de la fibra para ratones con cabeza fija. DEC fue el primer paradigma de aprendizaje asociativo que se adaptó a esta configuración10,11. El DEC en ratones fijos de cabeza se ha utilizado para identificar regiones cerebelosas 11,12,13,14,15,16,17 y elementos de circuito 11,1 2,13,14,15,18,19 que son necesarios para la adquisición y extinción de tareas. Este enfoque también se ha utilizado para demostrar cómo evoluciona la representación fisiológica a nivel celular de los parámetros de la tarea con el aprendizaje 13,15,16.

Además del parpadeo ocular, el paradigma del acondicionamiento táctil de sobresalto retardado (DTSC) se desarrolló recientemente como una novedosa tarea de aprendizaje asociativo para ratones con cabeza fija20. Conceptualmente similar al DEC, DTSC implica la presentación de un CS neutro con un US, un toque en la cara suficiente en intensidad para activar un reflejo de sobresalto21,22 como el UR. En el paradigma DTSC, tanto el UR como el CR se leen como locomoción hacia atrás en una rueda. DTSC ahora se ha utilizado para descubrir cómo el aprendizaje asociativo altera la actividad cerebelosa y los patrones de expresión génica20.

En este trabajo, se desarrolló un método para aplicar de manera flexible DEC o DTSC en una sola plataforma. Los atributos de estímulo y plataforma se esquematizan en la Figura 1. El diseño incorpora la capacidad de rastrear el comportamiento de los animales con una cámara, así como un codificador giratorio para rastrear la locomoción del mouse en una rueda. Todos los aspectos del registro de datos y la estructura de prueba están controlados por microcontroladores emparejados (Arduino) y una computadora de placa única (SBC; Raspberry Pi). Se puede acceder a estos dispositivos a través de una interfaz gráfica de usuario proporcionada. Aquí, presentamos un flujo de trabajo para la configuración, preparación y ejecución de experimentos, y una canalización de análisis personalizada para la visualización de datos.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Los protocolos de animales descritos aquí han sido aprobados por los Comités de Cuidado y Uso de Animales de la Universidad de Princeton.

1. Configuración del SBC

  1. Conecte el cable de interfaz serie de la cámara (CSI) a la cámara Raspberry NoIR V2 y al puerto de la cámara en el SBC.
  2. Descargue el sistema operativo del SBC en el equipo host. Escriba la imagen del sistema operativo en una tarjeta digital micro segura (microSD).
    NOTA: Las instrucciones detalladas para estos procedimientos para un SBC de Raspberry Pi se pueden encontrar en otra parte23. El sistema ha sido probado utilizando los siguientes sistemas operativos: Stretch, Buster, Bullseye.
  3. Para habilitar la comunicación segura del shell, cree un archivo sin extensión llamado "ssh" en la partición de arranque de la tarjeta microSD. Una vez hecho esto, expulse la tarjeta microSD de la máquina host e insértela en la ranura para tarjetas microSD SBC. Alimente el SBC enchufando su fuente de alimentación.
  4. Prepare el SBC para aceptar una conexión por cable al host.
    1. Conecte un monitor con un cable apropiado al SBC. Abra un terminal, escriba el comando ifconfig y registre la dirección IP Ethernet del SBC.
      NOTA: Raspberry Pi modelo 3B + tiene un puerto de pantalla HDMI, mientras que el modelo 4B tiene un puerto micro-HDMI.
    2. Vaya a la pestaña Interfaz de la configuración de Raspberry Pi y habilite las opciones de Cámara, Protocolo de red de shell seguro (SSH) y Computación de red virtual (VNC).
  5. Establezca una conexión por cable entre el equipo host y el SBC.
    1. Conecte un cable Ethernet al puerto Ethernet del SBC y a un ordenador host. Conecte el otro extremo de estos cables a un conmutador Ethernet.
    2. Utilice un cliente informático de red virtual como VNC viewer24 y acceda al escritorio utilizando la dirección IP SBC y la autenticación predeterminada (usuario = "pi", contraseña = "raspberry").
  6. Descargue el software requerido incluido en los pasos del protocolo.
    PRECAUCIÓN: Cambie el nombre de usuario y la contraseña predeterminados para evitar el acceso no autorizado al SBC.
    1. Introduzca el siguiente comando en el terminal SBC para descargar el software de la plataforma:
      git clon --depth=1 https://github.com/gerardjb/assocLearnRig
    2. Ingrese los siguientes comandos para descargar las bibliotecas de Python necesarias.
      cd assocLearnRig
      python3 setup.py
    3. Para permitir el control directo sobre el microcontrolador, conéctese al SBC y descargue el entorno de desarrollo integrado (IDE) del microcontrolador siguiendo los pasos 1.6.4-1.6.7.
    4. Abra el navegador web en el escritorio SBC y navegue hasta https://arduino.cc/en/software. Descargue la última versión de Linux ARM de 32 bits del IDE.
    5. Abra una ventana de terminal en el escritorio SBC y navegue hasta el directorio de descargas escribiendo cd Downloads/
    6. Para instalar el IDE, escriba los siguientes comandos en el terminal:
      tar -xf arduino--linuxarm.tar.xz
      sudo mv arduino- /opt
      sudo /opt/arduino-/install.sh

      (aquí es la versión del IDE descargado)
    7. Abra una instancia del IDE del microcontrolador en el escritorio SBC. Seleccione la opción de menú Herramientas > Administrar bibliotecas. Instale la biblioteca "Encoder" de Paul Stoffregen.
  7. Expanda la memoria integrada SBC con una unidad USB.
    1. Inserte una unidad USB en un puerto USB del SBC. Utilice un puerto USB 3.0 si está disponible.
    2. Escriba en el terminal ls -l /dev/disk/by-uuid/ para encontrar la unidad USB y su referencia única (UUID). Registre el UUID.
    3. Para permitir que el usuario pi escriba en el dispositivo USB, escriba los siguientes comandos uno por uno en el terminal:
      sudo mkdir /media/usb
      sudo chown -R pi:pi /media/usb
      sudo mount /dev/sda1 /media/usb -o uid=pi,gid=pi
      NOTA: La unidad USB se puede agregar como un dispositivo que se montará automáticamente cuando se reinicie el SBC agregando la siguiente línea al final del archivo fstab en /etc/fstab:
      UUID= /media/usb vfat auto,nofail,noatime,users,rw,uid=pi,gid=pi 0 0

2. Cableado de hardware de estímulo y etapa de ensamblaje

  1. Conecte y prepare microcontroladores.
    1. Conecte el SBC al puerto de programación del microcontrolador (Arduino Due) con un micro cable USB2 tipo A a USB2.
      NOTA: Utilice un cable de alta calidad como el producto en la Tabla de Materiales para garantizar un funcionamiento adecuado.
    2. Busque "dueAssocLearn.ino" en el repositorio de proyectos descargado. Abra el boceto con el IDE del microcontrolador y cárguelo en el microcontrolador conectado al SBC.
    3. Descargue e instale la versión adecuada del IDE de Arduino en el equipo host.
    4. Conecte el ordenador host al microcontrolador (Arduino Uno) con un cable USB2 tipo B a USB2 tipo A.
    5. Vaya al repositorio de GitHub (https://github.com/gerardjb/assocLearnRig) y descargue el boceto "DTSC_US.ino" en la computadora host.
    6. En el equipo host, ejecute el IDE del microcontrolador y abra el boceto "DTSC_US.ino", luego cárguelo en el microcontrolador.
  2. Conecte cables a los microcontroladores, placa de pruebas, LED, codificador rotativo, motor paso a paso con controlador y válvula solenoide con controlador como se indica en el diagrama de Fritzing en la Figura 2.
  3. Encienda el motor paso a paso y la válvula solenoide.
    1. Conecte correctamente un canal de una fuente de alimentación a los pines +V y GND del controlador del motor paso a paso.
    2. Encienda la fuente de alimentación y ajuste el voltaje del canal conectado a 25 V.
      NOTA: Si las conexiones entre el motor paso a paso, el controlador y la fuente de alimentación están configuradas correctamente, se encenderá un LED indicador verde en el controlador del motor paso a paso.
    3. Conecte correctamente el cable positivo de una fuente de alimentación al pin de voltaje de retención del controlador de la válvula solenoide y el otro cable positivo al pin de voltaje de pico.
    4. Conecte los cables negativos a un suelo compartido con la señal de control.
    5. Encienda la fuente de alimentación y ajuste el canal conectado al voltaje de retención a aproximadamente 2.5 V y el canal conectado al voltaje de pico a aproximadamente 12 V.
  4. Conecte una fuente de aire regulada a una presión de ~20 PSI a la válvula solenoide utilizando el adaptador luer.
  5. Pruebe que todos los componentes del estímulo y la cámara funcionan correctamente.
    1. Abra un terminal en el SBC y escriba cd ~/assocLearnRig para navegar al repositorio clonado de GitHub.
    2. En el terminal, escriba python3 assocLearnRig_app.py para iniciar la interfaz gráfica de usuario de control.
    3. Inicie la transmisión de la cámara presionando el botón Transmitir .
    4. Seleccione el botón de opción DEC , cárguelo en el microcontrolador e inicie una sesión con los parámetros predeterminados pulsando el botón Iniciar sesión .
      NOTA: Después de este paso, debe aparecer una impresión del registro de datos en el terminal, el mensaje en el flujo de la cámara debe desaparecer y el LED CS y la válvula solenoide US deben encenderse y apagarse en los momentos apropiados durante cada prueba.
    5. Una vez finalizada la sesión, repita los pasos anteriores con el botón de opción DTSC seleccionado.
      NOTA: Los bocetos en el repositorio de GitHub ("testStepper.ino", "testRotary.ino" y "testSolenoid.ino") se pueden usar para probar componentes individuales si los pasos anteriores no proporcionan resultados satisfactorios.
  6. Hacer la rueda de carrera.
    1. Cortar una rueda de 3" de un rodillo de espuma. Perfore un orificio de 1/4 "en el centro exacto de la rueda para que la rueda no se tambalee cuando sea girada por la locomoción del mouse.
    2. Inserte un eje de 1/4" en la rueda y fíjelo en su lugar utilizando bujes de sujeción colocados a cada lado de la rueda.
  7. Coloque el codificador rotativo en un canal de aluminio de 4,5" con un perno M3. Estabilice el canal de aluminio en la placa de pruebas de aluminio utilizando un soporte de ángulo recto con un perno, tuerca y arandela de 1/4 "como se muestra.
  8. Conecte la rueda y el codificador giratorio mediante un manguito de acoplamiento de eje.
  9. Estabilice el lado libre del eje de la rueda con un rodamiento insertado en una abrazadera de extremo de ángulo recto instalada en un poste óptico montado en la placa de pruebas.
    NOTA: Asegúrese de que la rueda gire libremente sin tambalearse cuando se gira a mano.
  10. Coloque el hardware de estímulo, el reposacabezas, la matriz de luz infrarroja y la picamera alrededor de la rueda ensamblada.
    1. Coloque los reposacabezas con postes ópticos y abrazaderas de poste de ángulo recto de modo que los reposacabezas estén a 1,5 cm por delante del eje de la rueda y a 2 cm por encima de la superficie de la rueda. (Los valores son para un ratón de 20 g).
    2. Coloque el LED CS y la salida de la válvula solenoide utilizada para el DEC US a menos de 1 cm del ojo utilizado para el DEC.
    3. Monte el motor paso a paso utilizado para el DTSC US
    4. Monte la picamera en un poste óptico a ~ 10 cm de donde estará el animal.
      NOTA: El diseño para el montaje picamera se puede realizar en una impresora 3D desde el archivo en "RaspPiCamMount1_1.stl" en el repositorio de GitHub.
    5. Coloque la matriz de luz infrarroja ligeramente por encima y directamente frente a la posición de la cara en el mismo lado que la picamera.
    6. Haga un estímulo táctil para DTSC pegando espuma en el borde de una pieza de acrílico montada en un eje de 1/4 "usando un cubo de sujeción. Conecte el estímulo táctil al eje del motor paso a paso.
      NOTA: El diseño de la pieza acrílica se puede cortar con láser siguiendo el patrón en "TactileStimDesign.pdf" en el repositorio de GitHub.

3. Preparación y ejecución de experimentos de comportamiento

  1. Implantación de la placa frontal del ratón.
    1. Anestesiar un ratón con 2% de isoflurano y fijación de la cabeza en un marco estereotáctico.
    2. Aplique un ungüento oftálmico en los ojos.
    3. Afeitar el cuero cabelludo con agua jabonosa y un bisturí estéril. Inyecte lidocaína directamente debajo de la piel del sitio de la incisión y limpie el sitio quirúrgico con povidona.
    4. Haga una incisión con un bisturí a lo largo de la línea media del cuero cabelludo desde el borde posterior de los ojos hasta el borde posterior del cráneo, teniendo cuidado de no presionar demasiado fuerte el cráneo.
    5. Abra la incisión y pince ambos lados con hemostáticos estériles para mantenerla abierta. Retire suavemente el periostio con un hisopo de algodón sumergido con etanol y deje que la superficie del cráneo expuesto se seque.
    6. Coloque el nivel de la placa de la cabeza en el cráneo, asegurándose de colocar la parte frontal de la placa de la cabeza posterior a los ojos. Use pegamento de cianoacrilato para unir la placa de la cabeza al cráneo y permita que el pegamento se seque por completo.
    7. Mezcle el polvo de cemento dental (1 cucharada), el disolvente (2 gotas) y el catalizador (1 gota) en una fuente de mezcla y aplíquelo a todas las áreas del hueso expuesto. Agregue capas hasta que la superficie esté al ras con el borde superior de la placa frontal, asegurándose de que la placa frontal esté firmemente unida al cráneo.
    8. Sutura la piel cerrada detrás y delante de la placa de la cabeza si es necesario.
    9. Inyecte analgesia postoperatoria como carprofeno según las pautas institucionales mientras permite que el animal se recupere durante al menos 5 días.
  2. Preparación para las sesiones de comportamiento.
    1. Permita que los animales de prueba se habitúen a la plataforma montándolos en el reposacabezas durante sesiones de 30 minutos durante 5 días antes de los experimentos.
      NOTA: Al final de las sesiones de habituación, los animales deben correr cómodamente sobre la rueda.
    2. (Solo DEC) Antes de las sesiones, asegúrese de que la salida de la válvula solenoide esté centrada en el ojo objetivo colocado a >1 cm de distancia.
    3. (Solo DEC) Acciona manualmente una bocanada de aire con el botón pulsador. Asegúrese de que el ratón produzca rápidamente un parpadeo sin mostrar signos manifiestos de estrés, como adoptar una postura encorvada o agarrar la región periocular afectada con la pata anterior ipsilateral.
    4. (Solo DTSC) Antes de las sesiones, asegúrese de que el estímulo táctil esté centrado en la nariz del animal colocada a ~ 1,5 cm de distancia.
      NOTA: Cuando una sesión de comportamiento DTSC no se está ejecutando, el motor paso a paso se desactiva automáticamente para permitir el reposicionamiento manual.
    5. (Solo DTSC) En el terminal SBC, escriba python3 assocLearnRig_app.py para iniciar la GUI.
    6. (Solo DTSC) Ejecute una sesión de prueba de tres pruebas con los parámetros predeterminados presionando el botón Iniciar sesión en la GUI.
    7. (Solo DTSC) Asegúrese de que los datos registrados que se imprimen en el terminal muestran una desviación de más de 20 pero menos de 100 pasos registrados en el codificador giratorio después de los EE. UU. en cada prueba.
      PRECAUCIÓN: Para evitar daños y reducir el estrés al animal, comience el estímulo más lejos del animal y acérquelo más cerca hasta que se cumplan las condiciones requeridas.
  3. Ejecución de sesiones de comportamiento con registro de datos.
    1. Monte un ratón en el reposacabezas.
    2. En el terminal del SBC, escriba python3 assocLearnRig_app.py para iniciar la GUI.
    3. Para permitir grabaciones de cámara durante las pruebas de comportamiento, presione el botón Transmitir .
      NOTA: Las sesiones se pueden ejecutar sin una cámara. En este caso, solo se registran los datos del codificador rotativo y las marcas de tiempo de presentación de estímulos.
    4. Ingrese la información de identificación del animal en el campo Identificación de animal y presione el botón Establecer .
    5. Seleccione el DEC o el DTSC en el botón de opción situado debajo del encabezado Tipo de sesión en función del paradigma de comportamiento que se desee.
    6. Ingrese los parámetros de experimento deseados en los campos debajo del campo Animal ID y presione el botón Cargar en Arduino .
      NOTA: Los detalles de los parámetros del experimento se pueden encontrar en la sección README del repositorio de GitHub.
    7. Presione el botón Iniciar sesión para comenzar la sesión.
    8. Cuando se inicializa una sesión, los datos comenzarán a registrarse en un nuevo directorio creado en "/media/usb" en el punto de montaje de la unidad USB SBC.

4. Exportación y análisis de datos

  1. Para exportar todas las sesiones grabadas al equipo host, abra un símbolo del sistema e introduzca el comando pscp -r pi@Pi_IP_address:/media/usb* host_computer_destination y, a continuación, autentique con la contraseña SBC.
    NOTA: El comando anterior es para una máquina con Windows. En máquinas Mac y Linux, use terminal y reemplace "pscp" por "scp".
  2. Instale Anaconda25 u otro administrador de paquetes de Python (PPM) en el equipo host.
  3. Vaya al repositorio de GitHub y descargue "analyzeSession.py", "summarizeSessions.py", "session2mp4s.py" y "requirementsHost.txt".
  4. Abra un mensaje PPM y escriba conda install --file directory_containing_requirementsHostrequirements Host.txt para asegurarse de que la instalación del paquete Python tenga las bibliotecas de Python necesarias.
  5. En el símbolo del sistema, escriba cd directory_containing_analyzeData para navegar al directorio que contiene "analyzeData.py" y "session2mp4s.py". Ejecute el programa de análisis escribiendo python analyzeSession.py
    NOTA: Se generará un mensaje de error si se utiliza una versión de Python 2 como python. Para comprobar la versión, escriba python -V en el símbolo del sistema.
  6. Seleccione el directorio que contiene los datos cuando se le solicite. Los directorios con múltiples subdirectorios se analizarán secuencialmente.
  7. Para las sesiones DEC, para cada directorio de sesión analizado, seleccione una región de interés (ROI) que contenga el ojo del ratón de una imagen promedio de prueba.
    NOTA: Los archivos de datos de análisis final y los gráficos de resumen se rellenarán en un subdirectorio de cada directorio de sesión analizado.
  8. Escriba python summarizeSessions.py para generar datos de resumen en varias sesiones.
  9. Escriba el mensaje de python session2mp4s.py para convertir archivos de datos de imágenes en archivos de .mp4 visibles.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Flujo de trabajo para experimentos y análisis DEC
La selección adecuada de parámetros experimentales es importante para el entrenamiento exitoso de acondicionamiento de parpadeo ocular retardado (DEC). Para los datos presentados aquí, se utilizó la GUI para elegir una duración de CS de 350 ms y una duración de US de 50 ms. Este emparejamiento da como resultado un intervalo entre estímulos de 300 ms: lo suficientemente largo como para evitar la producción de RC de baja amplitud10 y lo suficientemente corto como para evitar entrar en el régimen de aprendizaje deficiente o acondicionamiento de trazas, un proceso que involucra regiones cerebrales adicionales11. El tiempo entre ensayos se estableció utilizando los campos BAJO Y ALTO de ITI para ser elegidos al azar uniformemente de un rango de 5-15 s. La aleatorización de los intervalos entre ensayos hace que sea imposible para los sujetos animales usar señales de tiempo que no sean el CS y los propios ESTADOS Unidos para el desempeño de las tareas.

La inclusión de ensayos que omiten el CS o el US permite la evaluación de la cinemática CR y UR incluso en animales entrenados. El usuario puede definir la proporción de ensayos en los que CS y US se emparejan o se presentan de forma aislada. En los datos presentados aquí, se realizaron todas las sesiones en ensayos de solo SC al 10%, con ensayos pareados que constituyeron el resto y ningún ensayo solo de EE. UU. Tenga en cuenta que incluir un número excesivo de ensayos no emparejados puede tener un impacto negativo en el entrenamiento. Por ejemplo, las sesiones con más del 50% de los ensayos no emparejados se utilizan comúnmente para impulsar la extinción de los CR en animales entrenados19,26.

La preparación de la cámara y las condiciones de iluminación también son fundamentales para adquirir datos de alta calidad. La velocidad de fotogramas de adquisición se puede ajustar en el software de adquisición Picamera. En los datos presentados aquí, establecemos una velocidad de fotogramas de 120 Hz para los experimentos DEC. El módulo Picamera en sí permite velocidades de fotogramas de hasta ~ 200 Hz, pero encontramos que las tasas más bajas evitan la pérdida de fotogramas y brindan una resolución temporal adecuada para el seguimiento de los párpados. La luz infrarroja debe colocarse para iluminar el pelaje periocular de manera uniforme sin crear una reflexión excesiva de la córnea cuando el ojo está abierto. La figura 3A muestra una imagen de muestra de una sesión de grabación con una iluminación aceptable. El software de adquisición de picamera (picameraStream.py) está diseñado para proporcionar configuraciones consistentes a lo largo de una sesión configurando y manteniendo el balance de blancos y la ganancia de la cámara en función de las condiciones de iluminación cuando se inicializa la cámara.

Una vez que se inicializa una sesión de comportamiento, los datos de la cámara y otros componentes de hardware de la plataforma se registrarán automáticamente. Los registros de datos se crean en un directorio nombrado por la entrada de fecha y valor en el campo de identificación de animal en la GUI. Los marcos de la cámara y las marcas de tiempo para cada prueba se almacenan en archivos individuales que se nombran utilizando la identificación del animal, la fecha del experimento y el número de prueba. Los eventos de la plataforma para cada sesión, incluida la velocidad de la rueda, los inicios de prueba, las paradas de prueba y la sincronización de CS y US, se guardan como un único archivo de .txt.

Los datos transferidos a la máquina host se pueden analizar como se describe en la sección 4 del protocolo. La ejecución de analyzeData.py en un directorio de destino creará un contenedor .npy para la posición del párpado en comparación con el tiempo para todas las pruebas en una matriz basada en el análisis de los archivos de la cámara. Este archivo contenedor se crea en el directorio que se analiza. Una vez que se han analizado todas las sesiones para un animal determinado, todas las sesiones se pueden alinear y concatenar utilizando summarizeSessions.py. Los resultados de un animal entrenado durante 8 sesiones de DEC se muestran en la Figura 3B. Además, las pruebas individuales se pueden representar como archivos .mp4 visibles mediante la utilidad session2mp4s.py. Esta utilidad imprime un cuadrado en la esquina superior izquierda de la película para indicar cuándo se aplican el CS y us. Los ensayos DEC de muestra preparados de esta manera se presentan uno al lado del otro como Video Complementario 1. El panel izquierdo muestra un ensayo en el que el animal cierra con éxito el ojo en respuesta al LED CS. En el panel derecho, el animal no parpadea hasta que comienza Estados Unidos.

Los animales entrenados en DEC siguiendo los protocolos de la sección 3 y registrados con las consideraciones anteriores deben mostrar evidencia clara de RC oportunas adquiridas gradualmente durante varios días de entrenamiento. En la Figura 3B se presentan ejemplos de trazas de comportamiento sin CR en un animal no entrenado y trazas que contienen CR robustos de un animal entrenado. Como muestran estos rastros, los animales ingenuos no deberían mostrar una respuesta a la CS, sino una respuesta robusta a los Estados Unidos. Las RC deben aumentar progresivamente tanto en tamaño como en frecuencia a través de sesiones de comportamiento realizadas a lo largo de los días (Figura 3B-D). Por el contrario, las condiciones de iluminación subóptimas limitan severamente la calidad de los datos adquiridos. Cuando el contraste entre el ojo y el pelaje circundante es bajo (Figura 3E), ligeros cambios en la imagen pueden alterar significativamente la forma grabada de la UR durante una sola sesión y disminuir la relación señal-ruido para detectar la posición del párpado (Figura 3F-G).

Para garantizar grabaciones de párpados de alta fidelidad, la colocación óptima de la fuente de luz es fundamental. El LED de iluminación debe entrenarse directamente en el ojo grabado. Si la colocación resulta en un deslumbramiento excesivo en la superficie corneal, se puede colocar un difusor sobre la matriz de LED para reducir este efecto.

Flujo de trabajo para experimentos y análisis DTSC
Muchas de las consideraciones para la selección de parámetros experimentales son similares entre el acondicionamiento de sobresalto táctil de retardo (DTSC) y DEC. Aquí, señalaremos aquellos que difieren. En los datos de ejemplo, la duración de DTSC CS se estableció en 250 ms con una duración estadounidense de 50 ms. Este intervalo interestimulo más corto fue elegido para alinearse estrechamente con la duración más corta descrita como óptima para el aprendizaje DTSC20. Otros parámetros de la plataforma establecidos a través de la GUI eran idénticos a los utilizados para DEC.

La colocación adecuada del estímulo táctil es fundamental para el aprendizaje en DTSC. Montamos el estímulo táctil de tal manera que el extremo de espuma se centra ligeramente por encima de la nariz del animal a una distancia de aproximadamente 1,5 cm cuando está en la posición neutral. Una vez montado, el estímulo se puede girar con la mano cuando una sesión no está en marcha. Durante las sesiones, el motor paso a paso mantiene el estímulo en un lugar preciso hasta que se activa un US. Para garantizar que el posicionamiento sea correcto, llevamos a cabo una sesión preparatoria de alrededor de tres ensayos. Los eventos registrados en el codificador rotativo se imprimen en la pantalla del terminal, y esta impresión se puede utilizar para controlar la amplitud de las OR de los animales en tiempo real. Si bien la amplitud máxima variará de un ensayo a otro, los animales con un máximo promedio de ~ 40 recuentos en el codificador a lo largo de la sesión corta deben desempeñarse bien en la tarea DTSC. Según los ajustes de control del codificador rotativo, este valor corresponde a 24 cm/s, con un valor negativo que indica que el animal se está moviendo hacia atrás en la rueda.

La organización y el nombre de los archivos producidos en el curso de las sesiones DTSC son los mismos que los producidos en DEC. La ejecución de analyzeSession.py creará un contenedor .npy para la velocidad de la rueda frente al tiempo para todas las pruebas en una matriz a partir del análisis de los datos registrados en el archivo .csv. Una vez que todas las sesiones han sido analizadas para un animal determinado, todas las sesiones se pueden alinear y concatenar utilizando summarizeSession.py. Los resultados de un animal entrenado durante 5 sesiones de DEC se presentan en la Figura 4A. En cuanto a DEC, las capturas de cámara de DTSC se pueden convertir en archivos de .mp4 visibles. Los ensayos de muestra de DTSC se muestran uno al lado del otro en el video complementario 2. El panel izquierdo muestra una prueba en la que el animal retrocede con éxito la rueda en respuesta al LED CS. En el panel derecho, el animal no puede mover la rueda hasta que se aplica el estímulo táctil US.

El curso de tiempo y la amplitud en relación con la UR de las respuestas en animales entrenados en el paradigma DTSC muestran similitudes cualitativas con los entrenados en DEC. Los animales ingenuos no deben mostrar respuesta al CS, y aprender a mover la rueda hacia atrás en respuesta al CS solo después de exposiciones repetidas al CS emparejado y US. La frecuencia y la amplitud de los CR aumentan a medida que avanza el entrenamiento (Figura 4A, B). En el caso de DTSC, hemos encontrado que la amplitud de la UR al principio del entrenamiento es un buen predictor del éxito del aprendizaje. En una cohorte de animales entrenados con un US que produjo URE de baja amplitud (<20 cm / s), ningún animal aprendió a producir CR consistentemente después de 4 días de entrenamiento (Figura 4C, D).

Diferencias entre la formación DEC y DTSC
DEC y DTSC difieren en aspectos importantes. En primer lugar, el aprendizaje de DTSC en esta plataforma ocurre más rápidamente, con la mayoría de los animales logrando un alto grado de competencia en tareas al tercer día de entrenamiento y rendimiento asintótico al quinto día. El aprendizaje de DEC es más lento para la mayoría de los animales en al menos 3 días. En segundo lugar, el sistema DTSC incorpora la detección automática de CR exitosos, que sirven como una señal de retroalimentación al aparato para disminuir la amplitud del estímulo táctil. Este procedimiento de entrenamiento imita el acondicionamiento del parpadeo ocular, en el que el rendimiento mejorado de la RC proporciona una protección parcial contra una bocanada de aire corneal aversiva. En contraste, los animales con cabeza fija en el paradigma DTSC son incapaces de protegerse del estímulo táctil solo por su respuesta motora. Al basar la amplitud de los Estados Unidos en la presencia de una RC, los animales tienen la oportunidad de protegerse del estímulo aversivo.

Figure 1
Figura 1: Atributos y diseño de la plataforma. (A) Elementos de la plataforma para registrar el comportamiento animal en condiciones de cabeza fija. El ratón fue adaptado de una imagen de Biorender. (B) Tiempo y estímulos para el acondicionamiento DEC y DTSC. Un intervalo de interestímulo (ISI) definido por el usuario determina cuánto tiempo dura la época de solo CS. Las épocas de CS y Estados Unidos están diseñadas para co-terminar. (C) Imagen que muestra la ubicación de los elementos clave de la plataforma. 1) Motor paso a paso para el control del DTSC US. 2) Rueda de correr para el animal. 3) Codificador giratorio para el seguimiento del movimiento de la rueda. 4) Espuma pegada con cinta adhesiva sobre un brazo acrílico que sirve como estímulo táctil DTSC. 5) LED CS. 6) Válvula solenoide y salida que proporciona el DEC US. 7) Picamera para registrar el comportamiento animal. 8) LED infrarrojo para la iluminación del escenario. Haga clic aquí para ver una versión más grande de esta figura.

Figure 2
Figura 2: Cableado de elementos de hardware de plataforma. (A) Diagrama de cableado de Fritzing del hardware de la plataforma cuando está completamente ensamblado. Los cables están coloreados por módulos con naranja = Módulo de cámara; amarillo = módulo DEC US; azul = módulo LED CS; púrpura = módulo DTSC US; verde = Módulo codificador rotativo. La picamera está excluida, pero se conecta a la interfaz serie de la cámara ubicada en la superficie de la Raspberry Pi. Las baterías indican las fuentes de alimentación de corriente continua al voltaje especificado. (B-F) Esquema de cableado equivalente para módulos aislados. Los cables se han recoloreado, de modo que el rojo y el negro siempre indican un riel de suministro positivo y una toma de tierra, respectivamente, mientras que otros cables se colorean para permitir un fácil seguimiento del circuito. Haga clic aquí para ver una versión más grande de esta figura.

Figure 3
Figura 3: Resultados representativos del entrenamiento DEC. (A) Ejemplo de marco de cámara de una sesión con condiciones de iluminación aceptables. Nótese el alto contraste entre el ojo y el pelaje periocular. (B) Rendimiento de un solo animal durante las sesiones realizadas a lo largo de los días en el paradigma DEC. Las líneas horizontales indican el rendimiento en cada ensayo, con colores cálidos que indican más cierre de párpados. La línea vertical negra roja más a la izquierda indica el inicio del CS, mientras que la línea punteada indica el inicio de los Estados Unidos. La segunda línea sólida indica el cese de la CS y us. Tenga en cuenta que el número de ensayos con respuestas exitosas durante el CS aumenta a lo largo de las sesiones de entrenamiento. (C) Rendimiento animal de (B) con trazas individuales derivadas del promedio de prueba para la sesión cada día. La saturación de tono indica el número de sesión con mayor saturación para sesiones posteriores. (D) Rendimiento para todos los animales del grupo DEC (n = 7). Las líneas delgadas indican el porcentaje de ensayos con una RC detectable de cada sesión para cada animal. Las líneas gruesas indican los medios de sesión en todos los animales. (E) Ejemplo de marco de cámara de una sesión con condiciones de iluminación subóptimas. F) Cuantificación de ensayos individuales registrados con poca iluminación. El UR es detectable pero con menor contraste y mayor variabilidad que en condiciones óptimas de luz. (G) Seguimiento promedio de sesiones de ensayos presentados en (F). Haga clic aquí para ver una versión más grande de esta figura.

Figure 4
Figura 4: Resultados representativos del entrenamiento DTSC. (A) Rendimiento de un solo animal durante las sesiones realizadas a lo largo de los días en el paradigma DTSC. Las líneas horizontales indican el rendimiento en cada prueba, con colores cálidos que indican el movimiento de la rueda hacia atrás. La línea vertical negra más a la izquierda indica el inicio del CS, mientras que la línea punteada indica el inicio de los Estados Unidos. La segunda línea sólida indica el cese de la CS y us. (B) Rendimiento animal de (A) con trazas individuales derivadas del promedio de prueba para la sesión cada día. La saturación de tono indica el número de sesión con mayor saturación para sesiones posteriores. (C) Rendimiento para todos los animales del grupo DTSC (n = 6). Las líneas delgadas indican el porcentaje de ensayos con una RC detectable de cada sesión para cada animal. Las líneas gruesas indican los medios de sesión en todos los animales. (D) Ensayos únicos como en (A) de una cohorte donde la intensidad de EE.UU. provocó URE de baja amplitud. (E) Trazas promedio de sesión presentadas como en (B) para los animales sometidos a los débiles Estados Unidos. (F) Rendimiento para todos los animales en DTSC con US débil (n = 6). Haga clic aquí para ver una versión más grande de esta figura.

Video complementario 1: Ejemplos de pruebas de aciertos y errores de DEC. Los ensayos de DEC se comparan en el video 1. Cada video muestra pruebas en las que el sujeto hace (izquierda) o no hace (derecha) el CR objetivo sincronizado y reproducido uno al lado del otro para la comparación. El LED CS se enciende cuando aparece el cuadrado azul en la esquina superior izquierda de cada video. La señal de control de EE.UU. está activa cuando un cuadrado blanco reemplaza al cuadrado azul. Las señales de control de CS y US co-terminan cuando el cuadrado desaparece. Haga clic aquí para descargar este video.

Video complementario 2: Ejemplos de ensayos de aciertos y errores de DTSC. El video 2 muestra la comparación de pruebas de DTSC. Cada video muestra pruebas en las que el sujeto hace (izquierda) o no hace (derecha) el CR objetivo sincronizado y reproducido uno al lado del otro para la comparación. El LED CS se enciende cuando aparece el cuadrado azul en la esquina superior izquierda de cada video. La señal de control de EE.UU. está activa cuando un cuadrado blanco reemplaza al cuadrado azul. Las señales de control de CS y US co-terminan cuando el cuadrado desaparece. Haga clic aquí para descargar este video.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

La plataforma con protocolos asociados descritos aquí se puede utilizar para rastrear de manera confiable el comportamiento animal en dos tareas de aprendizaje asociativo sensorial. Cada tarea depende de la comunicación intacta a través de la vía de la fibra de escalada. En el diseño descrito aquí, incorporamos elementos para facilitar el aprendizaje y el registro / perturbación de la respuesta cerebelosa. Estos incluyen una rueda para permitir la locomoción libre11,18, así como la fijación de la cabeza. La rueda permite a los sujetos del ratón volver a la locomotora libremente, lo que se ha observado que es crítico para la adquisición de DEC18. La fijación de la cabeza en ratones permite a los investigadores aprovechar los enfoques genéticos, electrofisiológicos, de imágenes y optogenéticos que son más difíciles de usar en otras especies modelo o en condiciones de movimiento libre12. Hemos utilizado nuestro diseño para cada una de estas aplicaciones. El software que se ejecuta en los microcontroladores se puede adaptar fácilmente para controlar las señales de sincronización para la adquisición multifotónica o la sincronización con estimulación optogenética, ambas con una precisión de menos de milisegundos. Se debe tener cuidado de minimizar la percepción animal de los equipos optogenéticos y de imágenes cuando estos se combinan con experimentos de comportamiento. Por ejemplo, muchos sistemas multifotónico emiten un sonido audible desde sus escáneres galvanométricos o obturadores cuando comienzan las adquisiciones de imágenes. Si las adquisiciones se desencadenan por los inicios de prueba, tales sonidos pueden servir como una señal inadvertida para los sujetos animales de que se avecina un estímulo.

El control del aparato de comportamiento se basa en un SBC, que se utiliza para generar una interfaz gráfica de usuario para administrar el experimento, la cámara y la exportación de datos. El SBC también envía comandos a dos microcontroladores que manejan el tiempo de las pruebas y controlan directamente los componentes de hardware, como la presentación de estímulos y el codificador rotativo. Los protocolos detallados aquí se probaron utilizando una Raspberry Pi 3B + o 4B conectada a un Arduino Due para controlar el tiempo del experimento y un Arduino Uno para controlar la presentación del DTSC US. Otras implementaciones de diseño de hardware son posibles, pero no se han probado con el software proporcionado.

Para facilitar el uso de múltiples plataformas en paralelo, recomendamos operar el SBC en modo "sin cabeza". En esta configuración, se utiliza un equipo host para interactuar con el SBC. Un conmutador Ethernet permite la conectividad simultánea a Internet tanto a una computadora host como a SBC. El conmutador también permite la comunicación directa entre el host y SBC con una rápida transferencia de datos. Como resultado, el conmutador permite una fácil transferencia de datos y mantenimiento del paquete SBC.

Para ejecutar múltiples plataformas en paralelo, cada plataforma debe colocarse en su propio recinto especializado. Estos recintos deben incluir insonorización si se colocan muy cerca uno del otro. La supresión del sonido entre plataformas adyacentes puede ayudar a evitar señales auditivas involuntarias de estímulos producidos en recintos vecinos.

El uso de una plataforma única para DEC y DTSC permite a los investigadores navegar de manera flexible por las fortalezas y debilidades de cada paradigma. DEC disfruta de la información derivada de décadas de investigación sobre qué regiones del cerebro y elementos específicos del circuito cerebeloso están involucrados en el aprendizaje y la ejecución de tareas 1,4,11,13,14,15,19. Sin embargo, en ratones, la región de la corteza cerebelosa más a menudo asociada con elacondicionamiento del parpadeo ocular 11,12 se encuentra profundamente dentro de la fisura cerebelosa primaria (aunque ver15,17,27 que demuestran una región asociada a DEC del lóbulo superficial VI). Un locus profundo para el aprendizaje complica el acceso a experimentos ópticos, particularmente imágenes multifotónicas de la actividad celular y experimentos de perturbación optogenética. Por el contrario, los sustratos cerebelosos de DTSC se localizan parcialmente en el aspecto superficial de los lóbulos IV/V20. Por lo tanto, DTSC presenta un acceso óptico comparable al del neocórtex dorsal, un sitio popular para las investigaciones de neurociencia de sistemas.

En nuestro diseño, el comportamiento animal se rastrea utilizando un codificador giratorio conectado a la rueda y una cámara. Seleccionamos estos métodos por su bajo costo y facilidad de implementación. En algunos casos, otros métodos de seguimiento pueden proporcionar más precisión espacial y temporal. Por ejemplo, la posición del párpado en DEC se ha rastreado comúnmente utilizando sensores de efecto Hall 28,29 o registros de electromiograma de la región periorbitaria del musculus orbicularis oculi30,31. Del mismo modo, el seguimiento de la locomoción mediante la detección del movimiento de la rueda ofrece una imagen menos detallada del comportamiento de los animales que los algoritmos de seguimiento de pose basados en imágenes como SLEAP32 y DeepLabCut33. Las grabaciones basadas en cámaras permiten la adición de tales enfoques.

Aquí, hemos presentado una plataforma para rastrear el comportamiento animal durante dos paradigmas de aprendizaje asociativo dependientes de la fibra de escalada. Nuestra plataforma está destinada a aumentar la accesibilidad de estos métodos tanto en términos de costo como de facilidad de implementación.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Los autores no tienen conflictos de intereses que revelar.

Acknowledgments

Este trabajo está respaldado por subvenciones de los Institutos Nacionales de Salud Mental NRSA F32 MH120887-03 (a G.J.B.) y R01 NS045193 y R01 MH115750 (a S.S-H.W.). Agradecemos a los Dres. Bas Koekkoek y Henk-Jan Boele por las útiles discusiones para optimizar la configuración de DEC y a los Dres. Yue Wang y Xiaoying Chen por las útiles discusiones para optimizar la configuración de DTSC.

Materials

Name Company Catalog Number Comments
"B" Quick Base For C&B METABOND - 10 mL bottle Parkell S398 Dental cement solvent
"C" Universal TBB Catalyst - 0.7 mL Parkell S371 Catalyst
#8 Washers Thorlabs W8S038 Washers
0.250" (1/4") x 8.00" Stainless Steel Precision Shafting Servocity 634172 1/4" shaft
0.250” (0.770") Clamping Hub Servocity 545588 Clamping hub
1/4" to 6 mm Set Screw Shaft Coupler- 5 pack Actobotics 625106 Shaft-coupling sleeve
1/4"-20 Cap Screws, 3/4" Long Thorlabs SH25S075 1/4" bolt
100 pcs 5 mm 395–400 nm UV Ultraviolet LED Light Emitting Diode Clear Round Lens 29 mm Long Lead (DC 3V) LEDs Lights +100 pcs Resistors EDGELEC ‎ED_YT05_U_100Pcs CS LEDs
2 m Micro HDMI to DVI-D Cable - M/M - 2 m Micro HDMI to DVI Cable - 19 pin HDMI (D) Male to DVI-D Male - 1920 x 1200 Video Star-tech ‎HDDDVIMM2M Raspberry Pi4B to monitor cable
256 GB Ultra Fit USB 3.1 Flash Drive SanDisk ‎SDCZ430-256G-G46 USB thumb drive
3.3 V–5 V 4 Channels Logic Level Converter Bi-Directional Shifter Module Amazon B00ZC6B8VM Logic level shifter
32 GB 95 MB/s (U1) microSDHC EVO Select Memory Card Samsung ‎MB-ME32GA/AM microSD card
4.50" Aluminum Channel Servocity 585444 4.5" aluminum channel
48-LED CCTV Ir Infrared Night Vision Illuminator Towallmark SODIAL Infrared light array
4PCS Breadboards Kit Include 2PCS 830 Point 2PCS 400 Point Solderless Breadboards for Proto Shield Distribution Connecting Blocks REXQualis B07DL13RZH Breadboard
5 Port Gigabit Unmanaged Ethernet Network Switch TP-Link ‎TL-SG105 Ethernet switch
5 V 2.5 A Raspberry Pi 3 B+ Power Supply/Adapter Canakit ‎DCAR-RSP-2A5 Power supply for Raspberry Pi 3B+
5-0 ETHILON BLACK 1 x 18" C-3 Ethicon 668G Sutures
6 mm Shaft Encoder 2000 PPR Pushpull Line Driver Universal Output Line Driver Output 5-26 V dc Supply Calt  B01EWER68I Rotary encoder
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 1", 5 Pack Thorlabs TR1-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 2", 5 Pack Thorlabs TR2-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 4", 5 Pack Thorlabs TR4-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 6", 5 Pack Thorlabs TR6-P5 Optical posts
Ø1/2" Post Holder, Spring-Loaded Hex-Locking Thumbscrew, L = 2" Thorlabs PH2 Optical post holder
Adapter-062-M X LUER LOCK-F The Lee Co. TMRA3201950Z Solenoid valve luer adapter
Aeromat Foam Roller Size: 36" Length Aeromat B002H3CMUE Foam roller
Aluminum Breadboard 10" x 12" x 1/2", 1/4"-20 Taps Thorlabs MB1012 Aluminum breadboard
Amazon Basics HDMI to DVI Adapter Cable, Black, 6 Feet, 1-Pack Amazon HL-007347 Raspberry Pi3B+ to monitor cable
Arduino  Uno R3 Arduino A000066 Arduino Uno (microcontroller board)
Arduino Due Arduino ‎A000062 Arduino Due (microcontroller board)
Bench Power Supply, Single, Adjustable, 3 Output, 0 V, 24 V, 0 A, 2 A Tenma 72-8335A Power supply
Clear Scratch- and UV-Resistant Cast Acrylic Sheet, 12" x 24" x 1/8" McMaster Carr 8560K257 Acrylic sheet
CNC Stepper Motor Driver 1.0–4.2 A 20–50 V DC 1/128 Micro-Step Resolutions for Nema 17 and 23 Stepper Motor Stepper Online B06Y5VPSFN Stepper motor driver
Compact Compressed Air Regulator, Inline Relieving, Brass Housing, 1/4 NPT McMaster Carr 6763K13 Air source regulator
Cotton Swab Puritan 806-WC Cotton swab
Dell 1908FP 19" Flat Panel Monitor - 1908FPC Dell 1908FPC Computer monitor
Flex Cable for Raspberry Pi Camera Adafruit 2144 camera serial interface cable
High Torque Nema 17 Bipolar Stepper Motor 92 oz·in/65 N·cm 2.1 A Extruder Motor Stepper Online 17HS24-2104S Stepper motor
Isoflurane Henry Schein 66794001725 Isoflurane
Krazy Maximum Bond Permanent Glue, 0.18 oz. Krazy Glue KG483 Cyanoacrylate glue
Lidocaine HCl VetOne 510212 Lidocaine
Low-Strength Steel Hex Nut, Grade 2, Zinc-Plated, 1/4"-20 Thread Size McMaster Carr 90473A029 Nuts
M3 x 50 mm Partially Threaded Hex Key Socket Cap Head Screws 10 pcs Uxcell A16040100ux1380 M3 bolt
NEMA 17 Stepper Motor Mount ACTOBOTICS 555152 Stepper motor mount
Official Raspberry Pi Power Supply 5.1 V 3 A with USB C - 1.5 m long Adafruit 4298 Power supply for Raspberry Pi 4B
Optixcare Dog & Cat Eye Lube Lubricating Gel, 0.70-oz tube Optixcare 142422 Opthalimic ointment
Precision Stainless Steel Ball Bearing, Shielded, Trade No. R188-2Z, 13000 rpm Maximum Speed McMaster-Carr 3759T57 Bearing
Premium Female/Female Jumper Wires - 40 x 6" Adafruit 266 Wires
Premium Female/Male 'Extension' Jumper Wires - 40 x 6" (150 mm) Adafruit 826 Wires
Premium Male/Male Jumper Wires - 40 x 6" Adafruit 758 Wires
Radiopaque L-Powder for C&B METABOND - 5 g Parkell S396 Dental cement powder
Raspberry Pi (3B+ or 4B) Adafruit 3775 or 4295 Raspberry Pi
Raspberry Pi NoIR Camera Module V2 - 8MP 1080P30 Raspberry Pi Foundation RPI3-NOIR-V2 Raspberry NoIR V2 camera
Right-Angle Bracket, 1/4" (M6) Counterbored Slot, 8-32 Taps Thorlabs AB90E Right-angle bracket
Right-Angle Clamp for Ø1/2" Posts, 3/16" Hex Thorlabs RA90 Right-angle optical post clamp
Right-Angle End Clamp for Ø1/2" Posts, 1/4"-20 Stud and 3/16" Hex Thorlabs RA180 Right-angle end clamp
RJ45 Cat-6 Ethernet Patch Internet Cable Amazon ‎CAT6-7FT-5P-BLUE Ethernet cable
Rotating Clamp for Ø1/2" Posts, 360° Continuously Adjustable, 3/16" Hex Thorlabs SWC Rotating optical post clamps
Spike & Hold Driver-0.1 TO 5 MS The Lee Co. IECX0501350A Solenoid valve driver
Swivel Base Adapter Thorlabs UPHA Post holder adapter
USB 2.0 A-Male to Micro B Cable, 6 feet Amazon ‎7T9MV4 USB2 type A to USB2 micro cable
USB 2.0 Printer Cable - A-Male to B-Male, 6 Feet (1.8 m) Amazon B072L34SZS USB2 type B to USB2 type A cable
VHS-M/SP-12 V The Lee Co. INKX0514900A Solenoid valve
Zinc-Plated Steel 1/4" washer, OD 1.000" McMaster Carr 91090A108 Washers

DOWNLOAD MATERIALS LIST

References

  1. McCormick, D. A., Lavond, D. G., Clark, G. A., Kettner, R. E., Rising, C. E., Thompson, R. F. The engram found? Role of the cerebellum in classical conditioning of nictitating membrane and eyelid responses. Bulletin of the Psychonomic Society. 18 (3), 103-105 (1981).
  2. McCormick, D. A., Clark, G. A., Lavond, D. G., Thompson, R. F. Initial localization of the memory trace for a basic form of learning. Proceedings of the National Academy of Sciences of the United States of America. 79 (8), 2731-2735 (1982).
  3. McCormick, D. A., Thompson, R. F. Cerebellum: essential involvement in the classically conditioned eyelid response. Science. 223 (4633), New York, N.Y. 296-299 (1984).
  4. Krupa, D. J., Thompson, J. K., Thompson, R. F. Localization of a memory trace in the mammalian brain. Science. 260 (5110), New York, N.Y. 989-991 (1993).
  5. Llinás, R., Sugimori, M. Electrophysiological properties of in vitro Purkinje cell dendrites in mammalian cerebellar slices. The Journal of Physiology. 305, 197-213 (1980).
  6. Mintz, M., Lavond, D. G., Zhang, A. A., Yun, Y., Thompson, R. F. Unilateral inferior olive NMDA lesion leads to unilateral deficit in acquisition and retention of eyelid classical conditioning. Behavioral and Neural Biology. 61 (3), 218-224 (1994).
  7. Welsh, J. P., Harvey, J. A. Cerebellar lesions and the nictitating membrane reflex: performance deficits of the conditioned and unconditioned response. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 9 (1), 299-311 (1989).
  8. Mauk, M. D., Steinmetz, J. E., Thompson, R. F. Classical conditioning using stimulation of the inferior olive as the unconditioned stimulus. Proceedings of the National Academy of Sciences of the United States of America. 83 (14), 5349-5353 (1986).
  9. Steinmetz, J. E., Lavond, D. G., Thompson, R. F. Classical conditioning in rabbits using pontine nucleus stimulation as a conditioned stimulus and inferior olive stimulation as an unconditioned stimulus. Synapse. 3 (3), New York, N.Y. 225-233 (1989).
  10. Chettih, S. N., McDougle, S. D., Ruffolo, L. I., Medina, J. F. Adaptive timing of motor output in the mouse: The role of movement oscillations in eyelid conditioning. Frontiers in Integrative Neuroscience. 5, 72 (2011).
  11. Heiney, S. A., Wohl, M. P., Chettih, S. N., Ruffolo, L. I., Medina, J. F. Cerebellar-dependent expression of motor learning during eyeblink conditioning in head-fixed mice. The Journal of Neuroscience. 34 (45), 14845-14853 (2014).
  12. Heiney, S. A., Kim, J., Augustine, G. J., Medina, J. F. Precise control of movement kinematics by optogenetic inhibition of purkinje cell activity. Journal of Neuroscience. 34 (6), 2321-2330 (2014).
  13. Ten Brinke, M. M., et al. Evolving models of pavlovian conditioning: Cerebellar cortical dynamics in awake behaving mice. Cell Reports. 13 (9), 1977-1988 (2015).
  14. Gao, Z., et al. Excitatory cerebellar nucleocortical circuit provides internal amplification during associative conditioning. Neuron. 89 (3), 645-657 (2016).
  15. Giovannucci, A., et al. Cerebellar granule cells acquire a widespread predictive feedback signal during motor learning. Nature Neuroscience. 20 (5), 727-734 (2017).
  16. Ten Brinke, M. M., et al. Dynamic modulation of activity in cerebellar nuclei neurons during pavlovian eyeblink conditioning in mice. eLife. 6, 28132 (2017).
  17. Wang, X., Yu, S., Ren, Z., De Zeeuw, C. I., Gao, Z. A FN-MdV pathway and its role in cerebellar multimodular control of sensorimotor behavior. Nature Communications. 11 (1), 6050 (2020).
  18. Albergaria, C., Silva, N. T., Pritchett, D. L., Carey, M. R. Locomotor activity modulates associative learning in mouse cerebellum. Nature Neuroscience. 21 (5), 725-735 (2018).
  19. Kim, O. A., Ohmae, S., Medina, J. F. A cerebello-olivary signal for negative prediction error is sufficient to cause extinction of associative motor learning. Nature Neuroscience. 23 (12), 1550-1554 (2020).
  20. Yamada, T., et al. Sensory experience remodels genome architecture in neural circuit to drive motor learning. Nature. 569 (7758), 708-713 (2019).
  21. Horlington, M. Startle response circadian rhythm in rats: lack of correlation with motor activity. Physiology & Behavior. 5 (1), 49-53 (1970).
  22. Yeomans, J. S., Li, L., Scott, B. W., Frankland, P. W. Tactile, acoustic and vestibular systems sum to elicit the startle reflex. Neuroscience and Biobehavioral Reviews. 26 (1), 1-11 (2002).
  23. Raspberry Pi Operating system images. , Available from: https://www.raspberrypi.com/software/operationg-systems/ (2021).
  24. VNC Server. VNC® Connect. , Available from: https://www.realvnc.com/en/connect/download/vnc/ (2021).
  25. Anaconda: The world's most popular data science platform. , Available from: https://xddebuganaconda.xdlab.co/ (2021).
  26. De Zeeuw, C. I., Ten Brinke, M. M. Motor learning and the cerebellum. Cold Spring Harbor Perspectives in Biology. 7 (9), 021683 (2015).
  27. Badura, A., et al. Normal cognitive and social development require posterior cerebellar activity. eLife. 7, 36401 (2018).
  28. Koekkoek, S. K. E., Den Ouden, W. L., Perry, G., Highstein, S. M., De Zeeuw, C. I. Monitoring kinetic and frequency-domain properties of eyelid responses in mice with magnetic distance measurement technique. Journal of Neurophysiology. 88 (4), 2124-2133 (2002).
  29. Kloth, A. D., et al. Cerebellar associative sensory learning defects in five mouse autism models. eLife. 4, 06085 (2015).
  30. Boele, H. -J., Koekkoek, S. K. E., De Zeeuw, C. I. Cerebellar and extracerebellar involvement in mouse eyeblink conditioning: the ACDC model. Frontiers in Cellular Neuroscience. 3, (2010).
  31. Lin, C., Disterhoft, J., Weiss, C. Whisker-signaled eyeblink classical conditioning in head-fixed Mice. Journal of Visualized Experiments: JoVE. (109), e53310 (2016).
  32. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  33. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).

Tags

Neurociencia Número 179 cerebelo aprendizaje motor asociativo retraso del condicionamiento del parpadeo ocular retraso del condicionamiento del estímulo táctil
Una plataforma flexible para monitorear el aprendizaje asociativo sensorial dependiente del cerebelo
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Broussard, G. J., Kislin, M., Jung,More

Broussard, G. J., Kislin, M., Jung, C., Wang, S. S. H. A Flexible Platform for Monitoring Cerebellum-Dependent Sensory Associative Learning. J. Vis. Exp. (179), e63205, doi:10.3791/63205 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter