Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Un sistema de realidad virtual de código abierto para la medición del aprendizaje espacial en ratones con cabeza restringida

Published: March 3, 2023 doi: 10.3791/64863

Summary

Aquí, presentamos una configuración simplificada de hardware y software de código abierto para investigar el aprendizaje espacial del mouse utilizando realidad virtual (VR). Este sistema muestra una pista lineal virtual a un ratón con cabeza restringida que se ejecuta en una rueda utilizando una red de microcontroladores y una computadora de placa única que ejecuta un paquete de software gráfico Python fácil de usar.

Abstract

Los experimentos de comportamiento con la cabeza restringida en ratones permiten a los neurocientíficos observar la actividad del circuito neuronal con herramientas de imágenes electrofisiológicas y ópticas de alta resolución mientras administran estímulos sensoriales precisos a un animal que se comporta. Recientemente, estudios en humanos y roedores que utilizan entornos de realidad virtual (VR) han demostrado que la VR es una herramienta importante para descubrir los mecanismos neuronales subyacentes al aprendizaje espacial en el hipocampo y la corteza, debido al control extremadamente preciso sobre parámetros como las señales espaciales y contextuales. Sin embargo, la configuración de entornos virtuales para comportamientos espaciales de roedores puede ser costosa y requiere una amplia experiencia en ingeniería y programación de computadoras. Aquí, presentamos un sistema simple pero potente basado en hardware y software de código abierto, modular y económico que permite a los investigadores estudiar el aprendizaje espacial en ratones con cabeza restringida utilizando un entorno de realidad virtual. Este sistema utiliza microcontroladores acoplados para medir la locomoción y entregar estímulos de comportamiento mientras los ratones con cabeza restringida corren en una rueda en concierto con un entorno de pista lineal virtual renderizado por un paquete de software gráfico que se ejecuta en una computadora de placa única. El énfasis en el procesamiento distribuido permite a los investigadores diseñar sistemas flexibles y modulares para provocar y medir comportamientos espaciales complejos en ratones con el fin de determinar la conexión entre la actividad del circuito neuronal y el aprendizaje espacial en el cerebro de los mamíferos.

Introduction

La navegación espacial es un comportamiento etológicamente importante por el cual los animales codifican las características de nuevas ubicaciones en un mapa cognitivo, que se utiliza para encontrar áreas de posible recompensa y evitar áreas de peligro potencial. Inextricablemente vinculados con la memoria, los procesos cognitivos subyacentes a la navegación espacial comparten un sustrato neuronal en el hipocampo1 y la corteza, donde los circuitos neuronales en estas áreas integran la información entrante y forman mapas cognitivos de entornos y eventos para su posterior recuperación2. Si bien el descubrimiento de células de lugar en el hipocampo3,4 y células de cuadrícula en la corteza entorrinal5 ha arrojado luz sobre cómo se forma el mapa cognitivo dentro del hipocampo, quedan muchas preguntas sobre cómo los subtipos neuronales específicos, los microcircuitos y las subregiones individuales del hipocampo (el giro dentado y las áreas de cornu amonis, CA3-1) interactúan y participan en la formación y recuperación de la memoria espacial.

La imagen in vivo de dos fotones ha sido una herramienta útil para descubrir la dinámica celular y poblacional en neurofisiología sensorial 6,7; Sin embargo, la necesidad típica de reposacabezas limita la utilidad de este método para examinar el comportamiento espacial de los mamíferos. El advenimiento de la realidad virtual (VR)8 ha abordado esta deficiencia presentando entornos visuoespaciales inmersivos y realistas mientras los ratones con cabeza restringida corren en una pelota o cinta de correr para estudiar la codificación espacial y contextual en el hipocampo 8,9,10 y la corteza 11. Además, el uso de entornos de realidad virtual con ratones que se comportan ha permitido a los investigadores de neurociencia diseccionar los componentes del comportamiento espacial mediante el control preciso de los elementos del entorno de realidad virtual12 (por ejemplo, flujo visual, modulación contextual) de maneras que no son posibles en experimentos del mundo real de aprendizaje espacial, como el laberinto de agua de Morris, el laberinto de Barnes o las tareas de tablero de agujeros.

Los entornos de realidad virtual visual generalmente se representan en la unidad de procesamiento gráfico (GPU) de una computadora, que maneja la carga de calcular rápidamente los miles de polígonos necesarios para modelar un entorno 3D en movimiento en una pantalla en tiempo real. Los grandes requisitos de procesamiento generalmente requieren el uso de una PC separada con una GPU que renderiza el entorno visual en un monitor, múltiples pantallas13 o un proyector14 a medida que el movimiento se registra desde una cinta de correr, rueda o bola de espuma debajo del animal. El aparato resultante para controlar, renderizar y proyectar el entorno de realidad virtual es, por lo tanto, relativamente caro, voluminoso y engorroso. Además, muchos de estos entornos en la literatura se han implementado utilizando software propietario que es costoso y solo se puede ejecutar en una PC dedicada.

Por estas razones, hemos diseñado un sistema de realidad virtual de código abierto para estudiar los comportamientos de aprendizaje espacial en ratones con cabeza restringida utilizando una computadora de placa única Raspberry Pi. Esta computadora Linux es pequeña y económica, pero contiene un chip GPU para la representación 3D, lo que permite la integración de entornos de realidad virtual con la pantalla o el aparato de comportamiento en diversas configuraciones individuales. Además, hemos desarrollado un paquete de software gráfico escrito en Python, "HallPassVR", que utiliza la computadora de placa única para representar un entorno visuoespacial simple, una pista lineal virtual o pasillo, mediante la recombinación de características visuales personalizadas seleccionadas mediante una interfaz gráfica de usuario (GUI). Esto se combina con subsistemas de microcontroladores (por ejemplo, ESP32 o Arduino) para medir la locomoción y coordinar el comportamiento, como por ejemplo mediante la entrega de otras modalidades de estímulos sensoriales o recompensas para facilitar el aprendizaje por refuerzo. Este sistema proporciona un método alternativo económico, flexible y fácil de usar para entregar entornos de realidad virtual visoespaciales a ratones con cabeza restringida durante imágenes de dos fotones (u otras técnicas que requieren fijación de la cabeza) para estudiar los circuitos neuronales subyacentes al comportamiento de aprendizaje espacial.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Todos los procedimientos en este protocolo fueron aprobados por el Comité Institucional de Cuidado y Uso de Animales del Instituto Psiquiátrico del Estado de Nueva York.

NOTA: Una computadora de placa única se utiliza para mostrar un entorno visual de realidad virtual coordinado con el funcionamiento de un mouse con retención de cabeza en una rueda. La información de movimiento se recibe como entrada en serie de un microcontrolador ESP32 que lee un codificador giratorio acoplado al eje de la rueda. El entorno VR se representa utilizando la aceleración de hardware OpenGL en la GPU Raspberry Pi, que utiliza el paquete pi3d Python 3D para Raspberry Pi. El entorno renderizado se emite a través de un proyector en una pantalla parabólica envolvente compacta centrada en el campo visual del ratón con retención de cabeza15,16, mientras que el comportamiento (por ejemplo, lamer en respuesta a recompensas espaciales) se mide mediante un segundo microcontrolador ESP32 de comportamiento. El paquete de software gráfico permite la creación de entornos de pistas lineales virtuales que consisten en patrones repetidos de estímulos visuales a lo largo de un pasillo virtual o pasillo con una interfaz gráfica de usuario (GUI). Este diseño se parametriza fácilmente, lo que permite la creación de experimentos complejos destinados a comprender cómo el cerebro codifica los lugares y las señales visuales durante el aprendizaje espacial (ver sección 4). Los diseños de los componentes de hardware personalizados necesarios para este sistema (es decir, el volante, la pantalla de proyección y el aparato de sujeción para la cabeza) se depositan en un repositorio público de GitHub (https://github.com/GergelyTuri/HallPassVR). Se recomienda leer la documentación de ese repositorio junto con este protocolo, ya que el sitio se actualizará con futuras mejoras del sistema.

1. Configuración del hardware: construcción del volante, la pantalla de proyección y el aparato de fijación de la cabeza

NOTA: Los componentes personalizados para estas configuraciones se pueden fabricar fácilmente si el usuario tiene acceso a equipos de impresión 3D y corte por láser o pueden subcontratarse a servicios profesionales de fabricación o creación de prototipos 3D (por ejemplo, eMachinehop). Todos los archivos de diseño se proporcionan como . STL 3D archivos o archivos . DXF AutoCAD.

  1. Rueda de rodaje y configuración de comportamiento (Figura 1)
    NOTA: La rueda consiste en un cilindro de acrílico transparente (6 de diámetro, 3 de ancho, 1/8 de grosor) centrado en un eje suspendido de soportes de acrílico cortados con láser a través de rodamientos de bolas. El conjunto de la rueda se monta en un marco de aluminio ligero (ranurado en T) y se sujeta de forma segura a una placa de pruebas óptica (Figura 1C-E).
    1. Corte con láser los lados de los soportes de rueda y eje de una lámina de acrílico de 1/4 de pulgada, y fije los lados de la rueda al cilindro de acrílico con cemento acrílico. Atornille la brida del eje en el centro de la pieza lateral de la rueda.
    2. Inserte el eje en la brida central de la rueda, encaje los rodamientos de bolas en los soportes del eje y conéctelos a la barra de soporte vertical de aluminio.
    3. Inserte el eje de la rueda en los rodamientos de bolas montados, dejando 0,5-1 pulgada del eje más allá de los rodamientos para la fijación del codificador giratorio.
    4. Fije el soporte del codificador giratorio al extremo del eje opuesto a la rueda e inserte el codificador giratorio; Luego, use el acoplador de eje para acoplar el eje de la rueda al eje del codificador giratorio.
    5. Conecte el puerto de lamido al brazo flexible y luego fíjelo al marco de la rueda de aluminio con tuercas de ranura en T. Use un tubo de 1/16 de pulgada para conectar el puerto de lamido a la válvula solenoide y la válvula al depósito de agua.
      NOTA: El puerto de lamido debe estar hecho de metal con un cable soldado para unirlo a los pines de detección táctil capacitiva del comportamiento ESP32.
  2. Pantalla de proyección
    NOTA: La pantalla VR es una pequeña pantalla parabólica de retroproyección (tamaño del lienzo: 54 cm x 21,5 cm) basada en un diseño desarrollado en el laboratorio de Christopher Harvey15,16. El ángulo de proyección (trapezoidal) del proyector LED utilizado es diferente del del proyector láser utilizado anteriormente; por lo tanto, el diseño original se modifica ligeramente montando la unidad debajo de la pantalla y simplificando el sistema de espejos (Figura 1A, B). Leer la documentación del laboratorio Harvey junto con la nuestra es muy recomendable para adaptar el entorno de realidad virtual a las necesidades del usuario15.
    1. Corte con láser los lados de la pantalla de proyección de 1/4 en láminas de acrílico mate negro. Corte con láser el espejo de retroproyección de 1/4 en acrílico espejado.
    2. Ensamble el marco de la pantalla de proyección con las barras de aluminio y corte con láser los paneles de acrílico.
    3. Inserte el material translúcido de la pantalla de proyección en la ranura parabólica del marco. Inserte el espejo retrovisor de proyección en la ranura situada en la parte posterior del marco de la pantalla de proyección.
    4. Coloque un proyector LED en la placa de montaje inferior dentro del marco de la pantalla de proyección. Alinee el proyector con pernos de montaje para optimizar el posicionamiento de la imagen proyectada en la pantalla de retroproyección parabólica.
    5. Selle la unidad de la caja del proyector para evitar la contaminación lumínica de los sensores ópticos si es necesario.
  3. Aparatos de reposacabezas
    NOTA: Este diseño de aparato de reposacabezas consiste en dos colectores impresos en 3D entrelazados para asegurar un poste de cabeza metálico (Figura 1E, F).
    1. Usando una impresora 3D SLM de alta resolución, imprima en 3D el poste de la cabeza que sostiene los brazos.
      NOTA: El plástico impreso con resina es capaz de proporcionar una fijación estable de la cabeza para experimentos de comportamiento; sin embargo, para lograr la máxima estabilidad para aplicaciones sensibles como la grabación de una sola celda o la obtención de imágenes de dos fotones, se recomienda utilizar piezas metálicas mecanizadas (por ejemplo, eMachineShop).
    2. Instale el soporte de la cabeza impresa en 3D en un goniómetro de doble eje con postes de montaje ópticos para que la cabeza del animal se pueda inclinar para nivelar la preparación.
      NOTA: Esta característica es indispensable para experimentos de imágenes in vivo a largo plazo cuando se requiere encontrar la misma población celular en sesiones de imágenes posteriores. De lo contrario, esta característica se puede omitir para reducir el costo de la configuración.
    3. Fabrica los postes principales.
      NOTA: Dos tipos de postes con diferente complejidad (y precio) se depositan en el enlace proporcionado en la Tabla de Materiales junto con estas instrucciones.
      1. Dependiendo del tipo de experimento, decida qué puesto central implementar. Las barras de cabeza están hechas de acero inoxidable y generalmente se subcontratan a cualquier taller mecánico local o servicio en línea (por ejemplo, eMachineShop) para su fabricación.

2. Configuración del hardware/software electrónico (ordenador de placa única, microcontroladores ESP32, Figura 2)

  1. Configure el equipo de placa única.
    NOTA: La computadora de placa única incluida en la Tabla de materiales (Raspberry Pi 4B) es óptima para esta configuración porque tiene una GPU integrada para facilitar la representación del entorno VR y dos puertos HDMI para control / monitoreo de experimentos y proyección de VR. Otras computadoras de placa única con estas características pueden ser sustituidas, pero algunas de las siguientes instrucciones pueden ser específicas de Raspberry Pi.
    1. Descargue la aplicación de generador de imágenes de computadora de placa única en la PC e instale el sistema operativo (actualmente Raspberry Pi OS r.2021-05-07) en la tarjeta microSD (16+ GB). Inserte la tarjeta y arranque el equipo de placa única.
    2. Configure el equipo de placa única para la biblioteca pi3d Python 3D: (barra de menús) Preferencias > Configuración de Raspberry Pi.
      1. Haga clic en Mostrar > Pantalla en blanco > Desactivar.
      2. Haga clic en Interfaces > puerto serie > habilitar.
      3. Haga clic en Rendimiento > memoria GPU > 256 (MB).
    3. Actualice el paquete de la biblioteca de imágenes de Python para pi3d: (terminal)> sudo pip3 install pillow --upgrade.
    4. Instale el paquete pi3d Python 3D para el equipo de placa única: (terminal)> sudo pip3 install pi3d.
    5. Aumente el nivel de salida HDMI para el proyector: (terminal)> sudo nano /boot/config.txt, uncomment config_hdmi_boost=4, save y reinicie.
    6. Descargue e instale el entorno de desarrollo integrado (IDE) desde arduino.cc/en/software (por ejemplo, arduino-1.8.19-linuxarm.tar.gz), que es necesario para cargar el código en el codificador rotativo y los microcontroladores ESP32 de comportamiento.
    7. Instale la compatibilidad con el microcontrolador ESP32 en el IDE:
      1. Haga clic en Preferencias de > Archivo > URL adicionales de Board Manager = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Haga clic en Tools > Boards > Boards Manager > ESP32 (por Espressif). Instale v.2.0.0 (la carga falla actualmente en v2.0.4).
    8. Descargue e instale el IDE de procesamiento desde https://github.com/processing/processing4/releases (por ejemplo, processing-4.0.1-linux-arm32.tgz), que es necesario para la grabación y el trazado en línea del comportamiento del mouse durante la realidad virtual.
      NOTA: Los entornos Arduino y Processing se pueden ejecutar en una PC separada de la computadora de placa única VR si se desea.
  2. Configure las conexiones del codificador rotativo ESP32.
    NOTA: El codificador rotativo acoplado al eje de la rueda mide la rotación de la rueda con la locomoción del ratón, que se cuenta con un microcontrolador ESP32. Los cambios de posición se envían al puerto serie GPIO de la computadora de placa única para controlar el movimiento a través del entorno virtual utilizando el paquete de software gráfico, así como al comportamiento ESP32 para controlar las zonas de recompensa (Figura 2).
    1. Conecte los cables entre el componente del codificador rotativo y el ESP32 rotativo. Los codificadores rotativos generalmente tienen cuatro cables: +, GND, A y B (dos líneas digitales para codificadores en cuadratura). Conéctelos a través de cables de puente a ESP32 3.3 V, GND, 25, 26 (en el caso del código adjunto).
    2. Conecte los cables serie RX/TX entre el ESP32 giratorio y el ESP32 de comportamiento. Realice una conexión simple de dos hilos entre el ESP32 Serial0 RX/TX giratorio (recepción/transmisión) y el puerto Serial2 del comportamiento ESP32 (TX/RX, pines 17, 16; consulte Puerto Serial2 a la derecha de OMwSmall PCB). Esto llevará información de movimiento desde el codificador giratorio hasta la configuración de comportamiento para zonas espaciales como zonas de recompensa.
    3. Conecte los cables serie RX/TX entre el ESP32 giratorio y la GPIO del ordenador de placa única (o conexión USB directa). Realice una conexión de dos hilos entre los pines GPIO 14, 15 (RX/TX) del ordenador de placa única y el ESP32 Serial2 giratorio (TX/RX, pines 17, 16). Esto transportará información de movimiento desde el codificador giratorio al paquete de software gráfico que se ejecuta en la computadora de placa única.
      NOTA: Este paso solo es necesario si el ESP32 giratorio no está conectado a través de un USB (es decir, es una conexión serie GPIO en "/dev/ttyS0"), pero el código de HallPassVR_wired.py debe modificarse para usar "/dev/ttyUSB0". Esta conexión cableada se reemplazará con una conexión inalámbrica Bluetooth en futuras versiones.
    4. Conecte el USB ESP32 giratorio al USB del ordenador de placa única (u otro PC que ejecute el IDE) para cargar el código inicial del codificador giratorio.
  3. Configure las conexiones ESP32 de comportamiento con el hardware de comportamiento (a través de OpenMaze PCB).
    NOTA: El microcontrolador de comportamiento ESP32 controlará todas las interacciones con animales que no son de realidad virtual (entregando estímulos y recompensas que no son de realidad virtual, detectando lamidos de mouse), que están conectadas a través de una "placa de ruptura" de PCB general para el ESP32, "OMwSmall", cuyos diseños están disponibles a través del sitio web de OpenMaze (www.openmaze.org). La PCB contiene los componentes electrónicos necesarios para impulsar los componentes electromecánicos, como las válvulas solenoides utilizadas para entregar recompensas líquidas.
    1. Conecte la válvula solenoide líquida de 12 V a la salida IC ULN2803 en el extremo izquierdo de la PCB OMwSmall (pin 12 en la configuración y el código de ejemplo). Este CI conecta una potencia de 12 V a la válvula solenoide de recompensa, controlada por una salida GPIO en el microcontrolador ESP32 de comportamiento.
    2. Conecte el puerto lick a la entrada táctil ESP32 (por ejemplo, T0, GPIO4 en el código de ejemplo). El ESP32 tiene detección táctil capacitiva incorporada en pines específicos, que el código ESP32 de comportamiento utiliza para detectar el lamido del mouse del puerto de lamido de metal conectado durante el comportamiento de realidad virtual.
    3. Conecte los cables serie RX/TX entre el comportamiento ESP32 Serial2 (pines 16, 17) y el codificador giratorio ESP32 Serial0 (consulte el paso 2.2.2).
    4. Conecte el USB al puerto USB del ordenador de placa única (u otro PC) para cargar nuevos programas en el comportamiento ESP32 para diferentes paradigmas experimentales (por ejemplo, número/ubicación de zonas de recompensa) y para capturar datos de comportamiento utilizando el boceto de procesamiento incluido.
    5. Enchufe el adaptador de pared de 12 V CC en el conector jack de barril de 2,1 mm en la PCB ESP32 OMwSmall de comportamiento para proporcionar la potencia de la válvula solenoide de recompensa.
    6. Conecte la salida HDMI #2 del ordenador de placa única al puerto HDMI del proyector; esto llevará el entorno de realidad virtual renderizado por la GPU de la computadora de placa única a la pantalla de proyección.
    7. (opcional) Conecte el cable de sincronización (pin 26) a una configuración de imagen neuronal o grabación electrofisiológica. Se enviará una señal de 3,3 V transistor-transistor-lógica (TTL) cada 5 s para alinear los sistemas con una precisión de casi milisegundos.
  4. Configure el software: Cargue el firmware/software en el codificador rotativo ESP32 (Figura 2B) y el comportamiento ESP32 (Figura 2E) utilizando el IDE, y descargue el software VR Python en el ordenador de placa única. Véase https://github.com/GergelyTuri/HallPassVR/software.
    1. Conecte primero el codificador giratorio ESP32 al puerto USB de la computadora de placa única, el sistema operativo lo llamará automáticamente "/dev/ttyUSB0".
    2. Cargue el código del codificador giratorio: abra el archivo RotaryEncoder_Esp32_VR.ino en el IDE y, a continuación, seleccione el ESP32 en Herramientas > placas > módulo de desarrollo ESP32. Seleccione el puerto ESP32 haciendo clic en Herramientas > Puerto > /dev/ttyUSB0 y, a continuación, haga clic en Cargar.
    3. Conecte el comportamiento ESP32 en el puerto USB de la computadora de placa única a continuación, esto se llamará "/ dev / ttyUSB1" por el sistema operativo.
    4. Cargue el código de secuencia de comportamiento en el comportamiento ESP32 (IDE, ESP32 Dev Module ya seleccionado), luego haga clic en Herramientas > Puerto > /dev/ttyUSB1, y haga clic en Cargar: wheel_VR_behavior.ino.
    5. Pruebe las conexiones serie seleccionando el puerto serie para cada ESP32 en el IDE (Tools > Port > /dev/ttyUSB0 o /dev/ttyUSB1) y luego haciendo clic en Tools > Serial Monitor (velocidad en baudios: 115,200) para observar la salida serie de la placa giratoria (USB0) o la placa de comportamiento (USB1). Gire la rueda para ver una salida de movimiento sin procesar del ESP32 giratorio en USB0 o una salida de movimiento formateada del ESP32 de comportamiento en USB1.
    6. Descargue el paquete de software gráfico código Python desde https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR (a /home/pi/Documents). Esta carpeta contiene todos los archivos necesarios para ejecutar el paquete de software gráfico si el paquete pi3d Python3 se instaló correctamente anteriormente (paso 2.1).

3. Ejecución y prueba del paquete de software gráfico

NOTA: Ejecute la GUI del paquete de software gráfico para iniciar un entorno de pista lineal de realidad virtual, calibre las distancias en el software de realidad virtual y el código ESP32 de comportamiento, y pruebe la adquisición y el trazado en línea del comportamiento de ejecución y lamido del mouse con el boceto de lenguaje de procesamiento incluido.

  1. Abra la ventana del terminal en el ordenador de placa única y navegue hasta la carpeta HallPassVR (terminal:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)
  2. Ejecute la GUI de VR: (terminal)> python3 HallPassVR_GUI.py (se abrirá la ventana de la GUI, Figura 3A).
  3. GUI de software gráfico
    1. Seleccione y agregue cuatro elementos (imágenes) del cuadro de lista (o seleccione el patrón prealmacenado a continuación, y luego haga clic en Cargar) para cada uno de los tres patrones a lo largo de la pista, y luego haga clic en Generar.
      NOTA: Los nuevos archivos de imagen (.jpeg) se pueden colocar en la carpeta HallPassVR/HallPassVR_wired/images/ELEMENTS antes de ejecutar la GUI.
    2. Seleccione imágenes de suelo y techo en los menús desplegables y establezca la longitud de la pista como 2 m para este código de ejemplo (debe ser igual a trackLength en milímetros [mm] en el código ESP32 de comportamiento y código de procesamiento).
    3. Asigne un nombre a este patrón si lo desea (se almacenará en HallPassVR_wired/images/PATH_HIST).
    4. Haga clic en el botón Inicio (espere hasta que se inicie la ventana VR antes de hacer clic en otro lugar). El entorno de realidad virtual aparecerá en la pantalla # 2 (pantalla de proyección, Figura 3B, C).
  4. Ejecute el boceto Procesamiento para adquirir y trazar los datos o movimientos de comportamiento.
    1. Abra VRwheel_RecGraphSerialTxt.pde en el IDE de procesamiento.
    2. Cambiar el animal = "yourMouseNumber"; y establezca sessionMinutes igual a la duración de la sesión de comportamiento en minutos.
    3. Haga clic en el botón Ejecutar en el IDE de procesamiento.
    4. Compruebe la ventana Trazado de procesamiento, que debería mostrar la posición actual del ratón en la pista lineal virtual a medida que gira la rueda, junto con las zonas de recompensa y los histogramas de ejecución de los licks, vueltas y recompensas actualizados cada 30 s (Figura 3D). Avance la rueda de rodaje a mano para simular el ratón corriendo para la prueba, o utilice un ratón de prueba para la configuración inicial.
    5. Haga clic en la ventana de trazado y presione la tecla q en el teclado para detener la adquisición de datos de comportamiento. Un archivo de texto de los eventos y tiempos de comportamiento (normalmente <2 MB de tamaño por sesión) y una imagen de la ventana de trazado final (.png) se guarda cuando sessionMinutes ha transcurrido o el usuario presiona la tecla q para salir.
      NOTA: Debido al pequeño tamaño de los archivos de .txt de salida, se estima que al menos varios miles de grabaciones de comportamiento se pueden almacenar en la tarjeta SD de la computadora de placa única. Los archivos de datos se pueden guardar en una memoria USB para su posterior análisis, o si están conectados a una red local, los datos se pueden administrar de forma remota.
  5. Calibre la longitud de la pista de comportamiento con la longitud de pista VR.
    1. Avance la rueda a mano mientras observa el corredor de realidad virtual y la posición del mouse (en la gráfica de procesamiento). Si el corredor de realidad virtual termina antes/después de que el ratón llegue al final de la gráfica de comportamiento, aumente/disminuya la longitud de la pista de realidad virtual de forma incremental (HallPassVR_wired.py, corridor_length_default, en centímetros [cm]) hasta que la pista se reinicie simultáneamente en los dos sistemas.
      NOTA: El código está calibrado actualmente para una rueda de rodadura de 6 pulgadas de diámetro utilizando un codificador rotativo en cuadratura de 256 posiciones, por lo que el usuario puede tener que alterar el código VR (HallPassVR_wired.py, corridor_length_default, en centímetros [cm]) y de comportamiento (wheel_VR_behavior.ino, trackLength, en milímetros [mm]) para tener en cuenta otras configuraciones. Sin embargo, la posición de comportamiento se restablece en cada vuelta de realidad virtual para mantener la correspondencia entre los sistemas.

4. Entrenamiento del ratón y comportamiento de aprendizaje espacial

NOTA: Los ratones se implantan para la fijación de la cabeza, se acostumbran a la restricción de la cabeza y luego se entrenan para correr en la rueda y lamer consistentemente para obtener recompensas líquidas progresivamente ("forrajeo aleatorio"). Los ratones que logran correr y lamer consistentemente son entrenados en una tarea de recompensa oculta espacial utilizando el entorno de realidad virtual, en el que se presenta una sola zona de recompensa siguiendo una señal visual en la pista lineal virtual. El aprendizaje espacial se mide como una mayor selectividad de lamido para posiciones inmediatamente anteriores a la zona de recompensa.

  1. Cirugía posterior a la implantación de la cabeza: Este procedimiento se describe en detalle en otras partes de esta revista y en otras, así que consulte esta literatura para obtener instrucciones específicas 7,17,18,19,20,21.
  2. Horario de agua
    1. Realice la restricción de agua 24 horas antes de la primera manipulación (ver más abajo), y permita el consumo de agua ad libitum después de cada sesión de habituación o comportamiento restringido en la cabeza. Disminuya el tiempo de disponibilidad de agua gradualmente durante tres días durante la habituación a alrededor de 5 minutos, y ajuste la cantidad para ratones individuales de modo que su peso corporal no caiga por debajo del 80% de su peso previo a la restricción. Controle el peso de cada animal diariamente y también observe la condición de cada ratón para detectar signos de deshidratación22. Los ratones que no son capaces de mantener el 80% de su peso corporal previo a la restricción o parecen deshidratados deben ser retirados del estudio y se les debe dar disponibilidad de agua libre.
      NOTA: La restricción de agua es necesaria para motivar a los ratones a correr en la rueda usando recompensas líquidas, así como para usar lamido espacial como una indicación de las ubicaciones aprendidas a lo largo de la pista. Las pautas institucionales pueden diferir en las instrucciones específicas para este procedimiento, por lo que el usuario debe consultar a sus comités institucionales individuales de cuidado de animales para garantizar la salud y el bienestar de los animales durante la restricción de agua.
  3. Manipulación: Manipular los ratones implantados diariamente para habituarlos al contacto humano, después de lo cual se puede administrar agua ad libitum limitada como refuerzo (1-5 min / día, 2 días a 1 semana).
  4. Habituación al reposacabezas
    1. Habitúe a los ratones al reposacabezas durante cantidades crecientes de tiempo colocándolos en el aparato de retención de cabeza mientras los recompensa con gotas ocasionales de agua para reducir el estrés de la fijación de la cabeza.
    2. Comience con 5 minutos de fijación de la cabeza y aumente la duración en incrementos de 5 minutos diarios hasta que los ratones puedan tolerar la fijación hasta por 30 minutos. Retire los ratones del aparato de fijación si parecen estar luchando o moviéndose muy poco. Sin embargo, los ratones generalmente comienzan a correr en la rueda espontáneamente dentro de varias sesiones, lo que significa que están listos para la siguiente etapa de entrenamiento.
      NOTA: Los ratones que luchan repetidamente bajo el reposacabezas o no corren y lamen para obtener recompensas deben regresar a etapas más tempranas de entrenamiento y retirarse del estudio si no progresan durante tres de estos ciclos correctivos (ver Tabla 1).
  5. Entrenamiento de correr/lamer (forrajeo aleatorio)
    NOTA: Para realizar la tarea de aprendizaje espacial en el entorno de realidad virtual, los ratones primero deben aprender a correr en la rueda y lamer consistentemente para obtener recompensas ocasionales. La progresión en los parámetros de comportamiento operantes se controla a través del microcontrolador de comportamiento ESP32.
    1. Forrajeo aleatorio con recompensas no operantes
      1. Ejecute el programa GUI del software gráfico con una ruta de elementos visuales arbitrarios (elección del usuario, consulte el paso 3.3).
      2. Sube el programa de comportamiento al comportamiento ESP32 con múltiples recompensas no operantes (variables de código: isOperant=0, numRew=4, isRandRew=1) para condicionar a los ratones a correr y lamer. Ejecute los ratones en sesiones de 20-30 minutos hasta que los ratones corran durante al menos 20 vueltas por sesión y lama las recompensas presentadas en ubicaciones aleatorias (de una a cuatro sesiones).
    2. Forrajeo aleatorio con recompensas operantes en vueltas alternativas
      1. Sube el programa de comportamiento con altOpt=1 (alternando vueltas operantes/no operantes) y entrena a los ratones hasta que laman las zonas de recompensa no operante y operante (de una a cuatro sesiones).
    3. Forrajeo aleatorio totalmente operativo
      1. Cargue el programa de comportamiento con cuatro zonas de recompensa aleatorias operantes (variables de código ESP32 de comportamiento: isOperant=1, numRew=4, isRandRew=1). Al final de este paso de entrenamiento, los ratones deben estar corriendo consistentemente y realizando lamidos de prueba en toda la longitud de la pista (de una a cuatro sesiones; Figura 4A).
  6. Aprendizaje espacial
    NOTA: Realice un experimento de aprendizaje espacial con una sola zona de recompensa oculta a cierta distancia de una sola señal visual seleccionando un pasillo de 2 m de largo con paneles oscuros a lo largo de la pista y un solo panel de estímulo visual de alto contraste en el medio como señal visual (posición 0.9-1.1 m), análogo a experimentos recientes con señales olfativas espaciales20 . Los ratones deben lamer en una zona de recompensa (en una posición de 1.5-1.8 m) ubicada a una distancia de la señal visual en el entorno de pista lineal virtual.
    1. Ejecute el programa de software gráfico con un camino de un pasillo oscuro con una sola señal visual en el centro (por ejemplo, tablero de ajedrez, consulte el paso 3.3, Figura 3A).
    2. Cargue el programa de comportamiento con una única zona de recompensa oculta en el comportamiento ESP32 (variables de código ESP32 de comportamiento: isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500}).
    3. Coloque suavemente el ratón en el aparato de fijación de la cabeza, ajuste el pico de lamido a una ubicación justo anterior a la boca del ratón y coloque la rueda del ratón en el centro de la zona de la pantalla de proyección. Asegúrese de que la cabeza del mouse esté a ~ 12-15 cm de distancia de la pantalla después de los ajustes finales.
    4. Establezca el nombre del animal en el boceto Procesamiento y, a continuación, pulse Ejecutar en el IDE de procesamiento para empezar a adquirir y trazar los datos de comportamiento (consulte el paso 3.4).
    5. Ejecute el mouse durante sesiones de 30 minutos con una sola zona de recompensa oculta y un solo pasillo de realidad virtual con señal visual.
    6. Sin conexión: descargue el archivo de datos .txt de la carpeta Processing sketch y analice el comportamiento de lamido espacial (por ejemplo, en Matlab con los archivos incluidos procVRbehav.m y vrLickByLap.m).
      NOTA: Los ratones deben realizar inicialmente lamidos de prueba en toda la pista virtual ("forrajeo aleatorio") y luego comenzar a lamer selectivamente solo cerca de la ubicación de recompensa siguiendo la señal visual de realidad virtual (Figura 4).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Esta configuración de comportamiento de realidad virtual de código abierto nos permitió cuantificar el comportamiento de lamido como una lectura del aprendizaje espacial a medida que los ratones con la cabeza restringida navegaban por un entorno de pista lineal virtual. Siete ratones C57BL / 6 de ambos sexos a los 4 meses de edad fueron colocados en un horario de agua restringido y primero entrenados para lamer continuamente a niveles bajos mientras corrían en la rueda para obtener recompensas espaciales aleatorias ("forrajeo aleatorio") sin VR. Aunque su rendimiento se vio afectado inicialmente cuando se trasladó a la configuración de la pantalla de proyección de realidad virtual con un patrón de pasillo aleatorio de 2 m, volvió a los niveles anteriores dentro de varias sesiones de realidad virtual (Figura 4A). Los ratones que desarrollaron la estrategia de forrajeo aleatorio con realidad virtual (seis de los siete ratones, 86%; un ratón no corrió consistentemente y fue excluido) se les pidió que lamieran una zona de recompensa operante no señalada a 0,5 m siguiendo una sola señal de ubicación visual en medio de una pista virtual de 2 m sin rasgos distintivos para recibir recompensas de agua ("tarea de recompensa oculta"). De acuerdo con los datos piloto actuales con este sistema, cuatro de los siete (57%) ratones pudieron aprender la tarea de recompensa oculta con una sola señal visual en dos a cuatro sesiones, como se muestra al lamer cerca de la zona de recompensa con selectividad creciente (Tabla 1, Figura 4B, C), que es similar a nuestros resultados anteriores con una cinta de correr sin realidad virtual17 . Este hecho es importante en el estudio del aprendizaje espacial, ya que permite el monitoreo y / o manipulación de la actividad neuronal durante períodos críticos de aprendizaje sin una capacitación extensa. Además, los ratones exhibieron un aprendizaje sustancial dentro de la sesión y entre sesiones (Figura 4C), lo que brinda la oportunidad de observar las adaptaciones de circuitos neuronales a corto y largo plazo que acompañan al aprendizaje espacial. No probamos la tasa de aprendizaje de una tarea equivalente que no es de realidad virtual, pero muchas tareas espaciales clásicas dependientes del hipocampo del mundo real, como el laberinto de agua de Morris, requieren un entrenamiento aún más extenso y presentan dramáticamente menos ensayos de comportamiento y, por lo tanto, son menos adecuados para el monitoreo del comportamiento de aprendizaje junto con los cambios en la actividad neuronal.

Si bien la mayoría de los ratones en este grupo piloto (57%) pudieron aprender la tarea de recompensa oculta en un pequeño número de sesiones, los ratones adicionales pueden exhibir aprendizaje espacial en escalas de tiempo más largas, y el entrenamiento individualizado debería aumentar esta fracción de ratones. De hecho, las variaciones en las tasas de aprendizaje pueden ser útiles para disociar las relaciones específicas entre la actividad neuronal en áreas del cerebro como el hipocampo y el aprendizaje conductual. Sin embargo, observamos que un pequeño porcentaje de ratones no aprendió a correr en la rueda o lamer para obtener recompensas no operantes u operantes (uno de los siete ratones, 14%) y, por lo tanto, no pudo usarse para experimentos posteriores. El manejo y la habituación adicionales y una reducción en el estado general de estrés del animal a través de un refuerzo adicional, como el uso de golosinas alimenticias deseables, pueden ser útiles para ayudar a estos animales a adoptar correr y lamer activamente durante el comportamiento de retención de cabeza en la rueda.

Al manipular la presencia y la posición de las zonas de señal y recompensa en vueltas intermitentes en la pista virtual, un experimentador puede discernir aún más la dependencia del lamido espacialmente selectivo en canales específicos de información en realidad virtual para determinar, por ejemplo, cómo los ratones dependen de señales locales o distantes o información de automovimiento para establecer su ubicación en un entorno. La selectividad de lamer de los ratones que han aprendido la ubicación oculta de la recompensa debería verse afectada por el cambio u omisión de la señal visual a lo largo de la pista si utilizan activamente esta señal espacial como un punto de referencia, como hemos demostrado en un trabajo reciente utilizando señales olfativas espaciales20. Sin embargo, incluso con el simple ejemplo que hemos presentado aquí, el lamido altamente selectivo logrado por los ratones (Figura 4C, derecha) indica que codifican el entorno visual de realidad virtual para informar sus decisiones sobre dónde están y, por lo tanto, cuándo lamer, ya que la zona de recompensa solo es evidente en relación con las señales visuales en el entorno de realidad virtual. Este sistema de realidad virtual también permite la presentación de otras modalidades de señales espaciales y contextuales además del entorno visual de realidad virtual, como señales olfativas, táctiles y auditivas, que se pueden usar para probar la selectividad de la actividad neuronal y el comportamiento para combinaciones complejas de señales sensoriales distintas. Además, aunque no probamos la dependencia del desempeño de la tarea en la actividad del hipocampo, un estudio reciente que utilizó una tarea similar pero con señales táctiles mostró una perturbación del aprendizaje espacial con la inactivación del hipocampo23, que debe confirmarse para la tarea de recompensa oculta de realidad virtual realizada en este estudio.

Figure 1
Figura 1: Configuración del hardware de realidad virtual con retención de cabeza: pantalla de proyección, volante y aparato de fijación de cabeza. (A) Un esquema de diseño 3D de la rueda de rodadura y la pantalla de proyección. (B) Configuración de comportamiento de realidad virtual completada. El entorno de realidad virtual se representa en (1) una computadora de una sola placa y se proyecta en una pantalla parabólica (2) de retroproyección (basada en el diseño del laboratorio de Chris Harvey15,16). (3) Conjunto de rueda. (4) Titular del puesto principal. (5) Depósito de agua para la entrega de recompensas. (C) Vista superior de la pantalla de proyección y configuración de comportamiento. (1) Proyector LED. (2) Espejo para retroproyectar el pasillo VR en la pantalla curva. (3) Rueda de rodaje. (D) Vista trasera del conjunto de la rueda. Las rotaciones de las ruedas son traducidas por el (1) codificador rotativo y transmitidas a la computadora de placa única a través de un (2) microcontrolador ESP32. (3) Se utiliza un goniómetro de doble eje para ajustar la posición de la cabeza para obtener imágenes ópticas. (E) Configuración a nivel de inserción del ratón, mostrando (1) el aparato de fijación de la cabeza y (2) la colocación del puerto de lamido sobre la (3) superficie de la rueda de rodadura. (F) Fotografía del (1) puerto de lamido conectado al (2) brazo flexible para colocar con precisión el pico de recompensa cerca de la boca del ratón. Las recompensas se otorgan a través de una (3) válvula solenoide controlada por el comportamiento ESP32 (a través de la PCB OpenMaze OMwSmall). También es visible el codificador giratorio acoplado al eje de rueda (4) y (5) el goniómetro para el ajuste del ángulo de la cabeza. Haga clic aquí para ver una versión más grande de esta figura.

Figure 2
Figura 2: Esquema de configuración de la electrónica VR. Este esquema muestra las conexiones más relevantes entre los componentes electrónicos en el sistema de realidad virtual de código abierto para ratones. (A) Los ratones están sujetos a la cabeza en un aparato personalizado de fijación de cabeza impreso en 3D sobre una rueda de acrílico. (B) La rotación del eje de la rueda cuando el ratón está en marcha es detectada por un codificador rotativo de alta resolución conectado a un microcontrolador (decodificador rotativo ESP32). (C) La información de movimiento se transmite a través de una conexión en serie a una computadora de placa única que ejecuta el software GUI HallPassVR y el entorno 3D, que actualiza la posición en el entorno de pista lineal virtual VR en función de la locomoción del mouse. (D) El entorno VR renderizado se envía al proyector / pantalla a través de la salida de video HDMI # 2 de la computadora de placa única (video VR HDMI). (E) La información de movimiento del codificador giratorio ESP32 también se envía a otro microcontrolador (Behavior ESP32 con la PCB OpenMaze OMwSmall), que utiliza la posición del ratón para controlar eventos de comportamiento espaciales, no VR (como zonas de recompensa o estímulos olfativos, táctiles o auditivos espaciales) en concierto con el entorno de realidad virtual y mide el lamido del ratón del pico de recompensa a través de la detección táctil capacitiva. Haga clic aquí para ver una versión más grande de esta figura.

Figure 3
Figura 3: GUI y comportamiento del software gráfico. (A) GUI HallPassVR: Se seleccionan cuatro imágenes para colocar en mosaico sobre cada patrón espacial que cubre un tercio de la longitud de la pista (o se carga el patrón de combinación guardado anteriormente) para tres patrones en cada ruta igual a la longitud de la pista. Se seleccionan las imágenes de techo y suelo y, a continuación, se presiona Inicio para inicializar el entorno de realidad virtual en la salida HDMI (pantalla de proyección) del ordenador de placa única. (B) Ejemplo de corredor virtual creado con los parámetros de la GUI que se muestran en A y utilizados para un experimento de recompensa oculta para probar el aprendizaje espacial. (C) Fotografía de un ratón con la cabeza sujeta corriendo en el volante en el entorno virtual que se muestra en B. (D) El panel superior muestra la gráfica en línea del comportamiento animal en un entorno de realidad virtual del boceto de procesamiento incluido para registrar y trazar los datos de comportamiento. Los lamidos, vueltas y recompensas se trazan por intervalos de tiempo de 30 s para la sesión de 30 minutos durante el aprendizaje espacial de recompensa oculta. El panel inferior muestra la posición actual del ratón (negro) y la ubicación de cualquier zona de recompensa (gris) durante el comportamiento. Haga clic aquí para ver una versión más grande de esta figura.

Figure 4
Figura 4: Aprendizaje espacial utilizando el entorno de software gráfico. Datos representativos de lamido espacial de un animal (A) durante el forrajeo aleatorio con señales aleatorias a lo largo de la pista lineal virtual y (B-C) 2 días de entrenamiento con una zona de recompensa oculta estática a 1,5 m con una sola señal visual en el medio de la pista. (A) Día 0 forrajeo aleatorio para cuatro zonas de recompensa por vuelta, seleccionadas al azar de ocho posiciones espaciadas uniformemente a lo largo de la pista lineal virtual de 2 m. (Izquierda) El número promedio de lamidos por contenedor espacial (5 cm) durante la sesión de 30 minutos (arriba: pasillo VR con paneles de estímulos visuales aleatorios). (Derecha) Número de lamidas en cada contenedor espacial de 5 cm por vuelta durante esta sesión, representado por un mapa de calor. (B) Día 1, el primer día de entrenamiento con una sola zona de recompensa a 1,5 m (cuadro rojo en el diagrama de la pista, arriba) utilizando una pista virtual que contiene un solo estímulo de alto contraste en la posición 0,8-1,2 m. (Izquierda) Conteo promedio de lamidas espaciales durante la sesión, mostrando lamidas crecientes cuando el animal se acerca a la zona de recompensa. (Derecha) Lamidos espaciales por vuelta, mostrando una mayor selectividad de lamido en la región previa a la recompensa. (C) Día 2, desde la misma tarea de recompensa oculta y pasillo virtual que el Día 1 y desde el mismo ratón. (Izquierda) Total de lamidos por contenedor espacial, mostrando una disminución en los lamidos fuera de la zona de pre-recompensa. (Derecha) Lamidos espaciales por vuelta en el Día 2, mostrando un aumento de lamido antes de la zona de recompensa y una disminución de lamido en otros lugares, lo que indica el desarrollo de lamidos anticipatorios espacialmente específicos. Esto muestra que este animal ha aprendido la ubicación de recompensa oculta (sin señal) y ha desarrollado una estrategia para minimizar el esfuerzo (lamer) en regiones donde no esperan que una recompensa esté presente. Haga clic aquí para ver una versión más grande de esta figura.

Resultado conductual Número de ratones Porcentaje de ratones
El ratón no corrió/lamió 1 14%
Solo forrajeo aleatorio 2 29%
Recompensa oculta aprendida 4 57%
Total (N) 7

Tabla 1: Resultados del piloto conductual de aprendizaje espacial VR. Siete ratones C57BL / 6 de ambos sexos a los 4 meses de edad fueron entrenados progresivamente para realizar una tarea de recompensa oculta espacial en realidad virtual. De estos ratones, un ratón no corrió / lamió después del entrenamiento inicial (uno de los siete ratones, 14%), mientras que seis de los ratones restantes aprendieron a correr en la rueda y lamer para obtener recompensas espaciales aleatorias en el paso de entrenamiento de búsqueda aleatoria (seis de los siete ratones, 86%). Cuatro de los seis ratones que pudieron realizar el comportamiento de forrajeo aleatorio posteriormente aprendieron a lamer selectivamente en anticipación de la recompensa no señalada en la tarea de recompensa oculta (cuatro de los siete ratones, 57% de los ratones en total, cuatro de los seis ratones, 66% de los ratones de forrajeo aleatorios), mientras que dos no lo hicieron (dos de los siete ratones, 29%).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Este sistema VR de código abierto para ratones solo funcionará si las conexiones seriales se realizan correctamente entre los microcontroladores ESP32 giratorios y de comportamiento y la computadora de placa única (paso 2), que se puede confirmar utilizando el monitor serie IDE (paso 2.4.5). Para obtener resultados conductuales exitosos de este protocolo (paso 4), los ratones deben estar habituados al aparato y sentirse cómodos corriendo en la rueda para obtener recompensas líquidas (pasos 4.3-4.5). Esto requiere suficiente (pero no excesiva) restricción de agua, ya que los ratones que reciben agua ad libitum en la jaula doméstica no correrán y lamerán para obtener recompensas (es decir, para indicar su ubicación percibida), y los ratones deshidratados pueden estar letárgicos y no correr en la rueda. También vale la pena señalar que existen métodos alternativos para motivar el comportamiento del ratón sin restricción de agua24; Sin embargo, no probamos estos métodos aquí. Para el procedimiento de entrenamiento, los animales que no corren inicialmente pueden recibir recompensas de agua ad hoc (es decir, no espaciales) por parte del experimentador a través de una pulsación de botón opcional adjunta, o la rueda puede moverse suavemente para fomentar la locomoción. Para desarrollar un comportamiento de forrajeo aleatorio, los ratones que corren pero no lamen deben correr con recompensas no operantes (código ESP32 de comportamiento: isOperant = 0;, paso 4.5.1) hasta que corran y laman las recompensas, y luego pueden correr con vueltas alternas de zonas de recompensa no operantes y operantes (altOpt=1; Paso 4.5.2) hasta que comiencen a lamer en vueltas operantes antes de pasar a zonas de recompensa aleatorias completamente operantes (Paso 4.5.3).

Si bien hemos proporcionado instrucciones completas y resultados de ejemplo para un conjunto básico de experimentos destinados a obtener una forma de aprendizaje espacial (lamido condicionado en una ubicación de recompensa oculta en el entorno de pista lineal virtual), la misma configuración básica de hardware y software también se puede modificar para la entrega de entornos visuoespaciales más complejos utilizando el paquete pi3d Python para Raspberry Pi. Por ejemplo, este sistema puede incorporar laberintos más complejos, como corredores con longitudes variables, múltiples patrones y objetos 3D, y paisajes naturalistas de realidad virtual en 3D. Además, el software conductual para la entrega de recompensas de agua y otros estímulos no visuales se puede modificar para otros paradigmas de entrenamiento alterando variables clave (presentadas al comienzo del código ESP32 de comportamiento) o insertando nuevos tipos de eventos espaciales en el mismo código. Nos complace asesorar a los usuarios sobre los métodos para implementar otros tipos de experimentos de comportamiento con esta configuración de realidad virtual o en la solución de problemas.

Los entornos de realidad virtual inmersiva han demostrado ser una herramienta versátil para estudiar los mecanismos neuronales subyacentes de la navegación espacial 6,7,8, los comportamientos de aprendizaje de recompensa9 y la percepción visual25 tanto en estudios clínicos como en animales. La principal ventaja de este enfoque es que el experimentador tiene un control estricto sobre los elementos contextuales, como las señales visuales y los estímulos espaciales específicos (por ejemplo, recompensas y estímulos olfativos, auditivos o táctiles), lo que no es práctico en entornos del mundo real con animales que se mueven libremente. Cabe señalar, sin embargo, que pueden existir diferencias en la forma en que los entornos de RV son codificados por áreas del cerebro como el hipocampo en comparación con el uso de entornos del mundo real26,27. Con esta advertencia, el uso de entornos de realidad virtual permite a los experimentadores realizar una gran cantidad de ensayos de comportamiento con estímulos cuidadosamente controlados, lo que permite la disociación de las contribuciones de distintos elementos sensoriales a la navegación espacial.

La complejidad de construir configuraciones personalizadas de realidad virtual a menudo requiere una amplia experiencia en ingeniería y programación de computadoras, lo que puede aumentar el tiempo de configuración y limitar el número de aparatos que se pueden construir para entrenar ratones para la experimentación. Las configuraciones de realidad virtual también están disponibles en proveedores comerciales; Sin embargo, estas soluciones pueden ser costosas y limitadas si el usuario desea implementar nuevas características o ampliar la capacidad de entrenamiento / grabación a más de una configuración. El rango de precios estimado de la configuración de realidad virtual de código abierto presentada aquí es de < $ 1,000 (USD); sin embargo, se puede producir una versión simplificada para el entrenamiento (por ejemplo, que carece de goniómetros para el ajuste del ángulo de la cabeza) por < $ 500 (USD), lo que permite la construcción de múltiples configuraciones para entrenar ratones a mayor escala. La disposición modular de los componentes también permite la integración de la realidad virtual con otros sistemas para el control del comportamiento, como el sistema de cinta de correr con estímulos olfativos espaciales y táctiles que hemos utilizado anteriormente20, y, por lo tanto, la realidad virtual y otras modalidades de estímulo no son mutuamente excluyentes.

Este sistema de realidad virtual de código abierto con su hardware asociado (volante, pantalla de proyección y aparato de fijación de la cabeza), configuración electrónica (computadora de placa única y microcontroladores ESP32) y software (GUI VR y código de comportamiento) proporciona una configuración económica, compacta y fácil de usar para entregar entornos de realidad virtual inmersivos parametrizados a ratones durante la navegación espacial restringida. Este comportamiento puede sincronizarse con imágenes neuronales o registros electrofisiológicos para examinar la actividad neuronal durante el aprendizaje espacial (paso 2.3.7). El espectro de técnicas experimentales compatibles con la realidad virtual es amplio, desde el comportamiento de aprendizaje espacial solo hasta la combinación con fotometría de fibra, imágenes de miniscopio, imágenes de fotón único y multifotón, y técnicas electrofisiológicas (por ejemplo, neuropíxeles o grabación intracelular). Si bien el reposacabezas es necesario para algunas de estas técnicas de registro, la naturaleza extremadamente precisa de la presentación del estímulo y la naturaleza estereotipada del comportamiento también pueden ser útiles para otras técnicas que no requieren fijación de la cabeza, como las imágenes de miniscopio y la fotometría de fibra. Cabe señalar, sin embargo, que nuestra solución capacitiva basada en sensores para detectar lamidos puede introducir un ruido significativo en las trazas electrofisiológicas. Para evitar tales artefactos, se deben implementar soluciones ópticas u otras (por ejemplo, mecánicas) basadas en sensores para la detección de lamidos.

Las mejoras futuras del sistema de realidad virtual se cargarán en la página de GitHub del proyecto (https://github.com/GergelyTuri/HallPassVR), por lo que los usuarios deben consultar esta página regularmente para ver si hay actualizaciones. Por ejemplo, estamos en el proceso de reemplazar las conexiones seriales cableadas entre los microcontroladores y la computadora de placa única con funcionalidad Bluetooth, que es nativa de los microcontroladores ESP32 ya utilizados en este diseño. Además, estamos planeando actualizar la GUI de HallPassVR para permitir la especificación de diferentes rutas en cada sesión de comportamiento para contener diferentes posiciones para estímulos visuales clave en diferentes vueltas. Esto permitirá una mayor flexibilidad para disociar el impacto de características visuales y contextuales específicas en la codificación neuronal del espacio durante el aprendizaje espacial.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Clay Lacefield es el fundador y mantenedor de OpenMaze.org, que proporciona diseños para la PCB OMwSmall utilizada en este protocolo de descarga gratuita.

Acknowledgments

Nos gustaría agradecer a Noah Pettit del laboratorio Harvey por la discusión y las sugerencias mientras desarrollamos el protocolo en este manuscrito. Este trabajo fue apoyado por un BBRF Young Investigator Award y NIMH 1R21MH122965 (G.F.T.), además de NINDS R56NS128177 (R.H., C.L.) y NIMH R01MH068542 (R.H.).

Materials

Name Company Catalog Number Comments
1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

DOWNLOAD MATERIALS LIST

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. Pettit, N., et al. Harvey Lab Mouse VR. , Available from: https://github.com/Harvey/Lab/mouseVR (2021).
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Tags

Neurociencia Número 193
Un sistema de realidad virtual de código abierto para la medición del aprendizaje espacial en ratones con cabeza restringida
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Lacefield, C., Cai, H., Ho, H.,More

Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter