Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Um Sistema de Realidade Virtual de Código Aberto para a Medição da Aprendizagem Espacial em Camundongos Contidos na Cabeça

Published: March 3, 2023 doi: 10.3791/64863

Summary

Aqui, apresentamos uma configuração simplificada de hardware e software de código aberto para investigar o aprendizado espacial de mouse usando realidade virtual (RV). Este sistema exibe uma trilha linear virtual para um mouse com restrição de cabeça rodando em uma roda utilizando uma rede de microcontroladores e um computador de placa única executando um pacote de software gráfico Python fácil de usar.

Abstract

Experimentos comportamentais contidos na cabeça em camundongos permitem que os neurocientistas observem a atividade do circuito neural com ferramentas de imagem eletrofisiológica e óptica de alta resolução, ao mesmo tempo em que fornecem estímulos sensoriais precisos a um animal que se comporta. Recentemente, estudos em humanos e roedores utilizando ambientes de realidade virtual (RV) têm mostrado que a RV é uma importante ferramenta para descobrir os mecanismos neurais subjacentes ao aprendizado espacial no hipocampo e córtex, devido ao controle extremamente preciso sobre parâmetros como pistas espaciais e contextuais. A configuração de ambientes virtuais para comportamentos espaciais de roedores pode, no entanto, ser cara e exigir uma extensa formação em engenharia e programação de computadores. Aqui, apresentamos um sistema simples, mas poderoso, baseado em hardware e software baratos, modulares e de código aberto que permite aos pesquisadores estudar o aprendizado espacial em camundongos com restrição de cabeça usando um ambiente de RV. Este sistema usa microcontroladores acoplados para medir a locomoção e fornecer estímulos comportamentais enquanto ratos com a cabeça contida correm em uma roda em conjunto com um ambiente de trilha linear virtual renderizado por um pacote de software gráfico executado em um computador de placa única. A ênfase no processamento distribuído permite que os pesquisadores projetem sistemas flexíveis e modulares para eliciar e medir comportamentos espaciais complexos em camundongos, a fim de determinar a conexão entre a atividade do circuito neural e o aprendizado espacial no cérebro de mamíferos.

Introduction

A navegação espacial é um comportamento etologicamente importante pelo qual os animais codificam as características de novos locais em um mapa cognitivo, que é usado para encontrar áreas de possível recompensa e evitar áreas de perigo potencial. Inextricavelmente ligados à memória, os processos cognitivos subjacentes à navegação espacial compartilham um substrato neural no hipocampo1 e córtex, onde circuitos neurais nessas áreas integram informações recebidas e formam mapas cognitivos de ambientes e eventos para posterior recordação2. Embora a descoberta de células de lugar no hipocampo3,4 e células de grade no córtex entorrinal5 tenha lançado luz sobre como o mapa cognitivo dentro do hipocampo é formado, muitas questões permanecem sobre como subtipos neurais específicos, microcircuitos e sub-regiões individuais do hipocampo (o giro denteado e áreas de cornu amonis, CA3-1) interagem e participam da formação e evocação da memória espacial.

A imagem in vivo de dois fótons tem sido uma ferramenta útil na descoberta da dinâmica celular e populacional em neurofisiologia sensorial 6,7; no entanto, a necessidade típica de apoio de cabeça limita a utilidade deste método para examinar o comportamento espacial de mamíferos. O advento da realidade virtual (RV)8 abordou essa lacuna ao apresentar ambientes visuoespaciais imersivos e realistas enquanto camundongos com restrição da cabeça correm em uma bola ou esteira para estudar a codificação espacial e contextual no hipocampo 8,9,10 e córtex 11. Além disso, o uso de ambientes de RV com camundongos que se comportam permitiu que os pesquisadores da neurociência dissecassem os componentes do comportamento espacial controlando precisamente os elementos do ambiente de RV12 (por exemplo, fluxo visual, modulação contextual) de maneiras não possíveis em experimentos do mundo real de aprendizagem espacial, como o labirinto aquático de Morris, labirinto de Barnes ou tarefas de hole board.

Ambientes de RV visual são normalmente renderizados na unidade de processamento gráfico (GPU) de um computador, que lida com a carga de computação rápida dos milhares de polígonos necessários para modelar um ambiente 3D em movimento em uma tela em tempo real. Os grandes requisitos de processamento geralmente exigem o uso de um PC separado com uma GPU que renderiza o ambiente visual para um monitor, várias telas13 ou um projetor14 , pois o movimento é gravado de uma esteira, roda ou bola de espuma sob o animal. O aparato resultante para controlar, renderizar e projetar o ambiente de RV é, portanto, relativamente caro, volumoso e pesado. Além disso, muitos desses ambientes na literatura foram implementados usando software proprietário que é caro e só pode ser executado em um PC dedicado.

Por essas razões, projetamos um sistema de RV de código aberto para estudar comportamentos de aprendizagem espacial em camundongos com restrição de cabeça usando um computador de placa única Raspberry Pi. Este computador Linux é pequeno e barato, mas contém um chip GPU para renderização 3D, permitindo a integração de ambientes VR com o display ou aparato comportamental em configurações individuais variadas. Além disso, desenvolvemos um pacote gráfico escrito em Python, "HallPassVR", que utiliza o computador de placa única para renderizar um ambiente visuoespacial simples, uma trilha linear virtual ou corredor, recombinando recursos visuais personalizados selecionados usando uma interface gráfica do usuário (GUI). Isso é combinado com subsistemas de microcontroladores (por exemplo, ESP32 ou Arduino) para medir a locomoção e coordenar o comportamento, como a entrega de outras modalidades de estímulos sensoriais ou recompensas para facilitar o aprendizado por reforço. Este sistema fornece um método alternativo barato, flexível e fácil de usar para fornecer ambientes de RV visuoespaciais para camundongos com restrição de cabeça durante imagens de dois fótons (ou outras técnicas que exigem fixação da cabeça) para estudar os circuitos neurais subjacentes ao comportamento de aprendizagem espacial.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Todos os procedimentos deste protocolo foram aprovados pelo Comitê Institucional de Cuidados e Uso de Animais do New York State Psychiatric Institute.

NOTA: Um computador de placa única é usado para exibir um ambiente visual de RV coordenado com a execução de um mouse com restrição de cabeça em uma roda. As informações de movimento são recebidas como entrada serial de um microcontrolador ESP32 lendo um encoder rotativo acoplado ao eixo da roda. O ambiente VR é renderizado usando aceleração de hardware OpenGL na GPU Raspberry Pi, que utiliza o pacote pi3d Python 3D para Raspberry Pi. O ambiente renderizado é então produzido através de um projetor em uma tela parabólica compacta centrada no campo visual do mouse com contenção da cabeça15,16, enquanto o comportamento (por exemplo, lamber em resposta a recompensas espaciais) é medido por um segundo microcontrolador ESP32 de comportamento. O pacote de software gráfico permite a criação de ambientes de trilha linear virtual consistindo de padrões repetidos de estímulos visuais ao longo de um corredor ou corredor virtual com uma interface gráfica do usuário (GUI). Este desenho é facilmente parametrizado, permitindo assim a criação de experiências complexas destinadas a compreender como o cérebro codifica lugares e pistas visuais durante a aprendizagem espacial (ver secção 4). Os projetos para os componentes de hardware personalizados necessários para este sistema (ou seja, a roda de corrida, a tela de projeção e o dispositivo de apoio de cabeça) são depositados em um repositório público do GitHub (https://github.com/GergelyTuri/HallPassVR). Recomenda-se a leitura da documentação desse repositório juntamente com este protocolo, pois o site será atualizado com futuras melhorias do sistema.

1. Configuração do hardware: Construção da roda de corrida, tela de projeção, e aparelho de fixação da cabeça

NOTA: Os componentes personalizados para essas configurações podem ser facilmente fabricados se o usuário tiver acesso a equipamentos de impressão 3D e corte a laser ou podem ser terceirizados para fabricação profissional ou serviços de prototipagem 3D (por exemplo, eMachinehop). Todos os arquivos de design são fornecidos como . Arquivos STL 3D ou . Arquivos DXF AutoCAD.

  1. Roda de corrida e configuração comportamental (Figura 1)
    NOTA: A roda consiste em um cilindro de acrílico transparente (6 de diâmetro, 3 de largura, 1/8 de espessura) centrado em um eixo suspenso de suportes de acrílico cortados a laser através de rolamentos de esferas. O conjunto da roda é então montado em uma estrutura de alumínio leve (com fenda em t) e fixado firmemente a uma protoboard óptica (Figura 1C-E).
    1. Corte a laser as laterais da roda e os suportes do eixo a partir de uma folha de acrílico de 1/4 e prenda as laterais da roda ao cilindro de acrílico com cimento acrílico. Rosqueie a flange do eixo no centro da peça lateral da roda.
    2. Insira o eixo na flange central da roda, encaixe os rolamentos de esferas nos suportes do eixo e fixe-os à barra de apoio vertical de alumínio.
    3. Insira o eixo da roda nos rolamentos de esferas montados, deixando 0,5-1 polegada do eixo além dos rolamentos para a fixação do codificador rotativo.
    4. Fixe o suporte do encoder rotativo na extremidade do eixo oposto à roda e insira o encoder rotativo; Em seguida, use o acoplador de eixo para acoplar o eixo da roda ao eixo do codificador rotativo.
    5. Fixe a porta de lambida ao braço flexível e, em seguida, fixe na estrutura da roda de alumínio com porcas t-slot. Use tubulação de 1/16 polegada para conectar a porta de lambida à válvula solenoide e a válvula ao reservatório de água.
      NOTA: A porta de lambida deve ser feita de metal com um fio soldado para prendê-la aos pinos de detecção de toque capacitivo do comportamento ESP32.
  2. Tela de projeção
    NOTA: A tela de RV é uma pequena tela parabólica de projeção traseira (tamanho da tela: 54 cm x 21,5 cm) baseada em um projeto desenvolvido no laboratório de Christopher Harvey15,16. O ângulo de projeção (keystone) do projetor LED utilizado é diferente daquele do projetor a laser utilizado anteriormente; assim, o projeto original é ligeiramente modificado pela montagem da unidade sob a tela e simplificando o sistema de espelhos (Figura 1A, B). A leitura da documentação do laboratório Harvey juntamente com a nossa é altamente recomendada para adaptar o ambiente de RV às necessidades do usuário15.
    1. Corte a laser as laterais da tela de projeção de 1/4 em folhas de acrílico fosco preto. Corte a laser o espelho de projeção traseiro de 1/4 em acrílico espelhado.
    2. Monte a moldura da tela de projeção com as barras de alumínio e corte a laser os painéis de acrílico.
    3. Insira o material da tela de projeção translúcida no slot parabólico no quadro. Insira o espelho retrovisor de projeção no slot na parte de trás do quadro da tela de projeção.
    4. Coloque um projetor LED na placa de montagem inferior dentro da moldura da tela de projeção. Alinhe o projetor com parafusos de montagem para otimizar o posicionamento da imagem projetada na tela de projeção traseira parabólica.
    5. Sele a unidade da caixa do projetor para evitar a contaminação luminosa dos sensores ópticos, se necessário.
  3. Aparelhos de apoio de cabeça
    NOTA: Este projeto de dispositivo de apoio de cabeça consiste em dois coletores impressos em 3D interligados para fixar um poste de cabeça de metal (Figura 1E, F).
    1. Usando uma impressora 3D SLM de alta resolução, imprima em 3D o poste da cabeça segurando os braços.
      NOTA: O plástico impresso com resina é capaz de fornecer fixação estável da cabeça para experimentos comportamentais; no entanto, para obter a máxima estabilidade para aplicações sensíveis, como gravação de célula única ou imagem de dois fótons, recomenda-se o uso de peças de metal usinadas (por exemplo, eMachineShop).
    2. Instale o suporte do poste da cabeça impresso em 3D em um goniômetro de eixo duplo com postes de montagem ópticos para que a cabeça do animal possa ser inclinada para nivelar a preparação.
      NOTA: Esse recurso é indispensável para experimentos de imagem in vivo de longo prazo quando é necessário encontrar a mesma população celular em sessões de imagem subsequentes. Caso contrário, esse recurso pode ser omitido para reduzir o custo da instalação.
    3. Fabricar os postes de cabeça.
      NOTA: Dois tipos de postes de cabeça com complexidade (e preço) diferentes são depositados no link fornecido na Tabela de Materiais juntamente com estas instruções.
      1. Dependendo do tipo de experimento, decida qual poste de cabeça implementar. As barras principais são feitas de aço inoxidável e geralmente são terceirizadas para qualquer oficina mecânica local ou serviço on-line (por exemplo, eMachineShop) para fabricação.

2. Configuração do hardware/software eletrônico (computador de placa única, microcontroladores ESP32, Figura 2)

  1. Configure o computador de placa única.
    NOTA: O computador de placa única incluído na Tabela de Materiais (Raspberry Pi 4B) é ideal para essa configuração porque tem uma GPU integrada para facilitar a renderização do ambiente VR e duas portas HDMI para controle/monitoramento de experimentos e projeção VR. Outros computadores de placa única com essas características podem ser potencialmente substituídos, mas algumas das instruções a seguir podem ser específicas do Raspberry Pi.
    1. Baixe o aplicativo imageador de computador de placa única para o PC e instale o sistema operacional (atualmente Raspberry Pi OS r.2021-05-07) no cartão microSD (16+ GB). Insira a placa e inicialize o computador de placa única.
    2. Configure o computador de placa única para a biblioteca pi3d Python 3D: (barra de menus) Preferências > Configuração do Raspberry Pi.
      1. Clique em Exibir > tela em branco > Desativar.
      2. Clique em Interfaces > porta serial > Ativar.
      3. Clique em Performance > GPU Memory > 256 (MB).
    3. Atualize o pacote da biblioteca de imagens Python para pi3d: (terminal)> sudo pip3 install pillow --upgrade.
    4. Instale o pacote pi3d Python 3D para o computador de placa única: (terminal)> sudo pip3 instale o pi3d.
    5. Aumente o nível de saída HDMI para o projetor: (terminal)> sudo nano /boot/config.txt, remova o comentário config_hdmi_boost=4, salve e reinicie.
    6. Baixe e instale o ambiente de desenvolvimento integrado (IDE) a partir do arduino.cc/en/software (por exemplo, arduino-1.8.19-linuxarm.tar.gz), que é necessário para carregar o código no codificador rotativo e nos microcontroladores ESP32 de comportamento.
    7. Instale o suporte ao microcontrolador ESP32 no IDE:
      1. Clique em Preferências de > de Arquivos > URLs adicionais do Board Manager = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Clique em Tools > Boards > Boards Manager > ESP32 (by Espressif). Instale a v.2.0.0 (o carregamento atualmente falha na v2.0.4).
    8. Baixe e instale o IDE de processamento a partir do https://github.com/processing/processing4/releases (por exemplo, processing-4.0.1-linux-arm32.tgz), que é necessário para a gravação e plotagem on-line do comportamento do mouse durante a RV.
      NOTA: Os ambientes Arduino e Processing podem ser executados em um PC separado do computador de placa única VR, se desejado.
  2. Configure as conexões ESP32 do codificador rotativo.
    NOTA: O codificador rotativo acoplado ao eixo da roda mede a rotação da roda com a locomoção do mouse, que é contada com um microcontrolador ESP32. As mudanças de posição são então enviadas para a porta serial GPIO do computador de placa única para controlar o movimento através do ambiente virtual usando o pacote gráfico de software, bem como para o comportamento ESP32 para controlar as zonas de recompensa (Figura 2).
    1. Conecte os fios entre o componente codificador rotativo e o ESP32 rotativo. Os encoders rotativos geralmente têm quatro fios: +, GND, A e B (duas linhas digitais para encoders de quadratura). Conecte-os através de fios de jumper ao ESP32 3.3 V, GND, 25, 26 (no caso do código anexado).
    2. Conecte os fios RX/TX seriais entre o ESP32 rotativo e o comportamento ESP32. Faça uma conexão simples de dois fios entre o rotativo ESP32 Serial0 RX/TX (receive/transmit) e a porta Serial2 do comportamento ESP32 (TX/RX, pinos 17, 16; veja Porta Serial2 à direita do OMwSmall PCB). Isso transportará informações de movimento do codificador rotativo para a configuração de comportamento para zonas espaciais, como zonas de recompensa.
    3. Conecte os fios RX/TX seriais entre o ESP32 rotativo e o GPIO (ou conexão USB direta) do computador de placa única. Faça uma conexão de dois fios entre os pinos GPIO 14, 15 (RX/TX) do computador de placa única e o ESP32 Serial2 rotativo (TX/RX, pinos 17, 16). Isso transportará informações de movimento do codificador rotativo para o pacote de software gráfico em execução no computador de placa única.
      NOTA: Esta etapa só é necessária se o ESP32 rotativo não estiver conectado via USB (ou seja, é uma conexão serial GPIO em "/dev/ttyS0"), mas o código HallPassVR_wired.py deve ser modificado para usar "/dev/ttyUSB0". Esta conexão com fio será substituída por uma conexão Bluetooth sem fio em versões futuras.
    4. Conecte o USB rotativo ESP32 ao USB do computador de placa única (ou outro PC que execute o IDE) para carregar o código do codificador rotativo inicial.
  3. Configure as conexões ESP32 de comportamento com o hardware comportamental (via OpenMaze PCB).
    NOTA: O microcontrolador ESP32 de comportamento controlará todas as interações animais não-VR (entregando estímulos e recompensas não-VR, detectando lambidas do mouse), que são conectadas através de uma "placa de breakout" geral PCB para o ESP32, "OMwSmall", cujos projetos estão disponíveis através do site OpenMaze (www.openmaze.org). A PCB contém os componentes eletrônicos necessários para acionar os componentes eletromecânicos, como as válvulas solenoides usadas para entregar recompensas líquidas.
    1. Conecte a válvula solenoide líquida de 12 V à saída ULN2803 IC na extremidade esquerda da PCB OMwSmall (pino 12 na configuração e código de exemplo). Este CI transporta alimentação de 12 V para a válvula solenoide de recompensa, controlada por uma saída GPIO no microcontrolador ESP32 de comportamento.
    2. Conecte a porta lick à entrada de toque ESP32 (por exemplo, T0, GPIO4 no código de exemplo). O ESP32 tem sensor de toque capacitivo embutido em pinos específicos, que o código ESP32 de comportamento usa para detectar a lambida do mouse da porta de lambida de metal conectada durante o comportamento VR.
    3. Conecte os fios RX/TX seriais entre o comportamento ESP32 Serial2 (pinos 16, 17) e o codificador rotativo ESP32 Serial0 (veja a etapa 2.2.2).
    4. Conecte o USB à porta USB do computador de placa única (ou outro PC) para carregar novos programas para o comportamento ESP32 para diferentes paradigmas experimentais (por exemplo, número/localização de zonas de recompensa) e para capturar dados de comportamento usando o esboço de processamento incluído.
    5. Conecte o adaptador de parede DC de 12 V ao conector de conector de barril de 2,1 mm na PCB ESP32 OMwSmall para fornecer a energia para a válvula solenoide de recompensa.
    6. Conecte a saída HDMI #2 do computador de placa única à porta HDMI do projetor; isso levará o ambiente VR renderizado pela GPU do computador de placa única para a tela de projeção.
    7. (opcional) Conecte o fio de sincronização (pino 26) a uma configuração de imagem neural ou gravação eletrofisiológica. Um sinal de 3,3 V transistor-transistor-logic (TTL) será enviado a cada 5 s para alinhar os sistemas com precisão de quase milissegundos.
  4. Configure o software: Carregue o firmware/software no codificador rotativo ESP32 (Figura 2B) e no comportamento ESP32 (Figura 2E) usando o IDE e baixe o software VR Python no computador de placa única. Veja https://github.com/GergelyTuri/HallPassVR/software.
    1. Conecte o codificador rotativo ESP32 à porta USB do computador de placa única primeiro - isso será automaticamente nomeado "/dev/ttyUSB0 " pelo sistema operacional.
    2. Carregue o código do codificador rotativo: abra o arquivo RotaryEncoder_Esp32_VR.ino no IDE e selecione o ESP32 em Ferramentas > Placas > Módulo de Desenvolvimento do ESP32. Selecione a porta ESP32 clicando em Ferramentas > Porta > /dev/ttyUSB0 e, em seguida, clique em Carregar.
    3. Conecte o comportamento ESP32 à porta USB do computador de placa única em seguida - isso será chamado de "/dev/ttyUSB1" pelo sistema operacional.
    4. Carregue o código de sequência de comportamento no comportamento ESP32 (IDE, ESP32 Dev Module já selecionado), clique em Tools > Port > /dev/ttyUSB1 e clique em Upload: wheel_VR_behavior.ino.
    5. Teste as conexões seriais selecionando a porta serial para cada ESP32 no IDE (Tools > Port > /dev/ttyUSB0 ou /dev/ttyUSB1) e clicando em Tools > Serial Monitor (baud rate: 115.200) para observar a saída serial da placa rotativa (USB0) ou da placa de comportamento (USB1). Gire a roda para ver uma saída de movimento bruto do ESP32 rotativo em USB0 ou saída de movimento formatada do comportamento ESP32 em USB1.
    6. Faça o download do pacote gráfico de software Python do código https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR (para /home/pi/Documents). Esta pasta contém todos os arquivos necessários para executar o pacote de software gráfico se o pacote pi3d Python3 foi instalado corretamente anteriormente (etapa 2.1).

3. Executando e testando o pacote de software gráfico

NOTA: Execute a GUI do pacote de software gráfico para iniciar um ambiente de trilha linear de RV, calibrar as distâncias no software de RV e no código ESP32 de comportamento e testar a aquisição e a plotagem on-line do comportamento de corrida e lambida do mouse com o esboço de linguagem de processamento incluído.

  1. Abra a janela do terminal no computador de placa única e navegue até a pasta HallPassVR (terminal:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)
  2. Execute a GUI VR: (terminal)> python3 HallPassVR_GUI.py (a janela GUI será aberta, Figura 3A).
  3. GUI gráfica do software
    1. Selecione e adicione quatro elementos (imagens) da caixa de listagem (ou selecione o padrão pré-armazenado abaixo e, em seguida, clique em Carregar) para cada um dos três padrões ao longo da faixa e, em seguida, clique em Gerar.
      Observação : novos arquivos de imagem (.jpeg) podem ser colocados na pasta HallPassVR/HallPassVR_wired/images/ELEMENTS antes que a GUI seja executada.
    2. Selecione imagens de piso e teto nos menus suspensos e defina o comprimento da faixa como 2 m para este código de exemplo (ele deve ser igual ao trackLength em milímetros [mm] no código ESP32 de comportamento e no código de processamento).
    3. Nomeie este padrão se desejado (ele será armazenado em HallPassVR_wired/images/PATH_HIST).
    4. Clique no botão Iniciar (aguarde até que a janela VR seja iniciada antes de clicar em outro lugar). O ambiente de RV aparecerá na Tela #2 (tela de projeção, Figura 3B, C).
  4. Execute o esboço de processamento para adquirir e plotar os dados/movimento comportamental.
    1. Abra VRwheel_RecGraphSerialTxt.pde no IDE de processamento.
    2. Mude o animal = "yourMouseNumber"; variável e defina sessionMinutes igual à duração da sessão comportamental em minutos.
    3. Clique no botão Executar no IDE de processamento.
    4. Verifique a janela Gráfico de processamento, que deve mostrar a posição atual do mouse na pista linear virtual à medida que a roda gira, juntamente com as zonas de recompensa e histogramas de execução das lambidas, voltas e recompensas atualizadas a cada 30 s (Figura 3D). Avançar o volante manualmente para simular o mouse em execução para teste ou use um mouse de teste para a configuração inicial.
    5. Clique na janela de plotagem e pressione a tecla q no teclado para parar de adquirir dados comportamentais. Um arquivo de texto dos eventos e horários comportamentais (geralmente <2 MB de tamanho por sessão) e uma imagem da janela de plotagem final (.png) são salvos quando sessionMinutes se esgota ou o usuário pressiona a tecla q para sair.
      NOTA: Devido ao pequeno tamanho dos arquivos de .txt de saída, estima-se que pelo menos vários milhares de gravações de comportamento podem ser armazenadas no cartão SD do computador de placa única. Os arquivos de dados podem ser salvos em um pen drive para análise subsequente ou, se conectados a uma rede local, os dados podem ser gerenciados remotamente.
  5. Calibre o comprimento da faixa de comportamento com o comprimento da trilha VR.
    1. Avançar a roda manualmente enquanto observa o corredor de RV e a posição do mouse (no gráfico Processamento). Se o corredor de RV terminar antes/depois que o mouse atingir o final do gráfico de comportamento, aumente/diminua o comprimento da trilha de RV incrementalmente (HallPassVR_wired.py, corridor_length_default, em centímetros [cm]) até que a trilha seja redefinida simultaneamente nos dois sistemas.
      NOTA: O código está atualmente calibrado para uma roda de corrida de 6 polegadas de diâmetro usando um codificador rotativo de quadratura de 256 posições, de modo que o usuário pode ter que alterar o VR (HallPassVR_wired.py, corridor_length_default, em centímetros [cm]) e o código de comportamento (wheel_VR_behavior.ino, trackLength, em milímetros [mm]) para levar em conta outras configurações. A posição comportamental é, no entanto, redefinida a cada volta de RV para manter a correspondência entre os sistemas.

4. Treinamento de camundongos e comportamento de aprendizagem espacial

NOTA: Os ratos são implantados para fixação da cabeça, habituados ao apoio de cabeça e, em seguida, treinados para correr na roda e lamber consistentemente para obter recompensas líquidas progressivamente ("forrageamento aleatório"). Os ratos que conseguem correr e lamber consistentemente são então treinados em uma tarefa de recompensa espacial oculta usando o ambiente VR, no qual uma única zona de recompensa é apresentada seguindo uma pista visual na trilha linear virtual. O aprendizado espacial é então medido como o aumento da seletividade de lambedura para posições imediatamente anteriores à zona de recompensa.

  1. Cirurgia pós-implante de cabeça: Este procedimento é descrito em detalhes em outras publicações deste periódico e em outros, portanto, consulte esta literatura para instruções específicas 7,17,18,19,20,21.
  2. Programação hídrica
    1. Realizar restrição hídrica 24 horas antes da primeira manipulação (veja abaixo) e permitir o consumo de água ad libitum após cada sessão de habituação ou comportamento de contenção da cabeça. Diminua o tempo de disponibilidade de água gradualmente ao longo de três dias durante a habituação para cerca de 5 minutos e ajuste a quantidade para camundongos individuais de modo que seu peso corporal não caia abaixo de 80% de seu peso pré-restrição. Monitorar o peso de cada animal diariamente e também observar a condição de cada camundongo em busca de sinais de desidratação22. Camundongos que não são capazes de manter 80% de seu peso corporal pré-restrição ou parecem desidratados devem ser removidos do estudo e receber disponibilidade de água livre.
      NOTA: A restrição hídrica é necessária para motivar os ratos a correrem na roda usando recompensas líquidas, bem como para usar a lambida espacial como uma indicação de locais aprendidos ao longo da pista. As diretrizes institucionais podem diferir sobre instruções específicas para este procedimento, portanto, o usuário deve consultar seus comitês institucionais de cuidados com animais individuais para garantir a saúde e o bem-estar animal durante a restrição hídrica.
  3. Manuseio: Manipular os camundongos implantados diariamente para habituá-los ao contato humano, após o que água ad libitum limitada pode ser administrada como reforço (1-5 min/dia, 2 dias a 1 semana).
  4. Habituação ao apoio de cabeça
    1. Habitue os ratos ao apoio de cabeça por quantidades crescentes de tempo, colocando-os no aparelho de apoio de cabeça enquanto os recompensa com gotas ocasionais de água para reduzir o estresse da fixação da cabeça.
    2. Iniciar com 5 min de fixação da cabeça e aumentar a duração em incrementos de 5 min diariamente até que os camundongos sejam capazes de tolerar a fixação por até 30 min. Remova os ratos do aparelho de fixação se eles parecerem estar lutando ou se movendo muito pouco. No entanto, os ratos geralmente começam a correr na roda espontaneamente dentro de várias sessões, o que significa que eles estão prontos para a próxima etapa do treinamento.
      NOTA: Os ratos que lutam repetidamente sob apoio de cabeça ou não correm e lambem para obter recompensas devem regredir para estágios anteriores de treinamento e removidos do estudo se não progredirem por três desses ciclos de correção (ver Tabela 1).
  5. Treinamento de corrida/lambida (forrageamento aleatório)
    NOTA: Para executar a tarefa de aprendizagem espacial no ambiente de RV, os ratos devem primeiro aprender a correr na roda e lamber consistentemente para recompensas ocasionais. A progressão nos parâmetros comportamentais operante é controlada através do microcontrolador de comportamento ESP32.
    1. Forrageamento aleatório com recompensas não operantes
      1. Execute o programa GUI do software gráfico com um caminho de elementos visuais arbitrários (escolha do usuário, consulte a etapa 3.3).
      2. Carregue o programa de comportamento para o comportamento ESP32 com várias recompensas não operantes (variáveis de código: isOperant=0, numRew=4, isRandRew=1) para condicionar os ratos a correr e lamber. Execute os ratos em sessões de 20-30 minutos até que os ratos corram por pelo menos 20 voltas por sessão e lambam as recompensas apresentadas em locais aleatórios (uma a quatro sessões).
    2. Forrageamento aleatório com recompensas operantes em voltas alternadas
      1. Carregue o programa de comportamento com altOpt=1 (alternando voltas operantes/não operantes) e treine os ratos até que eles lambam para zonas de recompensa não operantes e operantes (uma a quatro sessões).
    3. Forrageamento aleatório totalmente operante
      1. Carregue o programa de comportamento com quatro zonas de recompensa aleatórias operantes (variáveis de código ESP32 de comportamento: isOperant=1, numRew=4, isRandRew=1). Ao final dessa etapa de treinamento, os camundongos devem estar correndo consistentemente e realizando lambe-lambes de teste em toda a extensão da pista (uma a quatro sessões; Figura 4A).
  6. Aprendizagem espacial
    NOTA: Realizar um experimento de aprendizagem espacial com uma única zona de recompensa oculta a alguma distância de uma única pista visual, selecionando um corredor de 2 m de comprimento com painéis escuros ao longo da pista e um único painel de estímulo visual de alto contraste no meio como uma pista visual (posição de 0,9-1,1 m), análogo a experimentos recentes com pistas olfativas espaciais20 . Os ratos são obrigados a lamber em uma zona de recompensa (em uma posição de 1,5-1,8 m) localizada a uma distância da pista visual no ambiente de pista linear virtual.
    1. Execute o programa de software gráfico com um caminho de um corredor escuro com uma única pista visual no centro (por exemplo, tabuleiro de xadrez, veja a etapa 3.3, Figura 3A).
    2. Carregue o programa de comportamento com uma única zona de recompensa oculta para o comportamento ESP32 (variáveis de código ESP32 de comportamento: isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500}).
    3. Coloque suavemente o mouse no aparelho de fixação da cabeça, ajuste o bico de lambida para um local imediatamente anterior à boca do mouse e posicione a roda do mouse no centro da zona da tela de projeção. Certifique-se de que a cabeça do mouse esteja a ~12-15 cm de distância da tela após os ajustes finais.
    4. Defina o nome do animal no esboço de processamento e, em seguida, pressione executar no IDE de processamento para começar a adquirir e plotar os dados comportamentais (consulte a etapa 3.4).
    5. Execute o mouse por sessões de 30 minutos com uma única zona de recompensa oculta e um único corredor de RV visual.
    6. Offline: baixe o arquivo de dados .txt da pasta Processing sketch e analise o comportamento de lambida espacial (por exemplo, no Matlab com os arquivos incluídos procVRbehav.m e vrLickByLap.m).
      NOTA: Os ratos devem inicialmente realizar lambidas de teste em toda a pista virtual ("forrageamento aleatório") e, em seguida, começar a lamber seletivamente apenas perto do local da recompensa seguindo a pista visual da RV (Figura 4).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Essa configuração comportamental de realidade virtual de código aberto nos permitiu quantificar o comportamento de lamber como uma leitura do aprendizado espacial enquanto camundongos com a cabeça contida navegavam em um ambiente de trilha linear virtual. Sete camundongos C57BL/6 de ambos os sexos aos 4 meses de idade foram colocados em um esquema de água restrita e primeiro treinados para lamber continuamente em níveis baixos enquanto corriam na roda para recompensas espaciais aleatórias ("forrageamento aleatório") sem RV. Embora seu desempenho tenha sido inicialmente afetado quando movido para a configuração da tela de projeção de RV com um padrão de corredor aleatório de 2 m, ele retornou aos níveis anteriores em várias sessões de RV (Figura 4A). Os ratos que desenvolveram a estratégia de forrageamento aleatório com RV (seis dos sete camundongos, 86%; um camundongo não conseguiu correr consistentemente e foi excluído) foram então obrigados a lamber em uma zona de recompensa operante não sinalizada a 0,5 m seguindo uma única pista de localização visual no meio de uma trilha virtual de 2 m sem recursos, a fim de receber recompensas de água ("tarefa de recompensa oculta"). De acordo com os dados atuais do piloto com esse sistema, quatro dos sete (57%) camundongos foram capazes de aprender a tarefa de recompensa oculta com uma única pista visual em duas a quatro sessões, como mostrado por lamber perto da zona de recompensa com seletividade crescente (Tabela 1, Figura 4B,C), o que é semelhante aos nossos resultados anteriores com uma esteira sem RV17 . Esse fato é importante no estudo da aprendizagem espacial, pois permite o monitoramento e/ou manipulação da atividade neural durante períodos críticos de aprendizagem sem treinamento extensivo. Além disso, os camundongos exibiram aprendizado substancial tanto dentro da sessão quanto entre as sessões (Figura 4C), proporcionando uma oportunidade de observar as adaptações do circuito neural de curto e longo prazo que acompanham o aprendizado espacial. Não testamos a taxa de aprendizado de uma tarefa equivalente não RV, mas muitas tarefas espaciais clássicas dependentes do hipocampo do mundo real, como o labirinto aquático de Morris, exigem treinamento ainda mais extenso e apresentam dramaticamente menos testes comportamentais e, portanto, são menos adequadas para o monitoramento do comportamento de aprendizagem juntamente com mudanças na atividade neural.

Enquanto a maioria dos camundongos neste grupo piloto (57%) foi capaz de aprender a tarefa de recompensa oculta em um pequeno número de sessões, camundongos adicionais podem exibir aprendizado espacial em escalas de tempo mais longas, e o treinamento individualizado deve aumentar essa fração de camundongos. De fato, variações nas taxas de aprendizagem podem ser úteis para dissociar as relações específicas entre a atividade neural em áreas cerebrais como o hipocampo e a aprendizagem comportamental. No entanto, observamos que uma pequena porcentagem de camundongos não aprendeu a correr na roda ou lamber para obter recompensas não operantes ou operantes (um dos sete camundongos, 14%) e, portanto, não pôde ser usada para experimentos subsequentes. Manejo e habituação adicionais e uma redução no estado geral de estresse do animal por meio de reforços adicionais, como o uso de guloseimas desejáveis, podem ser úteis para ajudar esses animais a adotar corrida ativa e lamber durante o comportamento de contenção da cabeça na roda.

Ao manipular a presença e a posição da pista e das zonas de recompensa em voltas intermitentes na pista virtual, um experimentador pode discernir ainda mais a dependência da lambida espacialmente seletiva em canais específicos de informação em RV para determinar, por exemplo, como os ratos dependem de pistas locais ou distantes ou informações de automovimento para estabelecer sua localização em um ambiente. A seletividade de lambedura de camundongos que aprenderam o local oculto de recompensa deve ser afetada pelo deslocamento ou omissão da pista visual ao longo da trilha se eles utilizarem ativamente essa pista espacial como um marco, como mostramos em um trabalho recente usando pistas olfativas espaciais20. No entanto, mesmo com o exemplo simples que apresentamos aqui, a lambida altamente seletiva alcançada pelos camundongos (Figura 4C, à direita) indica que eles codificam o ambiente visual de RV para informar suas decisões sobre onde estão e, portanto, quando lamber, já que a zona de recompensa só é evidente em relação a pistas visuais no ambiente de RV. Esse sistema de RV também permite a apresentação de outras modalidades de pistas espaciais e contextuais além do ambiente visual de RV, como pistas olfativas, táteis e auditivas, que podem ser usadas para testar a seletividade da atividade neural e do comportamento para combinações complexas de pistas sensoriais distintas. Além disso, embora não tenhamos testado a dependência do desempenho da tarefa com a atividade hipocampal, um estudo recente utilizando uma tarefa semelhante, mas com pistas táteis, mostrou uma perturbação do aprendizado espacial com a inativação do hipocampo23, o que deve ser confirmado para a tarefa de recompensa oculta de RV realizada neste estudo.

Figure 1
Figura 1: Configuração do hardware de RV com restrição de cabeça: tela de projeção, roda de corrida e aparelho de fixação da cabeça. (A) Um esquema de projeto 3D da roda de corrida e da tela de projeção. (B) Configuração comportamental de RV completa. O ambiente de RV é renderizado em (1) um computador de placa única e projetado em uma tela de projeção traseira parabólica (2) (baseado no projeto do laboratório de Chris Harvey15,16). (3) Montagem da roda. (4) Titular do cargo principal. (5) Reservatório de água para entrega de recompensas. (C) Vista superior da tela de projeção e configuração comportamental. (1) Projetor LED. (2) Espelho para projetar o corredor VR na tela curva. (3) Roda de corrida. (D) Vista traseira do conjunto da roda. As rotações das rodas são traduzidas pelo codificador rotativo (1) e transmitidas ao computador de placa única através de um microcontrolador (2) ESP32. (3) Um goniômetro de eixo duplo é usado para ajustar a posição da cabeça para imagens ópticas. (E) Configuração ao nível da inserção do rato, mostrando o (1) aparelho de fixação da cabeça e (2) colocação da porta de lambida sobre a superfície da roda de corrida (3). (F) Fotografia da (1) porta de lambida presa ao (2) braço flexível para colocação precisa da bica de recompensa perto da boca do rato. As recompensas são dadas através de uma (3) válvula solenoide controlada pelo comportamento ESP32 (através do OpenMaze OMwSmall PCB). Também é visível o encoder rotativo acoplado ao eixo da roda (4) e (5) o goniômetro para ajuste do ângulo da cabeça. Clique aqui para ver uma versão maior desta figura.

Figure 2
Figura 2: Esquema de configuração da eletrônica VR. Este esquema descreve as conexões mais relevantes entre os componentes eletrônicos no sistema de realidade virtual de código aberto para mouses. (A) Os ratos são contidos na cabeça em um aparelho de fixação de cabeça impresso em 3D acima de uma roda de acrílico. (B) A rotação do eixo da roda quando o mouse está funcionando é detectada por um codificador rotativo de alta resolução conectado a um microcontrolador (decodificador rotativo ESP32). (C) As informações de movimento são transmitidas através de uma conexão serial para um computador de placa única executando o software HallPassVR GUI e o ambiente 3D, que atualiza a posição no ambiente de trilha linear virtual VR com base na locomoção do mouse. (D) O ambiente VR renderizado é enviado para o projetor/tela através da saída de vídeo HDMI #2 do computador de placa única (VR video HDMI). (E) As informações de movimento do codificador rotativo ESP32 também são enviadas para outro microcontrolador (Behavior ESP32 com o OpenMaze OMwSmall PCB), que usa a posição do mouse para controlar eventos comportamentais espaciais e não VR (como zonas de recompensa ou estímulos espaciais olfativos, táteis ou auditivos) em conjunto com o ambiente de RV e mede a lambida do bico de recompensa pelo mouse por meio de detecção de toque capacitivo. Clique aqui para ver uma versão maior desta figura.

Figure 3
Figura 3: GUI gráfica do software e comportamento. (A) GUI HallPassVR: Quatro imagens são selecionadas para lado a lado sobre cada padrão espacial cobrindo um terço do comprimento da trilha (ou o padrão de combinação salvo anteriormente é carregado) para três padrões em cada caminho igual ao comprimento da trilha. As imagens de teto e piso são selecionadas e, em seguida, Iniciar é pressionado para inicializar o ambiente VR na saída HDMI (tela de projeção) do computador de placa única. (B) Exemplo de corredor virtual criado com os parâmetros da GUI mostrados em A e usado para um experimento de recompensa oculta para testar a aprendizagem espacial. (C) Fotografia de um mouse com a cabeça contida rodando sobre o volante no ambiente virtual mostrado em B. (D) O painel superior mostra o gráfico on-line do comportamento animal em um ambiente de RV a partir do esboço de processamento incluído para registrar e plotar os dados comportamentais. Lambes, voltas e recompensas são plotadas por 30 s de tempo para a sessão de 30 minutos durante o aprendizado espacial de recompensa oculta. O painel inferior mostra a posição atual do mouse (preto) e a localização de quaisquer zonas de recompensa (cinza) durante o comportamento. Clique aqui para ver uma versão maior desta figura.

Figure 4
Figura 4: Aprendizagem espacial utilizando o ambiente gráfico do software. Dados representativos de lambedura espacial de um animal (A) durante forrageamento aleatório com pistas aleatórias ao longo da pista linear virtual e (B-C) 2 dias de treinamento com uma zona de recompensa oculta estática a 1,5 m com uma única pista visual no meio da pista. (A) Forrageamento aleatório do dia 0 para quatro zonas de recompensa por volta, selecionadas aleatoriamente a partir de oito posições espaçadas uniformemente ao longo da pista linear virtual de 2 m. (Esquerda) O número médio de lambe-lambes por compartimento espacial (5 cm) ao longo da sessão de 30 min (topo: corredor de RV com painéis de estímulo visual aleatório). (Direita) Número de lambeduras em cada compartimento espacial de 5 cm por volta durante esta sessão, representado por um mapa de calor. (B) Dia 1, o primeiro dia de treinamento com uma única zona de recompensa a 1,5 m (caixa vermelha no diagrama da pista, topo) usando uma pista virtual contendo um único estímulo de alto contraste na posição 0,8-1,2 m. (Esquerda) A média das contagens de lambidas espaciais ao longo da sessão, mostrando lambidas crescentes quando o animal se aproxima da zona de recompensa. (Direita) Lambidas espaciais por volta, mostrando maior seletividade de lamber na região pré-recompensa. (C) Dia 2, da mesma tarefa de recompensa oculta e corredor virtual do Dia 1 e do mesmo mouse. (Esquerda) Total de lambidas por compartimento espacial, mostrando uma diminuição de lambidas fora da zona de pré-recompensa. (Direita) Lambidas espaciais por volta no Dia 2, mostrando aumento da lambida antes da zona de recompensa e diminuição da lambida em outros locais, indicando o desenvolvimento de lambedura antecipatória espacialmente específica. Isso mostra que esse animal aprendeu o local de recompensa (não sinalizado) escondido e desenvolveu uma estratégia para minimizar o esforço (lamber) em regiões onde não espera que uma recompensa esteja presente. Clique aqui para ver uma versão maior desta figura.

Desfecho comportamental Número de ratos Percentagem de ratinhos
Rato não correu/lambeu 1 14%
Apenas forrageamento aleatório 2 29%
Recompensa oculta aprendida 4 57%
Total (N) 7

Tabela 1: Resultados do piloto comportamental de aprendizagem espacial da RV. Sete camundongos C57BL/6 de ambos os sexos aos 4 meses de idade foram progressivamente treinados para realizar uma tarefa de recompensa espacial oculta em RV. Desses camundongos, um camundongo não correu/lambeu após o treinamento inicial (um dos sete camundongos, 14%), enquanto seis dos camundongos restantes aprenderam a correr na roda e lamber para obter recompensas espaciais aleatórias na etapa aleatória de forrageamento do treinamento (seis dos sete camundongos, 86%). Quatro dos seis camundongos que foram capazes de realizar o comportamento de forrageamento aleatório subsequentemente aprenderam a lamber seletivamente em antecipação à recompensa não sinalizada na tarefa de recompensa oculta (quatro dos sete camundongos, 57% dos camundongos no total, quatro dos seis camundongos, 66% dos camundongos forrageadores aleatórios), enquanto dois não o fizeram (dois dos sete camundongos, 29%).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Este sistema VR de código aberto para ratos só funcionará se as conexões seriais forem feitas corretamente entre os microcontroladores ESP32 rotativos e comportamentais e o computador de placa única (etapa 2), o que pode ser confirmado usando o monitor serial IDE (etapa 2.4.5). Para obter resultados comportamentais bem-sucedidos deste protocolo (passo 4), os camundongos devem estar habituados ao aparelho e estar confortáveis correndo na roda para obter recompensas líquidas (passos 4.3-4.5). Isso requer restrição hídrica suficiente (mas não excessiva), pois os ratos que recebem água ad libitum na gaiola doméstica não correm e lambem por recompensas (ou seja, para indicar sua localização percebida), e os camundongos desidratados podem ser letárgicos e não correr na roda. Vale ressaltar também que existem métodos alternativos para motivar o comportamento de camundongos sem restrição hídrica24; no entanto, não testamos esses métodos aqui. Para o procedimento de treinamento, os animais que não correm inicialmente podem receber recompensas de água ad hoc (ou seja, não espaciais) pelo experimentador por meio de um botão opcional acoplado, ou a roda pode ser movida suavemente para incentivar a locomoção. Para desenvolver um comportamento de forrageamento aleatório, os ratos que correm mas não lambem devem ser executados com recompensas não operantes (código ESP32 de comportamento: isOperant = 0;, passo 4.5.1) até que corram e lambam por recompensas, e eles podem então ser executados com voltas alternadas de zonas de recompensa não operantes e operantes (altOpt=1; passo 4.5.2) até começarem a lamber em voltas operantes antes de se moverem para zonas de recompensa aleatórias totalmente operantes (passo 4.5.3).

Embora tenhamos fornecido instruções completas e resultados de exemplo para um conjunto básico de experimentos destinados a obter uma forma de aprendizado espacial (lambida condicionada em um local de recompensa oculto no ambiente de trilha linear virtual), a mesma configuração básica de hardware e software também pode ser modificada para a entrega de ambientes visuoespaciais mais complexos usando o pacote pi3d Python para Raspberry Pi. Por exemplo, este sistema pode incorporar labirintos mais complexos, como corredores com comprimentos variáveis, vários padrões e objetos 3D, e paisagens de RV 3D naturalistas. Além disso, o software comportamental para a entrega de recompensas de água e outros estímulos não visuais pode ser modificado para outros paradigmas de treinamento alterando variáveis-chave (apresentadas no início do código ESP32 de comportamento) ou inserindo novos tipos de eventos espaciais no mesmo código. Estamos felizes em aconselhar os usuários sobre métodos para implementar outros tipos de experimentos comportamentais com esta configuração de RV ou na solução de problemas.

Ambientes imersivos de RV têm se mostrado uma ferramenta versátil para estudar os mecanismos neurais subjacentes à navegação espacial 6,7,8, comportamentos de aprendizagem de recompensa9 e percepção visual25 tanto em estudos clínicos quanto em animais. A principal vantagem dessa abordagem é que o experimentador tem um controle rígido sobre elementos contextuais, como pistas visuais e estímulos espaciais específicos (por exemplo, recompensas e estímulos olfativos, auditivos ou táteis), o que não é prático em ambientes do mundo real com animais em movimento livre. Deve-se notar, no entanto, que podem existir diferenças na maneira pela qual os ambientes de RV são codificados por áreas cerebrais, como o hipocampo, quando comparados com o uso de ambientes do mundo real26,27. Com essa ressalva, o uso de ambientes de RV permite que os experimentadores realizem um grande número de ensaios comportamentais com estímulos cuidadosamente controlados, permitindo a dissociação das contribuições de elementos sensoriais distintos para a navegação espacial.

A complexidade da construção de configurações de RV personalizadas geralmente requer uma extensa experiência em engenharia e programação de computadores, o que pode aumentar o tempo de configuração e limitar o número de aparelhos que podem ser construídos para treinar ratos para experimentação. As configurações de RV também estão disponíveis em fornecedores comerciais; No entanto, essas soluções podem ser caras e limitadas se o usuário quiser implementar novos recursos ou expandir a capacidade de treinamento/gravação para mais de uma configuração. A faixa de preço estimada da configuração de RV de código aberto apresentada aqui é de < $ 1.000 (USD); no entanto, uma versão simplificada para treinamento (por exemplo, faltando goniômetros para ajuste do ângulo da cabeça) pode ser produzida por <$500 (USD), permitindo assim a construção de várias configurações para treinar camundongos em maior escala. A disposição modular dos componentes também permite a integração da RV com outros sistemas de controle comportamental, como o sistema esteira com estímulos espaciais olfativos e táteis que já utilizamosanteriormente20, e, assim, a RV e outras modalidades de estímulo não são mutuamente exclusivas.

Este sistema de RV de código aberto com seu hardware associado (roda de corrida, tela de projeção e aparelho de fixação da cabeça), configuração eletrônica (computador de placa única e microcontroladores ESP32) e software (GUI VR e código de comportamento) fornece uma configuração barata, compacta e fácil de usar para fornecer ambientes de RV imersivos parametrizados para ratos durante a navegação espacial restrita à cabeça. Esse comportamento pode então ser sincronizado com imagens neurais ou registro eletrofisiológico para examinar a atividade neural durante o aprendizado espacial (passo 2.3.7). O espectro de técnicas experimentais compatíveis com RV é amplo, variando desde o comportamento de aprendizagem espacial isoladamente até a combinação com fotometria por fibra, imagens em miniscópio, imagens de fóton único e multifóton e técnicas eletrofisiológicas (por exemplo, neuropixels ou gravação intracelular). Embora o apoio cefálico seja necessário para algumas dessas técnicas de registro, a natureza extremamente precisa da apresentação do estímulo e a natureza estereotipada do comportamento também podem ser úteis para outras técnicas que não requerem fixação da cabeça, como imagens de miniscópio e fotometria por fibra. Deve-se notar, no entanto, que nossa solução capacitiva baseada em sensores para detectar lambeduras pode introduzir ruído significativo em traços eletrofisiológicos. Para evitar tais artefatos, ópticos ou outros (por exemplo, mecânicos), soluções baseadas em sensores devem ser implementadas para detecção de lambeduras.

Melhorias futuras no sistema VR serão carregadas na página do projeto GitHub (https://github.com/GergelyTuri/HallPassVR), então os usuários devem verificar esta página regularmente para atualizações. Por exemplo, estamos no processo de substituir as conexões seriais com fio entre os microcontroladores e o computador de placa única pela funcionalidade Bluetooth, que é nativa dos microcontroladores ESP32 já usados neste projeto. Além disso, estamos planejando atualizar a GUI do HallPassVR para permitir a especificação de diferentes caminhos em cada sessão comportamental para conter diferentes posições para os principais estímulos visuais de referência em diferentes voltas. Isso permitirá maior flexibilidade para dissociar o impacto de características visuais e contextuais específicas na codificação neural do espaço durante a aprendizagem espacial.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Clay Lacefield é o fundador e mantenedor do OpenMaze.org, que fornece projetos para o OMwSmall PCB usado neste protocolo gratuitamente para download.

Acknowledgments

Gostaríamos de agradecer a Noah Pettit do laboratório Harvey pela discussão e sugestões durante o desenvolvimento do protocolo neste manuscrito. Este trabalho foi apoiado por um BBRF Young Investigator Award e NIMH 1R21MH122965 (G.F.T.), além de NINDS R56NS128177 (R.H., C.L.) e NIMH R01MH068542 (R.H.).

Materials

Name Company Catalog Number Comments
1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

DOWNLOAD MATERIALS LIST

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. Pettit, N., et al. Harvey Lab Mouse VR. , Available from: https://github.com/Harvey/Lab/mouseVR (2021).
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Tags

Neurociência Edição 193
Um Sistema de Realidade Virtual de Código Aberto para a Medição da Aprendizagem Espacial em Camundongos Contidos na Cabeça
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Lacefield, C., Cai, H., Ho, H.,More

Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter