Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Uma plataforma flexível para monitorar o aprendizado associativo sensorial dependente do cerebellum

Published: January 19, 2022 doi: 10.3791/63205

Summary

Desenvolvemos uma única plataforma para rastrear o comportamento animal durante duas tarefas de aprendizagem associativa dependentes de fibras. O design de baixo custo permite a integração com experimentos optogenéticos ou de imagem direcionados à atividade cerebelar associada à fibra.

Abstract

As entradas de fibra de escalada para as células Purkinje fornecem sinais instrutivos críticos para o aprendizado associativo dependente do cerebelo. Estudar esses sinais em camundongos fixos na cabeça facilita o uso de métodos de imagem, eletrofisiológico e optogenético. Aqui, foi desenvolvida uma plataforma comportamental de baixo custo (~US$ 1000) que permite o rastreamento do aprendizado associativo em ratos fixos que locomotem livremente em uma roda de corrida. A plataforma incorpora dois paradigmas comuns de aprendizagem associativa: condicionamento de olho e condicionamento tátil retardado. O comportamento é rastreado usando uma câmera e o movimento da roda por um detector. Descrevemos os componentes e a configuração e fornecemos um protocolo detalhado para treinamento e análise de dados. Esta plataforma permite a incorporação de estimulação optogenética e imagens de fluorescência. O design permite que um único computador hospedeiro controle várias plataformas para treinar vários animais simultaneamente.

Introduction

O condicionamento pavloviano da associação subcaída entre estímulos para obter uma resposta condicionada tem sido usado há muito tempo para sondar o aprendizado dependente de cerebelar. Por exemplo, no condicionamento clássico de desintegação (DEC), os animais aprendem a fazer um piscar de proteção bem cronometrado em resposta a um estímulo condicional neutro (CS; por exemplo, um flash de luz ou tom auditivo) quando é emparelhado repetidamente com um estímulo incondicional (EUA; por exemplo, um sopro de ar aplicado à córnea) que sempre provoca um reflexo piscando, e que vem no final ou perto do CS. A resposta aprendida é referida como uma resposta condicionada (CR), enquanto a resposta reflexa é referida como a resposta incondicionada (UR). Em coelhos, lesões específicas de cerebelo interrompem essa forma de aprendizado 1,2,3,4. Além disso, os picos complexos de células Purkinje, impulsionados por suas entradasde fibra de escalada 5, fornecem um sinal necessáriode 6,7 e 8,9 suficientes para a aquisição de CRs devidamente cronometrado.

Mais recentemente, paradigmas de aprendizagem associativa dependentes de fibras foram desenvolvidos para ratos com fixação de cabeça. O DEC foi o primeiro paradigma de aprendizagem associativa a ser adaptado a essa configuração10,11. DEC em camundongos fixos na cabeça tem sido usado para identificar regiões cerebelares 11,12,13,14,15,16,17 e elementos de circuito11,1 2,13,14,15,18,19 que são necessários para aquisição e extinção de tarefas. Essa abordagem também tem sido usada para demonstrar como a representação fisiológica de nível celular dos parâmetros de tarefa evolui com o aprendizado 13,15,16.

Além do eyeblink, o paradigma de condicionamento tátil de início de partida (DTSC) foi recentemente desenvolvido como uma nova tarefa de aprendizagem associativa para ratos fixos na cabeça20. Conceitualmente semelhante ao DEC, o DTSC envolve a apresentação de um CS neutro com um US, um toque no rosto suficiente em intensidade para engajar um reflexo de medo 21,22 como ur. No paradigma DTSC, tanto a UR quanto a CR são lidas como locomoção retrógrada em uma roda. O DTSC tem sido usado agora para descobrir como o aprendizado associativo altera a atividade cerebelar e os padrões de expressão genética20.

Neste trabalho, foi desenvolvido um método para aplicar de forma flexível o DEC ou DTSC em uma única plataforma. Os atributos de estímulo e plataforma são esquematizados na Figura 1. O design incorpora a capacidade de rastrear o comportamento animal com uma câmera, bem como um codificador rotativo para rastrear a locomoção do rato em uma roda. Todos os aspectos da estrutura de registro e ensaio de dados são controlados por microcontroladores emparelhados (Arduino) e um computador de placa única (SBC; Raspberry Pi). Esses dispositivos podem ser acessados através de uma interface de usuário gráfica fornecida. Aqui, apresentamos um fluxo de trabalho para configuração, preparação e execução de experimentos e um pipeline de análise personalizado para visualização de dados.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Os protocolos animais descritos aqui foram aprovados pelos Comitês de Cuidados e Uso de Animais da Universidade de Princeton.

1. Configuração do SBC

  1. Conecte o cabo de interface serial da câmera (CSI) à câmera Raspberry NoIR V2 e à porta da câmera no SBC.
  2. Baixe o sistema operacional para o SBC no computador hospedeiro. Escreva a imagem do sistema operacional para um cartão digital micro seguro (microSD).
    NOTA: Instruções detalhadas para estes procedimentos para um Raspberry Pi SBC podem ser encontradas em outros lugares23. O sistema foi testado usando os seguintes sistemas operacionais: Stretch, Buster, Bullseye.
  3. Para habilitar a comunicação segura do shell, crie um arquivo sem extensão chamado "ssh" na partição inicial do cartão microSD. Feito isso, ejete o cartão microSD da máquina host e insira-o no slot do cartão microSD SBC. Ligue o SBC conectando sua fonte de alimentação.
  4. Prepare o SBC para aceitar uma conexão com fio com o host.
    1. Conecte um monitor com um cabo apropriado ao SBC. Abra um terminal, digite o comando ifconfig e regise o endereço IP ethernet do SBC.
      NOTA: O raspberry Pi modelo 3B+ tem uma porta de tela HDMI, enquanto o modelo 4B tem uma porta micro-HDMI.
    2. Vá para a guia Interface da configuração Raspberry Pi e habilite as opções para Câmera, protocolo de rede shell seguro (SSH) e Virtual Network Computing (VNC).
  5. Estabeleça uma conexão com fio entre o computador host e o SBC.
    1. Conecte um cabo ethernet à porta ethernet no SBC e um computador host. Conecte a outra extremidade desses cabos a um interruptor ethernet.
    2. Use um cliente de computação de rede virtual, como o VNC viewer24 e acesse a área de trabalho usando o endereço IP SBC e a autenticação padrão (usuário = "pi", senha = "framboesa").
  6. Baixe o software necessário incluído nas etapas do protocolo.
    ATENÇÃO: Altere o nome de usuário e a senha padrão para evitar acesso não autorizado ao SBC.
    1. Digite o seguinte comando no terminal SBC para baixar o software da plataforma:
      clone git --profundidade=1 https://github.com/gerardjb/assocLearnRig
    2. Digite os seguintes comandos para baixar as bibliotecas python necessárias.
      cd assocLearnRig
      setup.py python3
    3. Para permitir o controle direto sobre o microcontrolador, conecte-se ao SBC e baixe o microcontrolador ambiente de desenvolvimento integrado (IDE) seguindo as etapas 1.6.4-1.6.7.
    4. Abra o navegador da Web no desktop SBC e navegue até https://arduino.cc/en/software. Baixe a versão mais recente do Linux ARM de 32 bits do IDE.
    5. Abra uma janela de terminal na área de trabalho SBC e navegue até o diretório de downloads digitando cd Downloads/
    6. Para instalar o IDE, digite os seguintes comandos no terminal:
      tar -xf arduino--linuxarm.tar.xz
      sudo mv arduino- /opt
      sudo /opt/arduino-/install.sh

      (aqui é a versão do IDE baixado)
    7. Abra uma instância do IDE microcontrolador na área de trabalho SBC. Selecione a opção de menu Ferramentas > Gerenciar bibliotecas. Instale a biblioteca "Encoder" de Paul Stoffregen.
  7. Expanda a memória a bordo do SBC com um pen drive USB.
    1. Insira um pen drive em uma porta USB no SBC. Use uma porta USB 3.0 se estiver disponível.
    2. Digite as ls terminais -l /dev/disk/by-uuid/ para encontrar o pen drive e sua referência única (UUID). Grave o UUID.
    3. Para permitir que o usuário pi escreva para o dispositivo USB, digite os seguintes comandos um a um no terminal:
      sudo mkdir /media/usb
      sudo chown -R pi:pi /media/usb
      sudo mount /dev/sda1 /media/usb -o uid=pi,gid=pi
      NOTA: O pen drive pode ser adicionado como um dispositivo que será montado automaticamente quando o SBC reiniciar adicionando a seguinte linha ao final do arquivo fstab em /etc/fstab:
      UUID= /media/usb vfat auto,nofail,noatime,users,rw,uid=pi,gid=pi 0 0

2. Hardware de estímulo de fiação e estágio de montagem

  1. Conecte e prepare microcontroladores.
    1. Conecte o SBC à porta de programação do microcontrolador (Arduino Due) com um cabo USB2 tipo A a USB2 micro.
      NOTA: Utilize um cabo de alta qualidade, como o produto na Tabela de Materiais , para garantir o bom funcionamento.
    2. Localize "dueAssocLearn.ino" no repositório do projeto baixado. Abra o esboço com o IDE microcontrolador e carregue-o para o microcontrolador conectado ao SBC.
    3. Baixe e instale a versão apropriada do IDE Arduino no computador host.
    4. Conecte o computador hospedeiro ao microcontrolador (Arduino Uno) com um cabo USB2 tipo B a USB2 tipo A.
    5. Vá ao repositório do GitHub (https://github.com/gerardjb/assocLearnRig) e baixe o esboço "DTSC_US.ino" para o computador hospedeiro.
    6. No computador host, execute o IDE microcontrolador e abra o esboço "DTSC_US.ino" e, em seguida, carregue-o para o microcontrolador.
  2. Conecte fios aos microcontroladores, prancha, LEDs, codificador rotativo, motor stepper com motorista e válvula solenoide com driver como indicado no diagrama fritzing na Figura 2.
  3. Ligue o motor do estepe e a válvula solenoide.
    1. Conecte corretamente um canal de uma fonte de alimentação aos pinos +V e GND do motor do estepe.
    2. Ligue a fonte de alimentação e coloque a tensão do canal anexada em 25 V.
      NOTA: Se as conexões entre o motor do estepe, o motorista e a fonte de alimentação estiverem corretamente configuradas, um LED indicador verde no motor do estepe acenderá.
    3. Conecte corretamente o chumbo positivo de uma fonte de alimentação ao pino de tensão da válvula solenoide e o outro chumbo positivo para o pino de tensão de espeto.
    4. Conecte as pistas negativas a um solo compartilhado com o sinal de controle.
    5. Ligue a fonte de alimentação e coloque o canal conectado à tensão de retenção em cerca de 2,5 V e o canal conectado à tensão de espigão a cerca de 12 V.
  4. Conecte uma fonte de ar regulada a uma pressão de ~20 PSI à válvula solenoide usando o adaptador luer.
  5. Teste que todos os componentes de estímulo e câmera estão funcionando corretamente.
    1. Abra um terminal no SBC e digite cd ~/assocLearnRig para navegar até o repositório do GitHub clonado.
    2. No terminal, digite python3 assocLearnRig_app.py para iniciar a interface gráfica de usuário de controle.
    3. Inicie o fluxo da câmera apertando o botão Stream .
    4. Selecione o botão DE Rádio DEC , faça upload para o microcontrolador e inicie uma sessão com parâmetros padrão apertando o botão Iniciar Sessão .
      NOTA: Após esta etapa, uma impressão do registro de dados deve aparecer no terminal, a mensagem no fluxo da câmera deve desaparecer e o LED CS e a válvula solenoide US devem ligar e desligar em momentos apropriados durante cada teste.
    5. Após o término da sessão, repita as etapas anteriores com o botão de rádio DTSC selecionado.
      NOTA: Esboços no repositório do GitHub ("testStepper.ino", "testRotary.ino" e "testSolenoid.ino") podem ser usados para testar componentes individuais se as etapas acima não fornecerem resultados satisfatórios.
  6. Faça a roda de corrida.
    1. Corte uma roda de 3" de um rolo de espuma. Faça um furo de 1/4" no centro exato da roda para que a roda não oscilar quando for virada pela locomoção do mouse.
    2. Insira um eixo de 1/4" na roda e fixe-o no lugar usando cubos de fixação colocados em cada lado da roda.
  7. Afixe o codificador rotativo em um canal de alumínio de 4,5" usando um parafuso M3. Estabilize o canal de alumínio na placa de alumínio usando um suporte de ângulo reto com um parafuso de 1/4", porca e arruela, como mostrado.
  8. Fixar a roda e o codificador rotativo usando uma manga de acoplamento de eixo.
  9. Estabilize o lado livre do eixo da roda com um rolamento inserido em um grampo final de ângulo reto instalado em um poste óptico montado em breadboard.
    NOTA: Certifique-se de que a roda gira livremente sem balançar quando girada à mão.
  10. Posicione o hardware de estímulo, a contenção da cabeça, a matriz de luz infravermelha e a picamera ao redor da roda montada.
    1. Posicione as amarras da cabeça usando postes ópticos e grampos postais de ângulo reto para que os postes da cabeça estejam 1,5 cm à frente do eixo da roda e 2 cm acima da superfície da roda. (Os valores são para um mouse de 20 g).
    2. Posicione o LED CS e a saída da válvula solenoide utilizada para o DEC US a menos de 1 cm do olho utilizado para o DEC.
    3. Monte o motor de estepe usado para o DTSC US
    4. Monte a picamera em um poste óptico ~10 cm de onde o animal estará.
      NOTA: O design para a montagem picamera pode ser feito em uma impressora 3D a partir do arquivo em "RaspPiCamMount1_1.stl" no repositório do GitHub.
    5. Coloque a matriz de luz infravermelha ligeiramente acima e voltada diretamente para a posição do rosto do mesmo lado que a picamera.
    6. Faça um estímulo tátil para DTSC, gravando espuma na borda de um pedaço de acrílico montado em um eixo de 1/4" usando um cubo de fixação. Conecte o estímulo tátil ao eixo do motor do estepe.
      NOTA: O design da peça acrílica pode ser cortado a laser seguindo o padrão em "TactileStimDesign.pdf" no repositório do GitHub.

3. Preparar e executar experimentos de comportamento

  1. Implantando placa de cabeça do rato.
    1. Anestesiar um mouse usando 2% de isoflurane e correção da cabeça em um quadro estereotático.
    2. Aplique uma pomada oftalmica aos olhos.
    3. Raspe o couro cabeludo usando água com sabão e um bisturi estéril. Injete lidocaína diretamente sob a pele do local da incisão e limpe o local cirúrgico com povidone.
    4. Faça uma incisão com um bisturi ao longo da linha média do couro cabeludo da borda traseira dos olhos até a borda traseira do crânio, tomando cuidado para não pressionar muito forte no crânio.
    5. Espalhe a incisão aberta e aperte ambos os lados com hemostatas estéreis para mantê-la aberta. Remova suavemente o periosteum usando um cotonete mergulhado com etanol e permita que a superfície do crânio exposto seque.
    6. Posicione o nível da placa de cabeça no crânio, certificando-se de posicionar a frente da placa posterior aos olhos. Use cola cianoacrilato para prender a placa do crânio e permitir que a cola seque completamente.
    7. Misture o pó de cimento dental (1 colher), solvente (2 gotas) e catalisador (1 gota) em um prato de mistura e aplique em todas as áreas do osso exposto. Adicione camadas até que a superfície esteja alinhada com a borda superior da placa, certificando-se de que a placa está bem presa ao crânio.
    8. Sutura a pele fechada atrás e na frente da placa, se necessário.
    9. Injete analgesia pós-operatória, como carprofeno por diretrizes institucionais, permitindo que o animal se recupere por pelo menos 5 dias.
  2. Preparando-se para sessões de comportamento.
    1. Permita que os animais de teste se habituam à plataforma, montando-os na contenção da cabeça para sessões de 30 minutos durante 5 dias de experimentos anteriores.
      NOTA: Ao final das sessões de habituação, os animais devem correr confortavelmente ao volante.
    2. (Somente DEC) Antes das sessões, certifique-se de que a saída da válvula solenoide esteja centrada no olho alvo posicionado a > 1 cm de distância.
    3. (Somente DEC) Atue manualmente um sopro de ar usando o botão de pressão. Certifique-se de que o mouse produz prontamente um piscar de olhos sem mostrar sinais de estresse, como adotar uma postura curvada ou agarrar a região periocular afetada com a prenéus ipsilateral.
    4. (Somente DTSC) Antes das sessões, certifique-se de que o estímulo tátil esteja centrado no nariz do animal posicionado ~1,5 cm de distância.
      NOTA: Quando uma sessão comportamental DTSC não está em funcionamento, o motor do estepe é automaticamente inativado para permitir o reposicionamento manual.
    5. (Somente DTSC) No terminal SBC, digite python3 assocLearnRig_app.py para iniciar a GUI.
    6. (Somente DTSC) Execute uma sessão de teste de três ensaios com os parâmetros padrão apertando o botão Iniciar sessão na GUI.
    7. (Somente DTSC) Certifique-se de que os dados registrados que imprimem no terminal mostram uma deflexão superior a 20, mas menos de 100 etapas registradas no codificador rotativo após os EUA em cada teste.
      ATENÇÃO: Para evitar danos e reduzir o estresse ao animal, inicie o estímulo mais longe do animal e aproxime-o até que as condições necessárias sejam atendidas.
  3. Executando sessões comportamentais com registro de dados.
    1. Monte um rato na contenção da cabeça.
    2. No terminal da SBC, o tipo python3 assocLearnRig_app.py para iniciar a GUI.
    3. Para permitir gravações de câmera durante os testes comportamentais, aperte o botão Stream .
      NOTA: As sessões podem ser executadas sem uma câmera. Neste caso, apenas dados do codificador rotativo e dos horários de apresentação de estímulo são registrados.
    4. Insira informações de identificação do animal no campo de identificação animal e aperte o botão Definir .
    5. Selecione o DEC ou O DTSC do botão de rádio sob o título Tipo de sessão , dependendo do paradigma comportamental desejado.
    6. Insira os parâmetros de experimento desejados para os campos abaixo do campo Animal ID e aperte o botão Upload para Arduino .
      NOTA: Detalhes dos parâmetros do experimento podem ser encontrados na seção README do repositório do GitHub.
    7. Aperte o botão Sessão iniciar para iniciar a sessão.
    8. Quando uma sessão é inicializada, os dados começarão a ser logados em um novo diretório criado em "/mídia/usb" no ponto de montagem do pen drive SBC.

4. Exportar e analisar dados

  1. Para exportar todas as sessões gravadas para o computador host, abra um prompt de comando e insira o comando pscp -r pi@Pi_IP_address:/media/usb* host_computer_destination e, em seguida, autentique com a senha SBC.
    NOTA: O comando acima é para uma máquina Windows. Nas máquinas Mac e Linux, use o terminal e substitua o "pscp" por "scp".
  2. Instale o Anaconda25 ou outro gerenciador de pacotes python (PPM) no computador host.
  3. Vá ao repositório do GitHub e baixe "analyzeSession.py", "summarizeSessions.py", "session2mp4s.py" e "requirementsHost.txt".
  4. Abra um prompt PPM e tipo conda install --file directory_containing_requirementsHostrequirements Host.txt para garantir que a instalação do pacote Python tenha as bibliotecas python necessárias.
  5. No prompt, digite cd directory_containing_analyzeData para navegar até o diretório contendo "analyzeData.py" e "session2mp4s.py". Execute o programa de análise digitando analyzeSession.py python
    NOTA: Uma mensagem de erro será gerada se usar uma versão Python 2 como python. Para verificar a versão, digite python -V no prompt.
  6. Selecione o diretório contendo os dados quando solicitado. Diretórios com subdiretórios múltiplos serão analisados sequencialmente.
  7. Para sessões de DEC, para cada diretório de sessão analisado, selecione uma região de interesse (ROI) contendo o olho do mouse a partir de uma imagem média de ensaio.
    NOTA: Os arquivos de dados de análise final e os gráficos de resumo serão preenchidos em um subdiretório de cada diretório de sessão analisado.
  8. Digite summarizeSessions.py python para gerar dados de resumo em várias sessões.
  9. Digite a session2mp4s.py de python imediata para converter arquivos de dados de imagem em arquivos .mp4 visualizados.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Fluxo de trabalho para experimentos e análises de DEC
A seleção adequada de parâmetros experimentais é importante para o treinamento bem sucedido de condicionamento de de atmoscção (DEC). Para os dados aqui apresentados, a GUI foi utilizada para escolher uma duração CS de 350 ms e uma duração norte-americana de 50 ms. Essa combinação resulta em um intervalo de inter-estímulo de 300 ms: tempo suficiente para evitar a produção de CR de baixa amplitude10 e curto o suficiente para evitar entrar no regime de má aprendizagem ou condicionamento de traços, um processo que envolve regiões cerebrais adicionais11. O tempo entre os ensaios foi definido usando os campos baixo e alto iti para ser escolhido aleatoriamente uniformemente de uma faixa de 5-15 s. A randomização dos intervalos de inter-ensaio torna impossível que os sujeitos animais usem pistas de tempo que não o CS e os próprios EUA para o desempenho da tarefa.

Incluindo ensaios que omitem o CS ou EUA permite a avaliação da cinemática CR e UR mesmo em animais treinados. O usuário pode definir a proporção de ensaios nos quais CS e EUA são emparelhados ou apresentados isoladamente. Nos dados aqui apresentados, fizemos todas as sessões em ensaios 10% somente CS com ensaios emparelhados que constituem o resto e nenhum teste somente para os EUA. Observe que incluir um número excessivo de ensaios não pagos pode impactar negativamente o treinamento. Por exemplo, sessões com mais de 50% dos ensaios não pagos são comumente usadas para conduzir a extinção de CRs em animais treinados 19,26.

As condições de preparação e iluminação da câmera também são fundamentais para a aquisição de dados de alta qualidade. A taxa de quadros de aquisição pode ser ajustada no software de aquisição picamera. Nos dados aqui apresentados, estabelecemos uma taxa de quadros de 120 Hz para experimentos DEC. O módulo Picamera em si permite taxas de quadros de até ~200 Hz, mas descobrimos que taxas mais baixas evitam a perda de quadros e dão resolução temporal adequada para rastreamento das pálpebras. A luz infravermelha deve ser colocada para iluminar a pele periocular uniformemente sem criar reflexo excessivo da córnea quando o olho estiver aberto. A Figura 3A mostra uma imagem de amostra de uma sessão de gravação com iluminação aceitável. O software de aquisição picamera (picameraStream.py) foi projetado para fornecer configurações consistentes em uma sessão, configurando e segurando o balanço de branco da câmera e ganho com base nas condições de iluminação quando a câmera é inicializada.

Uma vez iniciada uma sessão comportamental, os dados da câmera e de outros componentes de hardware da plataforma serão automaticamente registrados. Os registros de dados são criados em um diretório nomeado pela data e entrada de valor para o campo de 800 800 animais na GUI. Os quadros da câmera e os carimbos de tempo para cada teste são armazenados em arquivos individuais que são nomeados usando o ID animal, data do experimento e número de teste. Os eventos da plataforma para cada sessão, incluindo velocidade da roda, partidas de teste, paradas de teste e tempo CS e US, são salvos como um único arquivo .txt.

Os dados transferidos para a máquina host podem então ser analisados conforme descrito na seção 4 do protocolo. A execução analyzeData.py em um diretório de destino criará um recipiente .npy para posição das pálpebras versus tempo para todos os testes em uma matriz baseada na análise dos arquivos da câmera. Este arquivo de contêiner é criado no diretório analisado. Uma vez que todas as sessões tenham sido analisadas para um determinado animal, todas as sessões podem ser alinhadas e concatenadas usando summarizeSessions.py. Os resultados de um animal treinado para 8 sessões de DEC são mostrados na Figura 3B. Além disso, os ensaios individuais podem ser renderizados como arquivos .mp4 visualizados usando o utilitário session2mp4s.py. Este utilitário imprime um quadrado no canto superior esquerdo do filme para indicar quando o CS e os EUA são aplicados. Os ensaios DE DEC de amostra preparados desta forma são apresentados lado a lado como Vídeo Suplementar 1. O painel esquerdo mostra um ensaio no qual o animal fecha seu olho com sucesso em resposta ao LED CS. No painel direito, o animal não pisca até que os EUA comecem.

Os animais treinados em DEC seguindo os protocolos da seção 3 e registrados com as considerações anteriores devem apresentar evidências claras de CRs bem cronometradas adquiridas gradualmente ao longo de vários dias de treinamento. Exemplos de traços comportamentais sem CRs em um animal não treinado e vestígios contendo CRs robustos de um animal treinado são apresentados na Figura 3B. Como esses traços mostram, animais ingênuos não devem mostrar nenhuma resposta ao CS, mas uma resposta robusta aos EUA. As RCs devem aumentar progressivamente em tamanho e frequência através de sessões comportamentais realizadas ao longo dos dias (Figura 3B-D). Em contrapartida, as condições de iluminação subótima limitam severamente a qualidade dos dados adquiridos. Quando o contraste entre o olho e a pele circundante é baixo (Figura 3E), pequenas alterações na imagem podem alterar significativamente a forma registrada da UR em uma única sessão e diminuir a relação sinal-ruído para detectar posição pálpebra (Figura 3F-G).

Para garantir gravações de pálpebras de alta fidelidade, a colocação ideal da fonte de luz é crítica. O LED de iluminação deve ser treinado diretamente no olho gravado. Se a colocação resultar em brilho excessivo na superfície da córnea, um difusor pode ser colocado sobre a matriz LED para reduzir esse efeito.

Fluxo de trabalho para experimentos e análises de DTSC
Muitas das considerações para seleção experimental de parâmetros são semelhantes entre o condicionamento de início tátil de atraso (DTSC) e o DEC. Aqui, vamos apontar aqueles que diferem. Nos dados de exemplo, a duração do CS DTSC foi definida como 250 ms com uma duração de 50 ms nos EUA. Este intervalo inter-estímulo mais curto foi escolhido para alinhar-se estreitamente com a duração mais curta descrita como ideal para o aprendizado DTSC20. Outros parâmetros de plataforma definidos através da GUI eram idênticos aos utilizados para o DEC.

A colocação adequada do estímulo tátil é fundamental para o aprendizado no DTSC. Montamos o estímulo tátil de tal forma que a extremidade da espuma esteja centrada ligeiramente acima do nariz do animal a uma distância de aproximadamente 1,5 cm quando na posição neutra. Uma vez montado, o estímulo pode ser virado à mão quando uma sessão não está em execução. Durante as sessões, o motor do estepe mantém o estímulo em um local preciso até que um US seja acionado. Para garantir que o posicionamento esteja correto, executamos uma sessão preparatória de cerca de três ensaios. Os eventos registrados no codificador rotativo são impressos na tela do terminal, e este printout pode ser usado para monitorar a amplitude dos URs animais em tempo real. Embora a amplitude máxima varie de ensaio para ensaio, animais com um máximo médio de ~40 contam com o codificador ao longo da sessão curta devem ter um bom desempenho na tarefa DTSC. Com base nas configurações de controle do codificador rotativo, esse valor corresponde a 24 cm/s, com um valor negativo indicando que o animal está se movendo para trás na roda.

A organização e a nomeação de arquivos produzidos no curso das sessões do DTSC são as mesmas produzidas em DEC. Running analyzeSession.py criará um recipiente .npy para velocidade de roda versus tempo para todos os testes em um array a partir da análise dos dados registrados no arquivo .csv. Uma vez que todas as sessões tenham sido analisadas para um determinado animal, todas as sessões podem ser alinhadas e concatenadas usando summarizeSession.py. Os resultados de um animal treinado para 5 sessões de DEC são apresentados na Figura 4A. Quanto ao DEC, as capturas da câmera do DTSC podem ser convertidas em arquivos .mp4 viável. Os ensaios de DTSC da amostra são mostrados lado a lado no Vídeo Suplementar 2. O painel esquerdo mostra um ensaio no qual o animal apoia com sucesso a roda em resposta ao LED CS. No painel direito, o animal não move a roda até que o estímulo tátil dos EUA seja aplicado.

O curso de tempo e amplitude em relação à UR de respostas em animais treinados no paradigma DTSC mostram semelhanças qualitativas com os treinados em DEC. Animais ingênuos não devem mostrar resposta ao CS, e aprender a mover a roda para trás em resposta ao CS somente após repetidas exposições ao CS emparelhado e eua. A frequência e amplitude das RCs aumentam à medida que o treinamento prossegue (Figura 4A,B). No caso do DTSC, descobrimos que a amplitude ur no início do treinamento é um bom preditor do sucesso da aprendizagem. Em uma coorte de animais treinados com um EUA que produziu URs de baixa amplitude (<20 cm/s), nenhum animal aprendeu a produzir consistentemente CRs após 4 dias de treinamento (Figura 4C,D).

Diferenças entre o treinamento dec e DTSC
O DEC e o DTSC diferem de maneiras importantes. Em primeiro lugar, o aprendizado do DTSC nesta plataforma ocorre mais rapidamente, com a maioria dos animais alcançando um alto grau de proficiência em tarefas até o terceiro dia de treinamento e desempenho assintotótico até o quinto dia. O aprendizado de DEC é mais lento para a maioria dos animais em pelo menos 3 dias. Em segundo lugar, o sistema DTSC incorpora a detecção automática de CRs bem sucedidas, que servem como um sinal de feedback para o aparelho para diminuir a amplitude do estímulo tátil. Este procedimento de treinamento imita o condicionamento dos olhos, no qual o melhor desempenho do CR fornece proteção parcial contra um sopro de ar córnea aversivo. Em contraste, os animais com cabeça fixa no paradigma DTSC são incapazes de se proteger do estímulo tátil apenas por sua resposta motora. Ao basear a amplitude dos EUA na presença de um CR, os animais têm a oportunidade de se proteger do estímulo aversivo.

Figure 1
Figura 1: Atributos da plataforma e design. (A) Elementos da plataforma para registrar o comportamento animal em condições fixas na cabeça. O mouse foi adaptado de uma imagem biorender. (B) Tempo e estímulos para condicionamento DEC e DTSC. Um intervalo inter-estímulo (ISI) definido pelo usuário determina quanto tempo dura apenas a época cs. As épocas CS e US são projetadas para co-terminar. (C) Imagem demonstrando colocação de elementos-chave da plataforma. 1) Motor stepper para o controle do DTSC US. 2) Roda de corrida para o animal. 3) Codificador rotativo para rastreamento do movimento da roda. 4) Espuma colada sobre um braço acrílico que serve como estímulo tátil DTSC. 5) LED CS. 6) Válvula e saída solenoide que fornece o DEC US. 7) Picamera para registro de comportamento animal. 8) LED infravermelho para iluminação do estágio. Clique aqui para ver uma versão maior desta figura.

Figure 2
Figura 2: Fiação de elementos de hardware de plataforma. (A) Diagrama de fiação de fritzing do hardware da plataforma quando totalmente montado. Os fios são coloridos por módulos com módulo laranja = Câmera; amarelo = módulo DEC US; azul = módulo LED CS; módulo roxo = DTSC US; verde = Módulo codificador rotativo. A picamera é excluída, mas se conecta à interface serial da câmera localizada na superfície do Raspberry Pi. As baterias indicam fontes de alimentação de corrente direta na tensão especificada. (B-F) Esquema de fiação equivalente para módulos isolados. Os fios foram recoloridos, de modo que o vermelho e o preto sempre indicam um trilho de abastecimento positivo e o solo, respectivamente, enquanto outros fios são coloridos para permitir fácil acompanhamento do circuito. Clique aqui para ver uma versão maior desta figura.

Figure 3
Figura 3: Resultados representativos do treinamento DEC. (A) Exemplo de quadro de câmera de uma sessão com condições aceitáveis de iluminação. Note o alto contraste entre o olho e a pele periocular. (B) Desempenho de um único animal durante as sessões realizadas ao longo dos dias no paradigma DEC. As linhas horizontais indicam desempenho em cada ensaio, com cores quentes indicando mais fechamento das pálpebras. A linha vertical preta mais à esquerda indica o início do CS, enquanto a linha pontilhada indica o início dos EUA. A segunda linha sólida indica a cessação do CS e dos EUA. Observe que o número de ensaios com respostas bem-sucedidas durante o CS aumenta em todas as sessões de treinamento. (C) Desempenho animal de (B) com traços individuais derivados da média de ensaio para a sessão a cada dia. A saturação da tonalidade indica número de sessão com maior saturação para sessões posteriores. (D) Desempenho para todos os animais do grupo DEC (n = 7). As linhas finas indicam a porcentagem de ensaios com um CR detectável de cada sessão para cada animal. As linhas grossas indicam que a sessão significa em todos os animais. (E) Exemplo de quadro da câmera de uma sessão com condições de iluminação abaixo do ideal. (F) Quantificação de ensaios únicos registrados com pouca iluminação. O UR é detectável, mas com menor contraste e maior variabilidade do que em condições de luz ideais. (G) Traços médios da sessão dos ensaios apresentados em (F). Clique aqui para ver uma versão maior desta figura.

Figure 4
Figura 4: Resultados representativos do treinamento DTSC. (A) Desempenho de um único animal durante as sessões realizadas ao longo dos dias no paradigma DTSC. As linhas horizontais indicam desempenho em cada ensaio, com cores quentes indicando movimento da roda traseira. A linha vertical preta mais à esquerda indica o início do CS, enquanto a linha pontilhada indica o início dos EUA. A segunda linha sólida indica a cessação do CS e dos EUA. (B) Desempenho animal de (A) com traços individuais derivados da média de ensaio para a sessão todos os dias. A saturação da tonalidade indica número de sessão com maior saturação para sessões posteriores. (C) Desempenho para todos os animais do grupo DTSC (n = 6). As linhas finas indicam a porcentagem de ensaios com um CR detectável de cada sessão para cada animal. As linhas grossas indicam que a sessão significa em todos os animais. (D) Ensaios únicos como em (A) de uma coorte onde a intensidade dos EUA provocou URs de baixa amplitude. (E) Traços médios de sessão apresentados como em (B) para os animais submetidos aos EUA fracos. (F) Desempenho para todos os animais em DTSC com EUA fracos (n = 6). Clique aqui para ver uma versão maior desta figura.

Vídeo suplementar 1: Teste de DEC e teste de erro. Os ensaios DEC são comparados no vídeo 1. Cada vídeo mostra ensaios em que o sujeito faz (Esquerda) ou não faz (Direita) o CR alvo sincronizado e jogado lado a lado para comparação. O LED CS acende quando o quadrado azul aparece no canto superior esquerdo de cada vídeo. O sinal de controle dos EUA está ativo quando um quadrado branco substitui o quadrado azul. Os sinais de controle CS e DOS EUA terminam quando o quadrado desaparece. Clique aqui para baixar este vídeo.

Vídeo suplementar 2: Amostra DTSC hit and miss trials. O vídeo 2 mostra a comparação do teste DTSC. Cada vídeo mostra ensaios em que o sujeito faz (Esquerda) ou não faz (Direita) o CR alvo sincronizado e jogado lado a lado para comparação. O LED CS acende quando o quadrado azul aparece no canto superior esquerdo de cada vídeo. O sinal de controle dos EUA está ativo quando um quadrado branco substitui o quadrado azul. Os sinais de controle CS e DOS EUA terminam quando o quadrado desaparece. Clique aqui para baixar este vídeo.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

A plataforma com protocolos associados aqui descritos pode ser usada para rastrear de forma confiável o comportamento animal em duas tarefas de aprendizagem associativa sensorial. Cada tarefa depende da comunicação intacta através da via de fibra de escalada. No design aqui descrito, incorporamos elementos para facilitar o aprendizado e gravação/perturbação da resposta cerebelar. Estes incluem uma roda para permitir locomoção gratuita 11,18, bem como fixação da cabeça. A roda permite que os sujeitos do mouse locomotem livremente, o que tem sido observado como fundamental para a aquisição de DEC18. A fixação da cabeça em camundongos permite que os pesquisadores aproveitem abordagens genéticas, eletrofisiológicas, de imagem e optogenéticas que são mais difíceis de usar em outras espécies modelo ou em condições de movimento livre12. Usamos nosso design para cada uma dessas aplicações. O software executado nos microcontroladores pode ser facilmente adaptado para controlar sinais de tempo para aquisição multifotn ou sincronização com estimulação optogenética, ambos com precisão submilívile. Deve-se tomar cuidado para minimizar a percepção animal dos equipamentos optogenéticos e de imagem quando estes são combinados com experimentos comportamentais. Por exemplo, muitos sistemas multifotográficos emitem um som audível de seus scanners galvanométricos ou persianas quando as aquisições de imagens começam. Se as aquisições forem desencadeadas por inícios de julgamento, tais sons podem servir como uma sugestão inadvertida para os animais que um estímulo está por vir.

O controle do aparelho comportamental é construído em torno de um SBC, que é usado para gerar uma interface gráfica de usuário para gerenciar o experimento, a câmera e a exportação de dados. O SBC também envia comandos para dois microcontroladores que lidam com o tempo dos ensaios e controlam diretamente componentes de hardware, como apresentação de estímulo e o codificador rotativo. Os protocolos aqui detalhados foram testados usando um Raspberry Pi 3B+ ou 4B anexado a um Arduino devido ao tempo de experimento de controle e um Arduino Uno para controlar a apresentação do DTSC US. Outras implementações de design de hardware são possíveis, mas não foram testadas com o software fornecido.

Para facilitar o uso de várias plataformas em paralelo, recomendamos operar o SBC no modo "sem cabeça". Nesta configuração, um computador host é usado para interagir com o SBC. Um switch ethernet permite conectividade simultânea à internet tanto para um computador hospedeiro quanto para o SBC. O switch também permite a comunicação direta entre o host e o SBC com transferência rápida de dados. Como resultado, o switch permite fácil transferência de dados e manutenção do pacote SBC.

Para executar várias plataformas em paralelo, cada plataforma deve ser colocada em seu próprio gabinete especializado. Estes gabinetes devem incluir impermeabilização de som se colocados próximos um do outro. Suprimir o som entre plataformas adjacentes pode ajudar a evitar pistas auditivas não intencionais de estímulos produzidos em gabinetes vizinhos.

O uso de uma única plataforma para DEC e DTSC permite que os pesquisadores naveguem de forma flexível pelos pontos fortes e fracos de cada paradigma. O DEC desfruta de insights derivados de décadas de pesquisas sobre quais regiões cerebrais e elementos específicos do circuito cerebelar estão envolvidos na aprendizagem e execução detarefas 1,4,11,13,14,15,19. No entanto, em camundongos, a região do córtex cerebelar mais frequentemente associada ao condicionamento de olho11,12 está localizada no fundo da fissura cerebelar primária (embora veja 15,17,27 que demonstram uma região associada ao DEC de lobule superficial VI). Um lócus profundo para aprender complica o acesso a experimentos ópticos, particularmente imagens multifotográficas de atividade celular e experimentos de perturbação optogenética. Em contraste, os substratos cerebelares de DTSC estão localizados parcialmente no aspecto superficial dos lobules IV/V20. O DTSC apresenta, portanto, acesso óptico comparável ao do neocórtex dorsal, um local popular para investigações de neurociência de sistemas.

Em nosso projeto, o comportamento animal é rastreado usando um codificador rotativo ligado à roda e uma câmera. Selecionamos esses métodos para baixo custo e facilidade de implementação. Em alguns casos, outros métodos de rastreamento podem fornecer mais precisão espacial e temporal. Por exemplo, a posição das pálpebras em DEC tem sido comumente rastreada usando sensores de efeito Hall28,29 ou gravações de eletromyograma da região periorbital do musculus orbicularis oculi30,31. Da mesma forma, o rastreamento da locomoção detectando o movimento da roda dá uma imagem menos detalhada do comportamento animal do que algoritmos de rastreamento de pose baseados em imagem, como o SLEAP32 e o DeepLabCut33. Gravações baseadas em câmera permitem a adição de tais abordagens.

Aqui, apresentamos uma plataforma para o rastreamento do comportamento animal durante dois paradigmas de aprendizagem associativo dependentes de fibras. Nossa plataforma pretende aumentar a acessibilidade desses métodos tanto em termos de custo quanto de facilidade de implementação.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Os autores não têm conflitos de interesse para divulgar.

Acknowledgments

Este trabalho é apoiado por subvenções dos Institutos Nacionais de Saúde Mental NRSA F32 MH120887-03 (para G.J.B.) e R01 NS045193 e R01 MH115750 (para S.S-H.W.). Agradecemos aos Drs. Bas Koekkoek e Henk-Jan Boele por discussões úteis para otimizar a configuração do DEC e os Drs. Yue Wang e Xiaoying Chen por discussões úteis para otimizar a configuração do DTSC.

Materials

Name Company Catalog Number Comments
"B" Quick Base For C&B METABOND - 10 mL bottle Parkell S398 Dental cement solvent
"C" Universal TBB Catalyst - 0.7 mL Parkell S371 Catalyst
#8 Washers Thorlabs W8S038 Washers
0.250" (1/4") x 8.00" Stainless Steel Precision Shafting Servocity 634172 1/4" shaft
0.250” (0.770") Clamping Hub Servocity 545588 Clamping hub
1/4" to 6 mm Set Screw Shaft Coupler- 5 pack Actobotics 625106 Shaft-coupling sleeve
1/4"-20 Cap Screws, 3/4" Long Thorlabs SH25S075 1/4" bolt
100 pcs 5 mm 395–400 nm UV Ultraviolet LED Light Emitting Diode Clear Round Lens 29 mm Long Lead (DC 3V) LEDs Lights +100 pcs Resistors EDGELEC ‎ED_YT05_U_100Pcs CS LEDs
2 m Micro HDMI to DVI-D Cable - M/M - 2 m Micro HDMI to DVI Cable - 19 pin HDMI (D) Male to DVI-D Male - 1920 x 1200 Video Star-tech ‎HDDDVIMM2M Raspberry Pi4B to monitor cable
256 GB Ultra Fit USB 3.1 Flash Drive SanDisk ‎SDCZ430-256G-G46 USB thumb drive
3.3 V–5 V 4 Channels Logic Level Converter Bi-Directional Shifter Module Amazon B00ZC6B8VM Logic level shifter
32 GB 95 MB/s (U1) microSDHC EVO Select Memory Card Samsung ‎MB-ME32GA/AM microSD card
4.50" Aluminum Channel Servocity 585444 4.5" aluminum channel
48-LED CCTV Ir Infrared Night Vision Illuminator Towallmark SODIAL Infrared light array
4PCS Breadboards Kit Include 2PCS 830 Point 2PCS 400 Point Solderless Breadboards for Proto Shield Distribution Connecting Blocks REXQualis B07DL13RZH Breadboard
5 Port Gigabit Unmanaged Ethernet Network Switch TP-Link ‎TL-SG105 Ethernet switch
5 V 2.5 A Raspberry Pi 3 B+ Power Supply/Adapter Canakit ‎DCAR-RSP-2A5 Power supply for Raspberry Pi 3B+
5-0 ETHILON BLACK 1 x 18" C-3 Ethicon 668G Sutures
6 mm Shaft Encoder 2000 PPR Pushpull Line Driver Universal Output Line Driver Output 5-26 V dc Supply Calt  B01EWER68I Rotary encoder
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 1", 5 Pack Thorlabs TR1-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 2", 5 Pack Thorlabs TR2-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 4", 5 Pack Thorlabs TR4-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 6", 5 Pack Thorlabs TR6-P5 Optical posts
Ø1/2" Post Holder, Spring-Loaded Hex-Locking Thumbscrew, L = 2" Thorlabs PH2 Optical post holder
Adapter-062-M X LUER LOCK-F The Lee Co. TMRA3201950Z Solenoid valve luer adapter
Aeromat Foam Roller Size: 36" Length Aeromat B002H3CMUE Foam roller
Aluminum Breadboard 10" x 12" x 1/2", 1/4"-20 Taps Thorlabs MB1012 Aluminum breadboard
Amazon Basics HDMI to DVI Adapter Cable, Black, 6 Feet, 1-Pack Amazon HL-007347 Raspberry Pi3B+ to monitor cable
Arduino  Uno R3 Arduino A000066 Arduino Uno (microcontroller board)
Arduino Due Arduino ‎A000062 Arduino Due (microcontroller board)
Bench Power Supply, Single, Adjustable, 3 Output, 0 V, 24 V, 0 A, 2 A Tenma 72-8335A Power supply
Clear Scratch- and UV-Resistant Cast Acrylic Sheet, 12" x 24" x 1/8" McMaster Carr 8560K257 Acrylic sheet
CNC Stepper Motor Driver 1.0–4.2 A 20–50 V DC 1/128 Micro-Step Resolutions for Nema 17 and 23 Stepper Motor Stepper Online B06Y5VPSFN Stepper motor driver
Compact Compressed Air Regulator, Inline Relieving, Brass Housing, 1/4 NPT McMaster Carr 6763K13 Air source regulator
Cotton Swab Puritan 806-WC Cotton swab
Dell 1908FP 19" Flat Panel Monitor - 1908FPC Dell 1908FPC Computer monitor
Flex Cable for Raspberry Pi Camera Adafruit 2144 camera serial interface cable
High Torque Nema 17 Bipolar Stepper Motor 92 oz·in/65 N·cm 2.1 A Extruder Motor Stepper Online 17HS24-2104S Stepper motor
Isoflurane Henry Schein 66794001725 Isoflurane
Krazy Maximum Bond Permanent Glue, 0.18 oz. Krazy Glue KG483 Cyanoacrylate glue
Lidocaine HCl VetOne 510212 Lidocaine
Low-Strength Steel Hex Nut, Grade 2, Zinc-Plated, 1/4"-20 Thread Size McMaster Carr 90473A029 Nuts
M3 x 50 mm Partially Threaded Hex Key Socket Cap Head Screws 10 pcs Uxcell A16040100ux1380 M3 bolt
NEMA 17 Stepper Motor Mount ACTOBOTICS 555152 Stepper motor mount
Official Raspberry Pi Power Supply 5.1 V 3 A with USB C - 1.5 m long Adafruit 4298 Power supply for Raspberry Pi 4B
Optixcare Dog & Cat Eye Lube Lubricating Gel, 0.70-oz tube Optixcare 142422 Opthalimic ointment
Precision Stainless Steel Ball Bearing, Shielded, Trade No. R188-2Z, 13000 rpm Maximum Speed McMaster-Carr 3759T57 Bearing
Premium Female/Female Jumper Wires - 40 x 6" Adafruit 266 Wires
Premium Female/Male 'Extension' Jumper Wires - 40 x 6" (150 mm) Adafruit 826 Wires
Premium Male/Male Jumper Wires - 40 x 6" Adafruit 758 Wires
Radiopaque L-Powder for C&B METABOND - 5 g Parkell S396 Dental cement powder
Raspberry Pi (3B+ or 4B) Adafruit 3775 or 4295 Raspberry Pi
Raspberry Pi NoIR Camera Module V2 - 8MP 1080P30 Raspberry Pi Foundation RPI3-NOIR-V2 Raspberry NoIR V2 camera
Right-Angle Bracket, 1/4" (M6) Counterbored Slot, 8-32 Taps Thorlabs AB90E Right-angle bracket
Right-Angle Clamp for Ø1/2" Posts, 3/16" Hex Thorlabs RA90 Right-angle optical post clamp
Right-Angle End Clamp for Ø1/2" Posts, 1/4"-20 Stud and 3/16" Hex Thorlabs RA180 Right-angle end clamp
RJ45 Cat-6 Ethernet Patch Internet Cable Amazon ‎CAT6-7FT-5P-BLUE Ethernet cable
Rotating Clamp for Ø1/2" Posts, 360° Continuously Adjustable, 3/16" Hex Thorlabs SWC Rotating optical post clamps
Spike & Hold Driver-0.1 TO 5 MS The Lee Co. IECX0501350A Solenoid valve driver
Swivel Base Adapter Thorlabs UPHA Post holder adapter
USB 2.0 A-Male to Micro B Cable, 6 feet Amazon ‎7T9MV4 USB2 type A to USB2 micro cable
USB 2.0 Printer Cable - A-Male to B-Male, 6 Feet (1.8 m) Amazon B072L34SZS USB2 type B to USB2 type A cable
VHS-M/SP-12 V The Lee Co. INKX0514900A Solenoid valve
Zinc-Plated Steel 1/4" washer, OD 1.000" McMaster Carr 91090A108 Washers

DOWNLOAD MATERIALS LIST

References

  1. McCormick, D. A., Lavond, D. G., Clark, G. A., Kettner, R. E., Rising, C. E., Thompson, R. F. The engram found? Role of the cerebellum in classical conditioning of nictitating membrane and eyelid responses. Bulletin of the Psychonomic Society. 18 (3), 103-105 (1981).
  2. McCormick, D. A., Clark, G. A., Lavond, D. G., Thompson, R. F. Initial localization of the memory trace for a basic form of learning. Proceedings of the National Academy of Sciences of the United States of America. 79 (8), 2731-2735 (1982).
  3. McCormick, D. A., Thompson, R. F. Cerebellum: essential involvement in the classically conditioned eyelid response. Science. 223 (4633), New York, N.Y. 296-299 (1984).
  4. Krupa, D. J., Thompson, J. K., Thompson, R. F. Localization of a memory trace in the mammalian brain. Science. 260 (5110), New York, N.Y. 989-991 (1993).
  5. Llinás, R., Sugimori, M. Electrophysiological properties of in vitro Purkinje cell dendrites in mammalian cerebellar slices. The Journal of Physiology. 305, 197-213 (1980).
  6. Mintz, M., Lavond, D. G., Zhang, A. A., Yun, Y., Thompson, R. F. Unilateral inferior olive NMDA lesion leads to unilateral deficit in acquisition and retention of eyelid classical conditioning. Behavioral and Neural Biology. 61 (3), 218-224 (1994).
  7. Welsh, J. P., Harvey, J. A. Cerebellar lesions and the nictitating membrane reflex: performance deficits of the conditioned and unconditioned response. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 9 (1), 299-311 (1989).
  8. Mauk, M. D., Steinmetz, J. E., Thompson, R. F. Classical conditioning using stimulation of the inferior olive as the unconditioned stimulus. Proceedings of the National Academy of Sciences of the United States of America. 83 (14), 5349-5353 (1986).
  9. Steinmetz, J. E., Lavond, D. G., Thompson, R. F. Classical conditioning in rabbits using pontine nucleus stimulation as a conditioned stimulus and inferior olive stimulation as an unconditioned stimulus. Synapse. 3 (3), New York, N.Y. 225-233 (1989).
  10. Chettih, S. N., McDougle, S. D., Ruffolo, L. I., Medina, J. F. Adaptive timing of motor output in the mouse: The role of movement oscillations in eyelid conditioning. Frontiers in Integrative Neuroscience. 5, 72 (2011).
  11. Heiney, S. A., Wohl, M. P., Chettih, S. N., Ruffolo, L. I., Medina, J. F. Cerebellar-dependent expression of motor learning during eyeblink conditioning in head-fixed mice. The Journal of Neuroscience. 34 (45), 14845-14853 (2014).
  12. Heiney, S. A., Kim, J., Augustine, G. J., Medina, J. F. Precise control of movement kinematics by optogenetic inhibition of purkinje cell activity. Journal of Neuroscience. 34 (6), 2321-2330 (2014).
  13. Ten Brinke, M. M., et al. Evolving models of pavlovian conditioning: Cerebellar cortical dynamics in awake behaving mice. Cell Reports. 13 (9), 1977-1988 (2015).
  14. Gao, Z., et al. Excitatory cerebellar nucleocortical circuit provides internal amplification during associative conditioning. Neuron. 89 (3), 645-657 (2016).
  15. Giovannucci, A., et al. Cerebellar granule cells acquire a widespread predictive feedback signal during motor learning. Nature Neuroscience. 20 (5), 727-734 (2017).
  16. Ten Brinke, M. M., et al. Dynamic modulation of activity in cerebellar nuclei neurons during pavlovian eyeblink conditioning in mice. eLife. 6, 28132 (2017).
  17. Wang, X., Yu, S., Ren, Z., De Zeeuw, C. I., Gao, Z. A FN-MdV pathway and its role in cerebellar multimodular control of sensorimotor behavior. Nature Communications. 11 (1), 6050 (2020).
  18. Albergaria, C., Silva, N. T., Pritchett, D. L., Carey, M. R. Locomotor activity modulates associative learning in mouse cerebellum. Nature Neuroscience. 21 (5), 725-735 (2018).
  19. Kim, O. A., Ohmae, S., Medina, J. F. A cerebello-olivary signal for negative prediction error is sufficient to cause extinction of associative motor learning. Nature Neuroscience. 23 (12), 1550-1554 (2020).
  20. Yamada, T., et al. Sensory experience remodels genome architecture in neural circuit to drive motor learning. Nature. 569 (7758), 708-713 (2019).
  21. Horlington, M. Startle response circadian rhythm in rats: lack of correlation with motor activity. Physiology & Behavior. 5 (1), 49-53 (1970).
  22. Yeomans, J. S., Li, L., Scott, B. W., Frankland, P. W. Tactile, acoustic and vestibular systems sum to elicit the startle reflex. Neuroscience and Biobehavioral Reviews. 26 (1), 1-11 (2002).
  23. Raspberry Pi Operating system images. , Available from: https://www.raspberrypi.com/software/operationg-systems/ (2021).
  24. VNC Server. VNC® Connect. , Available from: https://www.realvnc.com/en/connect/download/vnc/ (2021).
  25. Anaconda: The world's most popular data science platform. , Available from: https://xddebuganaconda.xdlab.co/ (2021).
  26. De Zeeuw, C. I., Ten Brinke, M. M. Motor learning and the cerebellum. Cold Spring Harbor Perspectives in Biology. 7 (9), 021683 (2015).
  27. Badura, A., et al. Normal cognitive and social development require posterior cerebellar activity. eLife. 7, 36401 (2018).
  28. Koekkoek, S. K. E., Den Ouden, W. L., Perry, G., Highstein, S. M., De Zeeuw, C. I. Monitoring kinetic and frequency-domain properties of eyelid responses in mice with magnetic distance measurement technique. Journal of Neurophysiology. 88 (4), 2124-2133 (2002).
  29. Kloth, A. D., et al. Cerebellar associative sensory learning defects in five mouse autism models. eLife. 4, 06085 (2015).
  30. Boele, H. -J., Koekkoek, S. K. E., De Zeeuw, C. I. Cerebellar and extracerebellar involvement in mouse eyeblink conditioning: the ACDC model. Frontiers in Cellular Neuroscience. 3, (2010).
  31. Lin, C., Disterhoft, J., Weiss, C. Whisker-signaled eyeblink classical conditioning in head-fixed Mice. Journal of Visualized Experiments: JoVE. (109), e53310 (2016).
  32. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  33. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).

Tags

Neurociência Questão 179 cerebelo aprendizagem motora associativa condicionamento de olho de atraso condicionamento de estímulo tátil
Uma plataforma flexível para monitorar o aprendizado associativo sensorial dependente do cerebellum
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Broussard, G. J., Kislin, M., Jung,More

Broussard, G. J., Kislin, M., Jung, C., Wang, S. S. H. A Flexible Platform for Monitoring Cerebellum-Dependent Sensory Associative Learning. J. Vis. Exp. (179), e63205, doi:10.3791/63205 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter