Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Rastreando ratos em câmaras de condicionamento operantes usando uma versátil câmera de vídeo caseira e deeplabcut

Published: June 15, 2020 doi: 10.3791/61409

Summary

Este protocolo descreve como construir uma pequena e versátil câmera de vídeo, e como usar vídeos obtidos a partir dele para treinar uma rede neural para rastrear a posição de um animal dentro de câmaras de condicionamento operantes. Este é um complemento valioso às análises padrão de registros de dados obtidos a partir de testes de condicionamento operantes.

Abstract

As câmaras de condicionamento operantes são usadas para realizar uma ampla gama de testes comportamentais no campo da neurociência. Os dados registrados são tipicamente baseados no acionamento de sensores de alavanca e cutucador de nariz presentes dentro das câmaras. Embora isso forneça uma visão detalhada de quando e como os animais executam certas respostas, ele não pode ser usado para avaliar comportamentos que não acionam nenhum sensor. Como tal, avaliar como os animais se posicionam e se movem dentro da câmara raramente é possível. Para obter essas informações, os pesquisadores geralmente têm que gravar e analisar vídeos. Os fabricantes de câmaras de condicionamento operantes podem normalmente fornecer aos seus clientes configurações de câmera de alta qualidade. No entanto, estes podem ser muito caros e não necessariamente se encaixam em câmaras de outros fabricantes ou outras configurações de teste comportamental. O protocolo atual descreve como construir uma câmera de vídeo barata e versátil usando componentes eletrônicos de hobby. Ele descreve ainda como usar o pacote de software de análise de imagens DeepLabCut para rastrear o status de um sinal de luz forte, bem como a posição de um rato, em vídeos reunidos a partir de uma câmara de condicionamento operante. O primeiro é um grande auxílio na seleção de segmentos curtos de interesse em vídeos que cobrem sessões de teste inteiras, e este último permite a análise de parâmetros que não podem ser obtidos a partir dos registros de dados produzidos pelas câmaras operárias.

Introduction

No campo da neurociência comportamental, os pesquisadores geralmente usam câmaras de condicionamento operantes para avaliar uma ampla gama de diferentes características cognitivas e psiquiátricas em roedores. Embora existam vários fabricantes diferentes desses sistemas, eles normalmente compartilham certos atributos e têm um design quase padronizado1,,2,,3. As câmaras são geralmente quadradas ou em forma de retângulo, com uma parede que pode ser aberta para a colocação de animais dentro, e uma ou duas das paredes restantes contendo componentes como alavancas, aberturas de nariz,bandejas de recompensa, rodas de resposta e luzes de vários tipos1,,2,,3. As luzes e sensores presentes nas câmaras são usados tanto para controlar o protocolo de teste quanto para rastrear os comportamentos dos animais1,,2,,3,4,5. Os sistemas típicos de condicionamento operante permitem uma análise muito detalhada de como os animais interagem com as diferentes operanda e aberturas presentes nas câmaras. Em geral, quaisquer ocasiões em que os sensores são acionados podem ser registrados pelo sistema, e a partir desses dados os usuários podem obter arquivos de registro detalhados descrevendo o que o animal fez durante etapas específicas do teste4,,5. Embora isso forneça uma representação extensiva do desempenho de um animal, ele só pode ser usado para descrever comportamentos que acionam diretamente um ou mais sensores4,,5. Como tal, aspectos relacionados à forma como o animal se posiciona e se move dentro da câmara durante diferentes fases do teste não são bem descritos6,7,8,,9,10. Isso é lamentável, pois tais informações podem ser valiosas para entender completamente o comportamento do animal. Por exemplo, pode ser usado para esclarecer por que certos animais têm um desempenho ruim em um determinado teste6, para descrever as estratégias que os animais podem desenvolver para lidar com tarefas difíceis6,,7,,8,,9,,10, ou para apreciar a verdadeira complexidade de comportamentos supostamente simples11,,12. Para obter tais informações articuladas, os pesquisadores geralmente recorrem à análise manual dos vídeos6,,7,,8,,9,,10,11.

Ao gravar vídeos de câmaras de condicionamento operantes, a escolha da câmera é crítica. As câmaras são comumente localizadas em cubículos isolados, com protocolos frequentemente fazendo uso de passos onde nenhuma luz visível está brilhando3,,6,7,,8,9. Portanto, é necessário o uso da iluminação infravermelh (IR) em combinação com uma câmera sensível ao IR, pois permite visibilidade mesmo na escuridão completa. Além disso, o espaço disponível para colocar uma câmera dentro do cubículo de isolamento é muitas vezes muito limitado, o que significa que se beneficia fortemente de ter pequenas câmeras que usam lentes com um amplo campo de visão (por exemplo, lentes olho de peixe)9. Embora os fabricantes de sistemas de condicionamento operantes possam muitas vezes fornecer configurações de câmera de alta qualidade para seus clientes, esses sistemas podem ser caros e não necessariamente se encaixam em câmaras de outros fabricantes ou configurações para outros testes comportamentais. No entanto, um benefício notável sobre o uso de câmeras de vídeo autônomas é que essas configurações podem muitas vezes interagir diretamente com os sistemas de condicionamento operantes13,14. Com isso, eles podem ser configurados apenas para registrar eventos específicos em vez de sessões de teste completas, o que pode ajudar muito na análise que se segue.

O protocolo atual descreve como construir uma câmera de vídeo barata e versátil usando componentes eletrônicos de hobby. A câmera usa uma lente olho de peixe, é sensível à iluminação ir e tem um conjunto de diodos emissores de luz IR (IR LEDs) ligados a ela. Além disso, ele é construído para ter um perfil plano e fino. Juntos, esses aspectos o tornam ideal para a gravação de vídeos das câmaras de condicionamento operantes mais disponíveis comercialmente, bem como outras configurações de teste comportamental. O protocolo descreve ainda como processar vídeos obtidos com a câmera e como usar o pacote de software DeepLabCut15,16 para ajudar na extração de sequências de vídeo de interesse, bem como no rastreamento dos movimentos de um animal nele. Isso contorna parcialmente o recuo do uso de uma câmera autônoma sobre as soluções integradas fornecidas pelos fabricantes operantes de sistemas de condicionamento, e oferece um complemento à pontuação manual de comportamentos.

Esforços foram feitos para escrever o protocolo em um formato geral para destacar que o processo geral pode ser adaptado a vídeos de diferentes testes de condicionamento operativo. Para ilustrar certos conceitos-chave, vídeos de ratos realizando o teste de tempo de reação serial de 5 opções (5CSRTT)17 são usados como exemplos.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Todos os procedimentos que incluem o manejo de animais foram aprovados pelo comitê de ética de Malmö-Lund para pesquisa animal.

1. Construindo a câmera de vídeo

NOTA: Uma lista dos componentes necessários para a construção da câmera é fornecida na Tabela de Materiais. Refere-se também à Figura 1, Figura 2, Figura 3, Figura 4, Figura 5.

  1. Conecte o anel de metal magnético (que acompanha o pacote de lente de olho de peixe) em torno da abertura do suporte da câmera(Figura 2A). Isso permitirá que a lente olho de peixe seja colocada na frente da câmera.
  2. Conecte o módulo da câmera ao suporte da câmera(Figura 2B). Isso dará alguma estabilidade ao módulo da câmera e oferecerá alguma proteção aos circuitos eletrônicos.
  3. Abra as portas da câmera no módulo da câmera e no microcomputador(Figura 1)puxando suavemente as bordas de seus clipes de plástico(Figura 2C).
  4. Coloque o cabo de fita nas portas da câmera, para que os conectores prateados enfrentem as placas de circuito(Figura2C). Bloqueie o cabo no lugar empurrando os clipes de plástico das portas da câmera.
  5. Coloque o microcomputador na caixa de plástico e insira o cartão micro SD listado (Figura 2D).
    NOTA: O cartão micro SD funcionará como o disco rígido do microcomputador e contém um sistema operacional completo. O cartão micro SD listado vem com um gerenciador de instalação pré-instalado nele (New Out Of Box Software (NOOBS). Como alternativa, pode-se escrever uma imagem da versão mais recente do sistema operacional do microcomputador (Raspbian ou Rasberry Pi OS) para um cartão micro SD genérico. Para obter ajuda, consulte os recursos oficiais da Web18. É preferível usar um cartão classe 10 micro SD com 32 Gb de espaço de armazenamento. Cartões SD maiores podem não ser totalmente compatíveis com o microcomputador listado.
  6. Conecte um monitor, teclado e um mouse ao microcomputador e, em seguida, conecte sua fonte de alimentação.
  7. Siga as etapas solicitadas pelo guia de instalação para realizar uma instalação completa do sistema operacional do microcomputador (Raspbian ou Rasberry Pi OS). Quando o microcomputador tiver inicializado, certifique-se de que está conectado à internet, seja através de um cabo ethernet ou Wi-Fi.
  8. Siga os passos descritos abaixo para atualizar os pacotes de software pré-instalados do microcomputador.
    1. Abra uma janela terminal(Figura 3A).
    2. Digite "sudo apt-get update" (excluindo aspas) e pressione a tecla Enter(Figura 3B). Aguarde o processo terminar.
    3. Digite "sudo apt full-upgrade" (excluindo aspas) e pressione enter. Faça respostas ao botão quando solicitado e aguarde o término do processo.
  9. No menu Iniciar, selecione Preferências e Configurações Raspberry Pi (Figura 3C). Na janela aberta, vá para a guia Interfaces e clique para Ativar a câmera e I2C. Isso é necessário para que o microcomputador funcione com a câmera e módulos de LED IR.
  10. Renomeie o Arquivo Suplementar 1 para "Pi_video_camera_Clemensson_2019.py". Copie-o em um cartão de memória USB e, posteriormente, na pasta /home/pi do microcomputador(Figura 3D). Este arquivo é um script Python, que permite que gravações de vídeo sejam feitas com os switches de botão que estão conectados na etapa 1.13.
  11. Siga os passos descritos abaixo para editar o arquivo rc.local do microcomputador. Isso faz com que o computador inicie o script copiado na etapa 1.10 e inicie os LEDs ir anexados na etapa 1.13 quando ele inicializar.
    ATENÇÃO: Este recurso de partida automática não funciona de forma confiável com placas de microcomputador que não sejam o modelo listado.
    1. Abra uma janela de terminal, digite "sudo nano /etc/rc.local" (excluindo aspas) e pressione enter. Isso abre um arquivo de texto (Figura 4A).
    2. Use as teclas de seta do teclado para mover o cursor para baixo para o espaço entre "fi" e "exit 0"(Figura 4A).
    3. Adicione o texto a seguir, conforme mostrado na Figura 4B,escrevendo cada sequência de texto em uma nova linha:
      sudo i2cset -y 1 0x70 0x00 0xa5 &
      sudo i2cset -y 1 0x70 0x09 0x0f &
      sudo i2cset -y 1 0x70 0x01 0x32 &
      sudo i2cset -y 1 0x70 0x03 0x32 &
      sudo i2cset -y 1 0x70 0x06 0x32 &
      sudo i2cset -y 1 0x70 0x08 0x32 &
      sudo python /home/pi/Pi_video_camera_Clemensson_2019.py &
    4. Salve as alterações pressionando Ctrl + x seguido por y e Enter.
  12. Solda juntos os componentes necessários, conforme indicado na Figura 5A,e conforme descrito abaixo.
    1. Para os dois LEDs coloridos, conecte um resistor e um cabo de jumper feminino a uma perna, e um cabo de jumper feminino ao outro(Figura 5A). Tente manter os cabos o mais curto possível. Observe qual dos eletrodos do LED é o negativo (tipicamente o curto), pois este precisa ser conectado ao solo nos pinos de entrada/saída (GPIO) de uso geral do microcomputador.
    2. Para os dois interruptores de botão, conecte um cabo de jumper feminino a cada perna(Figura 5A). Faça os cabos longos para um dos interruptores, e abreviar para o outro.
    3. Para montar o módulo LED IR, siga as instruções disponíveis em seus recursos oficiais da Web19.
    4. Cubra as juntas soldadas com tubos de encolhimento para limitar o risco de curto-circuito nos componentes.
  13. Desligue o microcomputador e conecte os interruptores e LEDs aos pinos GPIO, conforme indicado na Figura 5B,e descrito abaixo.
    ATENÇÃO: A fiação dos componentes dos pinos GPIO errados pode danificá-los e/ou o microcomputador quando a câmera estiver ligada.
    1. Conecte um LED para que sua extremidade negativa se conecte a #14 de pinos e sua extremidade positiva se conecte a #12 de pinos. Este LED brilhará quando o microcomputador for inicializado e a câmera estiver pronta para ser usada.
    2. Conecte o interruptor do botão com cabos longos para que um cabo se conecte a #9 de pinos e o outro para fixar #11. Este botão é usado para iniciar e parar as gravações de vídeo.
      NOTA: O script que controla a câmera foi escrito para que este botão não responda por alguns segundos logo após iniciar ou interromper uma gravação de vídeo.
    3. Conecte um LED para que sua extremidade negativa se conecte a #20 de pinos e sua extremidade positiva se conecte a #13 de pinos. Este LED brilhará quando a câmera estiver gravando um vídeo.
    4. Conecte o interruptor do botão com os cabos curtos para que um cabo se conecte a #37 de pinos e o outro para fixar #39. Este interruptor é usado para desligar a câmera.
    5. Conecte o módulo LED IR conforme descrito em seus recursos oficiais da Web19.

2. Projetando o protocolo de condicionamento operante de interesse

NOTA: Para usar o DeepLabCut para acompanhar a progressão do protocolo em vídeos gravados a partir de câmaras operárias, os protocolos comportamentais precisam ser estruturados de maneiras específicas, como explicado abaixo.

  1. Defina o protocolo para usar a luz da câmara, ou outro sinal de luz forte, como um indicador de uma etapa específica no protocolo (como o início de ensaios individuais, ou a sessão de teste)(Figura 6A). Este sinal será referido como o "indicador de etapa de protocolo" no restante deste protocolo. A presença deste sinal permitirá a progressão do protocolo de rastreamento nos vídeos gravados.
  2. Defina o protocolo para registrar todas as respostas de interesse com datas de tempo individuais em relação a quando o indicador de etapa de protocolo se torna ativo.

3. Gravação de vídeos de animais realizando o teste comportamental de interesse

  1. Coloque a câmera em cima das câmaras operísticas, para que ela cadase uma visão superior da área interna(Figura 7).
    NOTA: Isso é particularmente adequado para capturar a posição geral e a postura de um animal dentro da câmara. Evite colocar as luzes indicadoras da câmera e o módulo LED IR perto da lente da câmera.
  2. Inicie a câmera conectando-a a uma tomada elétrica através do cabo de alimentação.
    NOTA: Antes do primeiro uso, é benéfico definir o foco da câmera, usando a pequena ferramenta que acompanha o módulo da câmera.
  3. Use o botão conectado na etapa 1.13.2 para iniciar e interromper gravações de vídeo.
  4. Desligue a câmera seguindo estas etapas.
    1. Pressione e segure o botão conectado na etapa 1.13.4 até que o LED conectado na etapa 1.13.1 desligue. Isso inicia o processo de desligamento da câmera.
    2. Aguarde até que o LED verde visível em cima do microcomputador (Figura 1) pare de piscar.
    3. Remova a fonte de alimentação da câmera.
      ATENÇÃO: Desligar a fonte de alimentação enquanto o microcomputador ainda está em execução pode causar a corrupção dos dados no cartão micro SD.
  5. Conecte a câmera a um monitor, teclado, mouse e dispositivo de armazenamento USB e recupere os arquivos de vídeo de sua área de trabalho.
    NOTA: Os arquivos são nomeados de acordo com a data e hora em que a gravação de vídeo foi iniciada. No entanto, o microcomputador não possui um relógio interno e só atualiza sua configuração de tempo quando conectado à internet.
  6. Converta os vídeos gravados de .h264 para . MP4, como este último funciona bem com DeepLabCut e a maioria dos players de mídia.
    NOTA: Existem várias maneiras de conseguir isso. Um deles está descrito no Arquivo Suplementar 2.

4. Analisando vídeos com DeepLabCut

NOTA: O DeepLabCut é um pacote de software que permite que os usuários definam qualquer objeto de interesse em um conjunto de quadros de vídeo e, posteriormente, os usem para treinar uma rede neural no rastreamento das posições dos objetos em vídeos completos15,,16. Esta seção dá um esboço áspero de como usar o DeepLabCut para rastrear o status do indicador de etapa de protocolo e a posição da cabeça de um rato. A instalação e o uso do DeepLabCut são bem descritos em outros protocolos publicados15,16. Cada passo pode ser feito através de comandos Python específicos ou da interface gráfica do usuário do DeepLabCut, conforme descrito em outros lugares15,16.

  1. Crie e configure um novo projeto DeepLabCut seguindo as etapas descritas em16.
  2. Use a função de captura de quadros do DeepLabCut para extrair 700\u2012900 quadros de vídeo de um ou mais dos vídeos gravados na seção 3.
    NOTA: Se os animais diferem consideravelmente em pigmentação de pele ou outras características visuais, é aconselhável que os quadros de vídeo extraídos 700\u2012900 sejam divididos em vídeos de diferentes animais. Através disso, uma rede treinada pode ser usada para rastrear diferentes indivíduos.
    1. Certifique-se de incluir quadros de vídeo que exibem tanto o estado ativo (Figura 8A) quanto o inativo(Figura 8B) do indicador de etapa de protocolo.
    2. Certifique-se de incluir quadros de vídeo que cobrem a gama de diferentes posições, posturas e movimentos da cabeça que o rato pode mostrar durante o teste. Isso deve incluir quadros de vídeo onde o rato está parado em diferentes áreas da câmara, com a cabeça apontando em direções diferentes, bem como quadros de vídeo onde o rato está se movendo ativamente, entrando em aberturas de cutucar o nariz e entrando no cocho de pelotas.
  3. Use a caixa de ferramentas de rotulagem do DeepLabCut para marcar manualmente a posição da cabeça do rato em cada quadro de vídeo extraído na etapa 4.2. Use o cursor do mouse para colocar uma etiqueta "cabeça" em uma posição central entre as orelhas do rato(Figura 8A,B). Além disso, marque a posição da luz da casa da câmara (ou outro indicador de passo de protocolo) em cada quadro de vídeo onde ela está brilhando ativamente(Figura 8A). Deixe a luz da casa sem rótulo em quadros onde está inativa(Figura 8B).
  4. Use as funções "criar conjunto de dados de treinamento" e "rede de treinamento" do DeepLabCut para criar um conjunto de dados de treinamento a partir dos quadros de vídeo rotulados na etapa 4.3 e iniciar o treinamento de uma rede neural. Certifique-se de selecionar "resnet_101" para o tipo de rede escolhida.
  5. Pare o treinamento da rede quando a perda de treinamento subiu abaixo de 0,01. Isso pode levar até 500.000 iterações de treinamento.
    NOTA: Ao usar uma máquina de GPU com aproximadamente 8 GB de memória e um conjunto de treinamento de cerca de 900 quadros de vídeo (resolução: 1640 x 1232 pixels), o processo de treinamento foi encontrado para levar aproximadamente 72 horas.
  6. Use a função de análise de vídeo do DeepLabCut para analisar vídeos reunidos na etapa 3, usando a rede neural treinada na etapa 4.4. Isso fornecerá um arquivo .csv listando as posições rastreadas da cabeça do rato e o indicador de etapa de protocolo em cada quadro de vídeo dos vídeos analisados. Além disso, criará arquivos de vídeo marcados onde as posições rastreadas são exibidas visualmente(Vídeos 1-8).
  7. Avalie a precisão do rastreamento seguindo as etapas abaixo descritas.
    1. Use a função de avaliação incorporada do DeepLabCut para obter uma avaliação automatizada da precisão de rastreamento da rede. Isso é baseado nos quadros de vídeo que foram rotulados na etapa 4.3 e descreve o quão distante, em média, a posição rastreada pela rede é da etiqueta colocada manualmente.
    2. Selecione uma ou mais breves sequências de vídeo (de cerca de 100\u2012200 quadros de vídeo cada) nos vídeos marcados obtidos na etapa 4.6. Passe pelas sequências de vídeo, quadro a quadro e note em quantos quadros os rótulos indicam corretamente as posições da cabeça, cauda, etc., e em quantos quadros os rótulos são colocados em posições errôneas ou não mostradas.
      1. Se o rótulo de uma parte do corpo ou objeto for frequentemente perdido ou colocado em uma posição errônea, identifique as situações em que o rastreamento falha. Extrair e adicionar quadros rotulados dessas ocasiões repetindo as etapas 4.2. e 4.3. Em seguida, retreine a rede e reanalise os vídeos repetindo as etapas 4.4-4.7. Em última análise, a precisão de rastreamento de >90% de precisão deve ser alcançada.

5. Obtenção de coordenadas para pontos de interesse nas câmaras operísticas

  1. Use o DeepLabCut como descrito na etapa 4.3 para marcar manualmente pontos de interesse nas câmaras operantes (como aberturas de poke de nariz, alavancas, etc.) em um único quadro de vídeo(Figura 8C). Estes são escolhidos manualmente dependendo de interesses específicos do estudo, embora a posição do indicador de etapa de protocolo deva ser sempre incluída.
  2. Recupere as coordenadas dos pontos de interesse marcados do arquivo .csv que o DeepLabCut armazena automaticamente em "dados rotulados" na pasta do projeto.

6. Identificar segmentos de vídeo onde o indicador de etapa de protocolo está ativo

  1. Carregue os arquivos .csv obtidos da análise de vídeo DeepLabCut na etapa 4.6 em um software de gerenciamento de dados de escolha.
    NOTA: Devido à quantidade e complexidade dos dados obtidos do DeepLabCut e sistemas de condicionamento operantes, o gerenciamento de dados é melhor feito através de scripts de análise automatizada. Para começar com isso, consulte os guias de nível básico disponíveis em outros lugares20,21,22.
  2. Observe em que o vídeo segmenta o indicador de etapa de protocolo é rastreado dentro de 60 pixels da posição obtida na seção 5. Estes serão períodos em que o indicador de etapa de protocolo estiver ativo(Figura 6B).
    NOTA: Durante os segmentos de vídeo onde o indicador de etapa do protocolo não está brilhando, o vídeo marcado pode parecer indicar que o DeepLabCut não está rastreando-o em nenhuma posição. No entanto, este raramente é o caso, e em vez disso é tipicamente rastreado para vários locais dispersos.
  3. Extrair o ponto de partida exato para cada período em que o indicador de etapa de protocolo estiver ativo(Figura 6C: 1).

7. Identificar segmentos de vídeo de interesse

  1. Considere os pontos em que o indicador de etapa de protocolo se torna ativo(Figura 6C: 1) e os horários de respostas registrados pelas câmaras operáveis (seção 2, Figura 6C: 2).
  2. Use essas informações para determinar quais segmentos de vídeo cobrem eventos interessantes específicos, como intervalos de inter-ensaio, respostas, recuperações de recompensas etc. (Figura 6C: 3, Figura 6D).
    NOTA: Para isso, tenha em mente que a câmera descrita aqui grava vídeos a 30 fps.
  3. Observe os quadros de vídeo específicos que cobrem esses eventos de interesse.
  4. (Opcional) Editar arquivos de vídeo de sessões de teste completas para incluir apenas os segmentos específicos de interesse.
    NOTA: Existem várias maneiras de conseguir isso. Um está descrito nos Arquivos Complementares 2 e 3. Isso ajuda muito ao armazenar um grande número de vídeos e também pode tornar a revisão e a apresentação de resultados mais convenientes.

8. Analisando a posição e os movimentos de um animal durante segmentos específicos de vídeo

  1. Subconjunte os dados completos de rastreamento da posição da cabeça obtidas do DeepLabCut na etapa 4.6 para incluir apenas segmentos de vídeo observados na seção 7.
  2. Calcule a posição da cabeça do animal em relação a um ou mais dos pontos de referência selecionados na seção 5 (Figura 8C). Isso permite comparações de rastreamento e posição em diferentes vídeos.
  3. Realizar análises aprofundadas relevantes da posição e dos movimentos do animal.
    NOTA: A análise específica realizada será fortemente específica do estudo. Alguns exemplos de parâmetros que podem ser analisados são dados abaixo.
    1. Visualize os traços do caminho plotando todas as coordenadas detectadas durante um período selecionado dentro de um gráfico.
    2. Analise a proximidade a um determinado ponto de interesse usando a seguinte fórmula:
      Equation 1
    3. Analise as mudanças de velocidade durante um movimento calculando a distância entre coordenadas rastreadas em quadros consecutivos e divida por 1/fps da câmera.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Desempenho da câmera de vídeo

Os resultados representativos foram reunidos em câmaras de condicionamento operativo para ratos com áreas de piso de 28,5 cm x 25,5 cm, e alturas de 28,5 cm. Com a lente olho de peixe anexada, a câmera captura toda a área do piso e grandes partes das paredes circundantes, quando colocada acima da câmara(Figura 7A). Como tal, uma boa visão pode ser obtida, mesmo que a câmera seja colocada fora do centro na parte superior da câmara. Isso deve ser verdade para câmaras operáveis comparáveis. Os LEDs ir são capazes de iluminar toda a câmara (Figura 7B,C), permitindo uma boa visão, mesmo quando todas as outras luzes dentro da câmara são desligadas(Figura 7C). No entanto, a iluminação em tais situações não é inteiramente uniforme, e pode resultar em algumas dificuldades para obter um rastreamento preciso. Se tal análise for de interesse, podem ser necessárias fontes adicionais de iluminação do IR. Também vale a pena notar que algumas câmaras usam panelas de metal para coletar urina e fezes. Se a câmera for colocada diretamente acima dessas superfícies, fortes reflexos da luz dos LEDs ir serão visíveis nos vídeos gravados(Figura 7B). Isso pode, no entanto, ser evitado colocando toalhas de papel na panela de queda, dando uma imagem muito melhorada(Figura 7C). Colocar o IR da câmera ou LEDs coloridos muito perto da lente da câmera pode resultar em visível na periferia da imagem(Figura 7B). Como a câmera é sensível ao IR, quaisquer fontes de luz ir que estejam presentes dentro das câmaras podem ser visíveis nos vídeos. Para muitas configurações, isso incluirá o brilho contínuo dos sensores de quebra do feixe de RI(Figura 7C). A iluminação contínua dos LEDs ir da câmera não perturba a qualidade da imagem de câmaras bem iluminadas(Figura 7D). O tamanho dos vídeos gravados com a câmera é de aproximadamente 77 Mb/min. Se um cartão micro SD de 32 Gb for usado para a câmera, deve haver cerca de 20 Gb disponíveis após a instalação do sistema operacional. Isso deixa espaço para aproximadamente 260 min de imagens gravadas.

A lente olho de peixe faz com que a câmera tenha um foco ligeiramente desigual, sendo afiada no centro da imagem, mas reduzida a nitidez em direção às bordas. Isso não parece afetar a precisão do rastreamento. Além disso, a lente olho de peixe resulta na distorção da imagem gravada. Por exemplo, as distâncias entre pontos igualmente espaçados ao longo das linhas retas mostrarão um espaçamento artificialmente reduzido em direção à periferia da imagem (Figura 9A,B). Se a câmera for usada para aplicações onde a maior parte do campo de visão ou medições absolutas de distância e velocidade são de interesse, vale a pena considerar a correção dos dados para essa distorção23 (Arquivo Suplementar 4). A distorção é, no entanto, relativamente leve no centro da imagem (Figura 9B). Para vídeos reunidos em nossa câmara operante, a área de interesse é limitada aos 25% centrais do campo de visão da câmera. Dentro dessa área, o efeito da distorção do olho de peixe é mínimo (Figura 9C\u2012F).

Precisão do rastreamento com DeepLabCut

Os principais fatores que determinarão a precisão de rastreamento de uma rede treinada são (i) o número de quadros rotulados em seu conjunto de dados de treinamento, (ii) quão bem esses quadros rotulados capturam o comportamento de interesse e (iii) o número de iterações de treinamento utilizadas. O DeepLabCut inclui uma função de avaliação, que relata uma estimativa de quão longe (em número de pixels) seu rastreamento pode ser da localização real de um objeto. Isso, no entanto, não necessariamente dá uma boa descrição do número de quadros onde um objeto é perdido e/ou mal rotulado(Figura 10A),solicitando uma avaliação manual adicional da precisão de rastreamento.

Para analisar comportamentos dentro de uma câmara operante, uma rede bem treinada deve permitir a identificação precisa de todos os eventos em que o indicador de etapa de protocolo esteja ativo. Caso contrário, pode ser necessário retreinar a rede ou escolher um indicador diferente. Apesar de ter uma rede bem treinada, o rastreamento do indicador de etapa de protocolo pode, de vez em quando, ser interrompido por animais bloqueando a visão da câmera(Figura 10B). Isso causará quebras no rastreamento que lembram episódios em que o indicador está inativo. A frequência desse acontecimento dependerá da tensão animal, tipo de protocolo comportamental e escolha do indicador de etapa de protocolo. No exemplo dados do 5CSRTT que é usado aqui, ocorreu em quatro dos 400 ensaios (dados não mostrados). Todas as ocasiões foram facilmente identificáveis, pois suas durações não coincidiram com a etapa de quebra que havia sido incluída no projeto do protocolo (Figura 6A). Em última análise, escolher um indicador que é colocado no alto da câmara e longe de componentes com os quais os animais interagem provavelmente será útil.

Uma rede bem treinada deve permitir >90% de precisão ao rastrear a cabeça de um animal durante segmentos de vídeo de interesse(Vídeo 1). Com isso, apenas um pequeno subconjunto de quadros de vídeo precisará ser excluído da análise subsequente e os dados de rastreamento utilizáveis serão obtidos de praticamente todos os ensaios dentro de uma sessão de teste. O rastreamento preciso é claramente identificável por marcadores que seguem um animal ao longo de seus movimentos(Vídeo 2) e caminhos traçados aparecendo suaves(Figura 10C). Em contraste, o rastreamento impreciso é caracterizado por marcadores que não permanecem de forma confiável no alvo(Vídeo 3) e por caminhos plotados que aparecem irregulares(Figura 10D). Este último é causado pelo objeto sendo rastreado para posições errôneas distantes em quadros de vídeo único dentro de sequências de rastreamento preciso. Como resultado disso, o rastreamento impreciso normalmente causa mudanças bruscas nas velocidades de movimento calculadas(Figura 10E). Isso pode ser usado para identificar quadros de vídeo onde o rastreamento é impreciso, para excluí-los de análises subsequentes. Se houver problemas substanciais com a precisão do rastreamento, as ocasiões em que o rastreamento falha devem ser identificadas e a rede deve ser retreinada usando um conjunto de treinamento expandido contendo quadros de vídeo rotulados desses eventos(Figura 10A,E).

Uso de rastreamento de vídeo para complementar a análise de comportamentos operísticos

Analisar como um animal se move e se posiciona durante os testes de operantes fornecerá múltiplas percepções sobre a natureza complexa e multifacetada de seus comportamentos. Ao rastrear onde um animal está localizado durante uma sessão de teste, pode-se avaliar como padrões de movimento distintos se relacionam com o desempenho (Figura 11A,B). Ao investigar ainda mais os movimentos da cabeça durante etapas específicas do protocolo, pode-se detectar e caracterizar o uso de diferentes estratégias (Figura 11C\u2012E).

Para exemplificar, considere os dados representativos apresentados para ratos que realizam o teste 5CSRTT (Figura 6A, Figura 11). Neste teste, os animais são apresentados com múltiplos ensaios que cada um começa com uma etapa de espera de 5 s (intervalo inter-ensaio - ITI) (Figura 6A: 1). No final disso, uma luz brilhará dentro de uma das aberturas de cutucar o nariz (posição escolhida aleatoriamente em cada ensaio, Figura 6A: 2). Cutucar o nariz na abertura de cued é considerada uma resposta correta e é recompensada(Figura 6A: 3). Responder a outra abertura é considerado incorreto. Deixar de responder dentro de 5 s após a apresentação da luz é considerado uma omissão. O rastreamento dos movimentos da cabeça durante o ITI deste teste revelou que em ensaios onde os ratos realizam uma resposta, eles são rápidos em se mover em direção à área ao redor das aberturas de cutucar o nariz(Figura 11A,B, Vídeo 4). Em contrapartida, na maioria dos ensaios de omissão, os ratos não conseguem se aproximar da área em torno das aberturas (Figura 11B, Vídeo 5). Esse comportamento está em consonância com a interpretação comum das omissões que estão intimamente relacionadas a uma baixa motivação para arealizaçãodo teste 3,16. No entanto, em um subconjunto de ensaios de omissão (aproximadamente 20% do conjunto de dados atual), os ratos mostraram um foco claro para as aberturas (Figura 11B, Vídeo 6), mas não notaram a localização exata da abertura do cued. Os dados indicam, assim, que existem pelo menos dois tipos diferentes de omissões, uma relacionada a um possível desinteresse no ensaio em curso, e outra mais dependente da atenção visuosespacial insuficiente3. O rastreamento da cabeça também pode ser usado para distinguir estratégias aparentes. Como exemplo, duas estratégias de atenção distintas foram reveladas ao analisar como os ratos se movem quando estão próximos às aberturas de cutucar o nariz durante o 5CSRTT (Figura 11C\u2012E). Na primeira estratégia, os ratos mostraram uma abordagem extremamente focada, mantendo uma posição central na maior parte do ITI (Figura 11C, Vídeo 7). Em contraste, os ratos que adotam a outra estratégia constantemente moviam suas cabeças entre as diferentes aberturas de forma semelhante à pesquisa(Figura 11D, Vídeo 8). Esse tipo de diferenças comportamentais pode ser quantificada convenientemente calculando a quantidade de tempo gasto nas proximidades das diferentes aberturas(Figura 11E). Por fim, analisando qual abertura o rato está mais próximo no momento da apresentação da luz de sinalização(Figura 11F),pode-se demonstrar que estar em uma posição central (Figura 11G) e/ou nas proximidades da localização da abertura de cued(Figura 11H) parece ser benéfico para um desempenho preciso no teste.

Figure 1
Figura 1: Esboço do microcomputador listado. O esquema mostra a posição de vários componentes de interesse na placa-mãe do microcomputador. Estes são marcados com números circulados da seguinte forma: 1: Conector para cabo de fita da câmera; 2: Luz LED indicando quando o computador está em execução; 3: Micro USB para cabo de alimentação; 4: Micro USB para mouse/teclado; 5: Pinos de entrada/saída de uso geral (pinos GPIO), esses pinos são usados para conectar o microcomputador a LEDs, switches e o módulo LED IR; 6: Saída Mini HDMI; 7: Slot para cartão Micro SD. Na parte inferior da figura, uma parte cortada e ampliada dos pinos GPIO é mostrada para indicar como contar ao longo deles para identificar corretamente a posição de um pino específico. Clique aqui para ver uma versão maior desta figura.

Figure 2
Figura 2: Construindo o corpo principal da câmera. As figuras ilustraram os principais passos para a construção do corpo da câmera. (A) Conecte o anel de metal magnético ao suporte da câmera. (B) Anexe o módulo da câmera ao suporte da câmera. (C) Conecte o módulo da câmera ao microcomputador através do cabo de fita plana. Observe as setas brancas indicando como abrir e fechar as portas da câmera presentes tanto no microcomputador quanto no módulo da câmera. (D) Coloque o microcomputador na carcaça de plástico e insira um cartão micro SD. Clique aqui para ver uma versão maior desta figura.

Figure 3
Figura 3: Atualizar o sistema operacional do microcomputador e habilitar os periféricos. A figura mostra quatro capturas de tela diferentes representando a interface de usuário do microcomputador. (A) As janelas do terminal podem ser abertas clicando no ícone "terminal" no canto superior esquerdo da tela. (B) Dentro do terminal, pode-se digitar diferentes tipos de comandos, conforme detalhado no texto do protocolo. A captura de tela exibe o comando para atualizar os pacotes de software do sistema. (C) A captura de tela exibe como navegar até o menu de configurações, onde se pode ativar o uso do módulo de câmera e dos pinos GPIO I2C. (D) A captura de tela exibe a pasta /home/pi, onde o script da câmera deve ser copiado na etapa 1.10 do protocolo. A janela é aberta clicando no ícone indicado no canto superior esquerdo da tela. Clique aqui para ver uma versão maior desta figura.

Figure 4
Figura 4: Configurando o arquivo rc.local do microcomputador. A figura exibe duas capturas de tela do arquivo rc.local do microcomputador, quando acessado através do terminal conforme descrito na etapa 1.11.1. (A) Uma captura de tela do arquivo rc.local em seu formato original. A seta indica o espaço onde o texto precisa ser inserido para habilitar o recurso de inicial ção automática da câmera. (B) Uma captura de tela do arquivo rc.local depois de ter sido editada para brilhar os LEDs ir e iniciar o script python controlando a câmera após a inicialização do microcomputador. Clique aqui para ver uma versão maior desta figura.

Figure 5
Figura 5: Conexão de switches e LEDs aos pinos GPIO do microcomputador. (A) Esquema mostrando um interruptor de botão com cabos de jumper femininos (superior) e um LED com resistor e cabos de jumper feminino (inferior). (1) Interruptor de botão, (2) cabos de jumper femininos, (3) LED, (4) resistor. (B) Imagem esquemática mostrando como os dois interruptores de botão, os LEDs coloridos e a placa LED IR estão conectados aos pinos GPIO do microcomputador. Cabos azuis e pinos GPIO indicam o solo. A posição de dois pinos GPIO são indicadas na figura (pinos GPIO #2 e #40): (1) Botão para gravação de vídeo de partida/parada. (2) LED indicando quando o vídeo está sendo gravado. (3) Botão para desligar a câmera. (4) LED indicando quando a câmera está inicializado e está pronta para ser usada. (5) Módulo de LED IR. Observe que os circuitos com LEDs também contêm resistores de 330 Ω. Clique aqui para ver uma versão maior desta figura.

Figure 6
Figura 6: Usando o rastreamento deeplabcut do indicador de etapa de protocolo para identificar sequências de interesse em vídeos completos. (A) Esquema das etapas de um único ensaio no teste de tempo de reação serial de 5 opções (5CSRTT): (1) Primeiro, há um breve período de espera (ITI). A seta indica uma luz de casa ativamente brilhante. (2) No final do ITI, uma luz brilhará em uma das cinco aberturas de cutucar o nariz (seta). (3) Se um rato responder com precisão realizando uma cutucada no nariz na abertura, uma recompensa é entregue (seta). (4) O rato pode recuperar a recompensa. (5) Para permitir o uso da luz da casa como um indicador de passo de protocolo, uma breve etapa de pausa onde a luz da casa é desligada (seta) é implementada antes do próximo teste começar. Note que a luz da casa está brilhando durante as etapas subsequentes do julgamento. (B) Um gráfico de exemplo que mostra a x-coordenada da luz da casa ativa, como rastreado pelo DeepLabCut, durante um segmento de vídeo de um teste de 5CSRTT. Durante segmentos onde a luz da casa está brilhando (indicador ativo - 1), a posição é rastreada até um ponto consistente e estável (observe também o marcador vermelho (indicado por seta) no quadro de vídeo do exemplo), comparável à posição da luz da casa na Figura 8C (x, y: 163, 503). Durante segmentos onde a luz da casa não está brilhando (indicador inativo - 2, note a seta branca no quadro de vídeo exemplo), a posição rastreada não é estável, e longe da coordenada real da luz da casa. (C) A Tabela 1 mostra um exemplo de saída processada obtida a partir do rastreamento deeplabcut de um indicador de etapa de protocolo. Nesta saída, o ponto de partida para cada ocasião em que o indicador está ativo foi listado. A Tabela 2 retrata um exemplo de dados obtidos do sistema de condicionamento operante, dando detalhes relevantes para ensaios individuais. Neste exemplo, a duração do ITI, a posição da abertura e latências para realizar uma resposta e recuperar a recompensa foram registradas. A Tabela 3 retrata um exemplo de dados obtidos pela fusão de resultados de rastreamento do DeepLabCut e dados registrados no sistema de condicionamento operante. Através disso, os quadros de vídeo para o ponto de partida do ITI (passo 1 em A), o ponto de partida da apresentação de luz de sinalização (passo 2 em A), a resposta (passo 3 em A) e a recuperação (passo 4 em A) para um exemplo de teste foram obtidos. (D) Um gráfico de exemplo que mostra a coordenada x da luz da casa, como rastreado pelo DeepLabCut, durante um ensaio filmado 5CSRTT. As diferentes etapas do protocolo são indicadas: (1) ITI; (2) apresentação de uma luz de sinalização (posição indicada por seta branca); (3) resposta; (4) recuperação de recompensas. A identificação de quadros de vídeo que retratam o início e o stop dessas diferentes etapas de protocolo foi feita através de um processo comparável ao indicado em D. Clique aqui para ver uma versão maior desta figura.

Figure 7
Figura 7: Características da imagem da câmera. (A) Imagem não amassada obtida a partir de uma câmera colocada em cima de uma câmara de condicionamento operante. A imagem foi capturada enquanto a câmara foi colocada em uma sala iluminada. Observe a (1) luz da casa e (2) cocho de pelota de recompensa ao longo da parede esquerda da câmara e (3) a linha de cinco aberturas de cutucar o nariz ao longo da parede direita da câmara. Cada abertura de poke do nariz contém uma pequena luz de sinalização. (B) Imagem desemaranhada exibindo o forte reflexo causado por (1) a panela de queda metálica, bem como reflexos causados pelo posicionamento abaixo do ideal dos LEDs indicadores (2) da câmera e (3) do módulo LED IR. (C) Imagem cortada da câmara em completa escuridão. Observe que as luzes dos detectores de quebra do feixe de RI nas cinco aberturas de cutucada do nariz ao longo da parede direita da câmara são claramente visíveis (seta). (D) Imagem cortada da câmara quando iluminada brilhantemente. Clique aqui para ver uma versão maior desta figura.

Figure 8
Figura 8: Acompanhamento posicional do indicador de etapa de protocolo e partes de interesse do corpo. (A) A imagem mostra a posição de um indicador de passo de protocolo (vermelho) bem como a cabeça (amarela) e cauda (verde) de um rato, conforme rastreado pelo DeepLabCut. Como indicado pelo rastreamento da luz da casa iluminada, o quadro de vídeo é tirado de um instantâneo de um ensaio ativo. (B) A imagem mostra a posição da cabeça (amarela) e da cauda (verde) como rastreada pelo DeepLabCut durante um momento em que um ensaio não está ativo. Note a falta de rastreamento de luz da casa. (C) As posições dos pontos de interesse utilizados na análise dos dados apresentados nas Figuras 6 e Figura 11; (1) Luz da casa, neste caso usado como indicador de etapa de protocolo, (2\u20126) Aberturas de poke de nariz #1\u20125. Clique aqui para ver uma versão maior desta figura.

Figure 9
Figura 9: Distorção de imagem da lente olho de peixe. (A) Imagem de um padrão de placa de verificador com quadrados igualmente dimensionados e espaçados em preto e branco tirados com a câmera descrita neste protocolo. A imagem foi tirada em uma altura comparável à usada ao gravar vídeos de câmaras de condicionamento operantes. Quadrados pretos ao longo das linhas horizontais e verticais centrais foram marcados com DeepLabCut. (B) Gráfico que mostra como o espaçamento dos quadrados marcados em (A) muda com a proximidade do centro de imagem. (C) Imagens que retratam medidas tomadas para avaliar o impacto do efeito de distorção do olho de peixe em vídeos coletados de câmaras operísticas. Os cantos e pontos médios ao longo da borda da área do piso, a posição central de cada degrau individual do piso e a posição das cinco aberturas de cutucar o nariz foram indicados com DeepLabCut (pontos coloridos); (1) espaçamento de degraus do piso, (2) largura do piso da câmara ao longo do meio da câmara, (3) espaçamento de aberturas de cutucar o nariz. (D) Espaçamento dos degraus do piso (em média para cada conjunto de três degraus consecutivos), numerados da esquerda para a direita (C). Há um pequeno efeito da distorção do olho de peixe, resultando no espaçamento dos degraus centrais de aproximadamente 3 pixels (8%) mais distantes do que os degraus que estão posicionados nas bordas do chão da câmara. (E) Largura do piso da câmara em (C) medido em suas bordas esquerda e direita, bem como ponto médio. Há um pequeno efeito da distorção do olho de peixe, resultando na largura medida no ponto médio sendo de aproximadamente 29 pixels (5%) mais do que as outras medidas. (F) Espaçamento das aberturas de poke do nariz em (C), numeradas a partir da parte superior da imagem. Há um pequeno efeito da distorção do olho de peixe, resultando no espaçamento entre as três aberturas centrais (H2, H3, H5) sendo aproximadamente 5 pixels (4%) mais amplo do que o espaçamento entre H1-H2 e H4-H5. Para D-F, os dados foram coletados a partir de quatro vídeos e gráficos que retratam a média do grupo + erro padrão. Clique aqui para ver uma versão maior desta figura.

Figure 10
Figura 10: Revisão da precisão do rastreamento DeepLabCut. (A) Uma tabela listando informações de treinamento para duas redes neurais treinadas para rastrear ratos dentro de câmaras operísticas. A rede #1 usou um conjunto de dados de treinamento menor, mas um alto número de iterações de treinamento em comparação com o Network #2. Ambas as redes obtiveram uma pontuação de erro baixa da função de avaliação do DeepLabCut (erro de teste de DLC) e apresentaram uma baixa perda de treinamento no final do treinamento. Apesar disso, a Rede #1 mostrou uma precisão de rastreamento muito ruim após avaliação manual de quadros de vídeo marcados (precisão medida, estimada em 150 quadros de vídeo cobrindo um segmento de vídeo comparável aos do Vídeo 2 e vídeo 3). O #2 de rede representa a versão melhorada do Network #1, depois de ter incluído quadros de vídeo adicionais de ratos em movimento ativo no conjunto de dados de treinamento, conforme descrito em (E). (B) Imagem representando um rato levantando e cobrindo a luz da casa da câmara (Figura 7A) com a cabeça, interrompendo o rastreamento dela. (C) Quadro de vídeo capturando uma resposta feita durante um teste 5CSRTT(Figura 6A: 3). O caminho de movimento da cabeça durante a resposta e o ITI anterior foi sobreposto à imagem em amarelo. O rastreamento é considerado preciso. Observe o rastreamento suave durante os movimentos (seta branca). Um vídeo correspondente está disponível como Vídeo 2. O #2 de rede (ver A) foi usado para rastreamento. (D) Quadro de vídeo capturando uma resposta feita durante um teste 5CSRTT(Figura 6A: 3). O caminho de movimento da cabeça durante a resposta e o ITI anterior foi sobreposto à imagem em amarelo. Os dados dizem respeito ao mesmo teste mostrado em (C), mas analisados com #1 de Rede (ver A). O rastreamento é considerado impreciso. Observe a aparência irregular do caminho com múltiplas linhas retas (setas brancas), causadas pelo rastreamento ocasional da cabeça para posições errôneas distantes (setas pretas). Um vídeo correspondente está disponível como Vídeo 3. (E) Gráfico que retrata as mudanças dinâmicas na velocidade de movimento do rastreamento da cabeça em (C) e (D). Identificáveis no gráfico são três grandes movimentos vistos nos vídeos 2 e 3, onde o rato se vira pela primeira vez para enfrentar as aberturas de cutucar o nariz (curva inicial), faz um pequeno ajuste para aproximá-los (ajuste) e finalmente realiza uma resposta. O perfil de velocidade para o bom rastreamento obtido pela Network #2 (A) exibe curvas suaves de mudanças na velocidade de movimento (setas azuis), indicando um rastreamento preciso. O perfil de velocidade para o rastreamento ruim obtido pela Network #1 (A) mostra vários picos repentinos na velocidade de movimento (setas vermelhas) indicativos de erros ocasionais de rastreamento em quadros de vídeo único. Vale ressaltar que esses problemas de rastreamento ocorrem especificamente durante os movimentos. Para corrigir isso, o conjunto de treinamento inicial usado para treinar o Network #1 foi expandido com uma grande quantidade de quadros de vídeo representando ratos em movimento ativo. Isso foi posteriormente usado para treinar o Network #2, que removeu eficientemente esse problema de rastreamento. Clique aqui para ver uma versão maior desta figura.

Figure 11
Figura 11: Utilização do rastreamento posicional através do DeepLabCut para complementar a análise comportamental dos testes de condicionamento operativo. (Um) Uma visão superior do interior de uma câmara de condicionamento operante. Três áreas da câmara estão indicadas. A área próxima ao cocho de pelotas de recompensa (Pelota), a área da câmara central (Centro) e a área ao redor das aberturas de poke do nariz (Aberturas). (B) Um gráfico que retrata a quantidade relativa de tempo que os ratos passam nas três diferentes áreas da câmara operante delineadas em (A) durante a etapa ITI do 5CSRTT. Note que em ensaios com uma resposta, os ratos tendem inicialmente a ser posicionados perto do cocho de pelotas (preto) e centro de câmara (cinza), mas à medida que o ITI progride, eles mudam para se posicionar em torno das aberturas de cutucar o nariz (branco). Em contraste, em ensaios típicos de omissão, os ratos permanecem posicionados ao redor do cocho de pelotas e centro de câmara. Em um subconjunto de ensaios de omissão (aproximadamente 20%) ratos claramente mudam seu foco para as aberturas de cutucar o nariz, mas ainda não conseguem executar uma resposta quando solicitado. Análise bidirecional da ANOVA do tempo gasto em torno das aberturas de poke do nariz usando o tipo de ensaio como fator entre sujeitos e tempo como fator dentro do assunto revelam tempo significativo (p < 0.001, F(4,8) = 35.13), trial type (p < 0.01, F(2,4) = 57.33) and time x trial type interaction (p < 0.001, F(8,16) = 15.3) effects. Data gathered from four animals performing 100 trials each. Graph displays mean + standard error. (C) Mapa de calor exibindo todas as posições da cabeça rastreadas nas proximidades das aberturas de poke do nariz, por um rato específico durante 50 ITIs de uma sessão de teste de 5CSRTT. Note que o rato tem uma forte tendência a manter a cabeça em um ponto próximo à abertura central do poke nariz. (D) Mapa de calor exibindo todas as posições da cabeça rastreadas nas proximidades das aberturas de poke do nariz, por um rato específico durante 50 ITIs de uma sessão de teste de 5-CSRTT. Note que o rato não mostra nenhuma preferência clara por qualquer abertura específica. (E) Gráfico que retrata a quantidade relativa de tempo que os dois ratos exibidos em (C) e (D) passam sendo mais próximos das diferentes aberturas de cutucar o nariz durante 50 ITIs do 5CSRTT. O rato exibindo uma estratégia focada (C) (preto) mostra uma forte preferência por estar mais próximo da abertura central, enquanto o rato com uma estratégia de pesquisa (D) (branco) não mostra preferência por qualquer abertura específica. O gráfico mostra erro padrão médio + . (F) Uma imagem de um rato no momento da apresentação da sugestão em um ensaio de 5CSRTT (Figura 6A). Note que o rato posicionou sua cabeça mais próxima da abertura central (seta branca), estando a duas aberturas de distância da abertura de cued (seta preta). (G) Um gráfico que mostra a precisão de desempenho no 5CSRTT (ou seja, frequência de realizar respostas corretas) em relação à se a cabeça dos ratos estava mais próxima da abertura central ou de uma das outras aberturas no momento da apresentação da sugestão (Figura 6A2). Dados coletados de quatro animais com cerca de 70 respostas cada. Gráfico exibe média de grupo + erro padrão (teste t combinado: p < 0.05). (H) Um gráfico que mostra a precisão de desempenho no 5CSRTT em relação à distância entre a posição da abertura do cued e a posição da cabeça de um rato, no ponto de apresentação do sinal. A distância diz respeito ao número de aberturas entre a posição da cabeça dos ratos e a posição da abertura sinalizada. Dados coletados de quatro animais com cerca de 70 respostas cada. Os monitores de gráficos significam + erro padrão (anova unidirecional compatível: p < 0.01). For the presented analysis, Network #2 described in Figura 10A foi usado. O conjunto completo de dados analisados incluiu aproximadamente 160.000 quadros de vídeo e 400 ensaios. Destes, 2,5% dos quadros de vídeo foram excluídos devido à notável velocidade de movimento do animal ser superior a 3.000 pixels/s, indicando rastreamento errôneo (Figura 10E). Nenhum julgamento completo foi excluído. Clique aqui para ver uma versão maior desta figura.

Vídeo 1: Desempenho representativo de rede neural bem treinada. O vídeo mostra uma montagem de um rato realizando 45 ensaios com respostas corretas durante uma sessão de teste 5CSRTT (ver Figura 6A para detalhes do protocolo). O rastreamento da luz da casa (marcador vermelho), base da cauda (marcador verde) e cabeça (marcador azul) são indicados no vídeo. O treinamento da rede (Rede #2 na Figura 10A) enfatizou a precisão dos movimentos feitos ao longo do piso da câmara nas proximidades das aberturas de cutucar o nariz (parede direita, Figura 7A). O rastreamento desses segmentos mostra em média >90% de precisão. O rastreamento de episódios de criação e preparação são imprecisos, pois o conjunto de treinamento não incluía quadros desses comportamentos. Observe que o vídeo foi compactado para reduzir o tamanho do arquivo e não é representaível da qualidade de vídeo obtida com a câmera. Clique aqui para baixar este vídeo.

Vídeo 2: Exemplo de animal rastreado com precisão. O vídeo mostra um único teste bem rastreado de um rato realizando uma resposta correta durante o 5CSRTT. O rastreamento da luz da casa (marcador vermelho), base da cauda (marcador verde) e cabeça (marcador azul) são indicados no vídeo. A rede neural #2 descrita na Figura 10A foi usada para rastreamento. Observe como os marcadores seguem os movimentos do animal com precisão. Consulte também a Figura 10C,E para o caminho plotado e a velocidade de movimento para o rastreamento da cabeça neste clipe de vídeo. Clique aqui para baixar este vídeo.

Vídeo 3: Exemplo de animal mal rastreado. O vídeo mostra um único teste mal rastreado de um rato realizando uma resposta correta durante o 5CSRTT. O rastreamento da luz da casa (marcador vermelho), base da cauda (marcador verde) e cabeça (marcador azul) são indicados no vídeo. A rede neural #1 descrita na Figura 10A foi usada para rastreamento. O videoclipe é o mesmo usado no Vídeo 2. Note que o marcador para a cabeça não está colocado de forma confiável em cima da cabeça do rato. Consulte também a Figura 10D,E para o caminho plotado e a velocidade de movimento para o rastreamento da cabeça neste clipe de vídeo. Clique aqui para baixar este vídeo.

Vídeo 4: Exemplo de movimentos feitos durante um teste 5CSRTT com uma resposta. O vídeo mostra um único teste bem rastreado de um rato realizando uma resposta correta durante o 5-CSRTT. O rastreamento da luz da casa (marcador vermelho), base da cauda (marcador verde) e cabeça (marcador azul) são indicados no vídeo. Observe como o rato no início está posicionado em clara proximidade com o recipiente de pelotas (parede esquerda, Figura 7A) e, em seguida, move-se para concentrar sua atenção na linha de aberturas de cutucar o nariz. Clique aqui para baixar este vídeo.

Vídeo 5: Exemplo de um teste típico de omissão durante o 5CSRTT. O vídeo mostra um único teste bem rastreado de um rato realizando uma omissão típica durante o 5CSRTT. O rastreamento da luz da casa (marcador vermelho), base da cauda (marcador verde) e cabeça (marcador azul) são indicados no vídeo. Observe como o rato mantém sua posição em torno do recipiente de pelotas (parede esquerda, Figura 7A) e centro de câmara, em vez de virar para enfrentar as aberturas de cutucar o nariz (parede direita, Figura 7A). O comportamento exibido e a causa da omissão podem ser argumentados para refletir o baixo interesse na realização do teste. Clique aqui para baixar este vídeo.

Vídeo 6: Exemplo de um ensaio de omissão atípico durante o 5CSRTT. O vídeo mostra um único teste bem rastreado de um rato realizando uma omissão atípica durante o 5CSRTT. O rastreamento da luz da casa (marcador vermelho), base da cauda (marcador verde) e cabeça (marcador azul) são indicados no vídeo. Observe como o rato se posiciona em direção às aberturas de cutucar o nariz ao longo da parede direita da câmara (Figura 7A). Isso pode ser argumentado para indicar que o animal está interessado em realizar o teste. No entanto, o rato fica de frente para a abertura (posição central) quando a deixa é apresentada (5 s no clipe). Em contraste com a omissão exibida no Vídeo 4,a vista aqui provavelmente está relacionada a processos de atenção visuosespacial sub-ideal. Clique aqui para baixar este vídeo.

Vídeo 7: Exemplo de um animal mantendo uma posição central focada durante um ITI do 5CSRTT. O vídeo mostra um único teste bem rastreado de um rato realizando uma resposta correta em um teste do 5CSRTT. Observe como o rato mantém uma posição central durante o ITI, mantendo sua cabeça estável nas proximidades da abertura do nariz central ao longo da parede direita das câmaras(Figura 7A). O rastreamento da luz da casa (marcador vermelho), base da cauda (marcador verde) e cabeça (marcador azul) são indicados no vídeo. Clique aqui para baixar este vídeo.

Vídeo 8: Exemplo de um animal exibindo uma estratégia de atenção semelhante à pesquisa durante um ITI do 5CSRTT. O vídeo mostra um único teste bem rastreado de um rato realizando uma resposta correta em um teste do 5CSRTT. Observe como o rato frequentemente reposiciona sua cabeça para enfrentar diferentes aberturas de cutucar o nariz ao longo da parede direita da câmara (Figura 7A). O rastreamento da luz da casa (marcador vermelho), base da cauda (marcador verde) e cabeça (marcador azul) são indicados no vídeo. Clique aqui para baixar este vídeo.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Este protocolo descreve como construir uma câmera de vídeo barata e flexível que pode ser usada para gravar vídeos de câmaras de condicionamento operantes e outras configurações de teste comportamental. Ele demonstra ainda como usar o DeepLabCut para rastrear um sinal de luz forte dentro desses vídeos, e como isso pode ser usado para ajudar na identificação de breves segmentos de vídeo de interesse em arquivos de vídeo que cobrem sessões de teste completas. Finalmente, descreve como usar o rastreamento da cabeça de um rato para complementar a análise de comportamentos durante testes de condicionamento operativo.

O protocolo apresenta uma alternativa às soluções de gravação de vídeo disponíveis comercialmente para câmaras de condicionamento operantes. Como observado, o maior benefício deles é que elas se integram com as câmaras operísticas, permitindo gravações de vídeo de eventos específicos. A abordagem para identificar segmentos de vídeo de interesse descritos neste protocolo é mais trabalhosa e demorada em comparação com o uso de um sistema totalmente integrado para registrar eventos específicos. É, no entanto, consideravelmente mais barato (uma estimativa recente de custo para equipamentos de videomonitoramento para 6 câmaras operantes foi definida para aproximadamente 13.000 USD. Em comparação, construir seis das câmeras listadas aqui custaria cerca de 720 USD). Além disso, as câmeras podem ser usadas para várias outras configurações de teste comportamental. Ao trabalhar com a câmera, é importante estar atento às áreas de eletrônica exposta (a parte traseira do componente da câmera, bem como o componente LED IR), para que eles não entrem em contato com fluidos. Além disso, o cabo de fita que liga o módulo da câmera ao microcomputador e aos cabos que conectam os LEDs e os interruptores aos pinos GPIO podem se soltar se a câmera for frequentemente movida. Assim, ajustar o design da caixa da câmera pode ser benéfico para algumas aplicações.

O uso do DeepLabCut para identificar segmentos de vídeo de interesse e rastrear movimentos de animais oferece um complemento e/ou alternativa à análise manual de vídeo. Embora o primeiro não invalide o segundo, descobrimos que ele fornece uma maneira conveniente de analisar movimentos e comportamentos dentro de câmaras operísticas. Em particular, fornece dados posicionais do animal, que contém informações mais detalhadas do que o que normalmente é extraído via pontuação manual (ou seja, coordenadas reais em comparação com informações posicionais qualitativas, como "na frente", "ao lado" etc.).

Ao selecionar um indicador de etapa de protocolo, é importante escolher um que indique consistentemente um dado passo do protocolo comportamental, e que é improvável que seja bloqueado pelo animal. Se este último for problemático, pode-se considerar colocar uma lâmpada fora da câmara operante e filmá-la através das paredes da câmara. Muitas câmaras de condicionamento operantes são modulares e permitem que os usuários movam livremente luzes, sensores e outros componentes ao redor. Deve-se notar que existem outros pacotes de software que também permitem que os usuários treinem redes neurais no reconhecimento e rastreamento de objetos definidos pelo usuário em vídeos24,,25,26. Estes provavelmente podem ser usados como alternativas ao DeepLabCut no protocolo atual.

O protocolo descreve como rastrear a parte central da cabeça de um rato, a fim de medir os movimentos dentro das câmaras operísticas. Como o DeepLabCut oferece total liberdade na seleção de partes do corpo ou objetos de interesse, isso pode ser modificado com conveniência para atender a interesses específicos do estudo. Uma extensão natural do rastreamento aqui descrito é também rastrear a posição das orelhas e nariz dos ratos, para melhor julgar não só a posição da cabeça, mas também a orientação. Os dados representativos aqui foram recodificados com ratos de Long Evans. Estes ratos apresentam considerável variação inter-individual em seu padrão de pigmentação, particularmente em direção à sua base traseira. Isso pode resultar em algumas dificuldades na aplicação de uma única rede neural treinada para o rastreamento de diferentes indivíduos. Para limitar essas questões, é melhor incluir quadros de vídeo de todos os animais de interesse no conjunto de treinamentos para a rede. A cabeça preta do rato Long Evans fornece um contraste razoavelmente forte contra as superfícies metálicas da câmara usada aqui. Assim, obter um rastreamento preciso de suas cabeças provavelmente requer menos esforço do que com cepas albinas. A etapa mais crítica de obter um rastreamento preciso com o DeepLabCut ou pacotes de software comparáveis é selecionar um bom número de quadros de vídeo diversos para o treinamento da rede neural. Como tal, se o rastreamento de um objeto de interesse for considerado sub-ideal, aumentar o conjunto de quadros de treinamento deve ser sempre o primeiro passo para melhorar os resultados.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Embora materiais e recursos da fundação Raspberry Pi tenha sido utilizados e citados neste manuscrito, a fundação não estava ativamente envolvida na preparação ou uso de equipamentos e dados neste manuscrito. O mesmo vale para a Pi-Supply. Os autores não têm nada a revelar.

Acknowledgments

Este trabalho foi apoiado por subsídios da Swedish Brain Foundation, da Fundação Sueca de Parkinson e do Fundo do Governo Sueco para Pesquisa Clínica (M.A.C.), bem como das fundações Wenner-Gren (M.A.C, E.K.H.C), fundação Åhlén (M.A.C) e da fundação Blanceflor Boncompagni Ludovisi, nascida Bildt (S.F).

Materials

Name Company Catalog Number Comments
32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

DOWNLOAD MATERIALS LIST

References

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user's manual. Coulbourn instruments. , Holliston, Massachusetts. 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer's manual. Med Associates Inc. , St. Albans, Vermont. 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat's behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user's manual. Med Associates Inc. , St. Albans, Vermont. 26-30 (2004).
  14. Coulbourn Instruments. Coulbourn Instruments. , Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020).
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. Raspberry Pi foundation. Raspberry Pi foundation. , Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020).
  19. Pi-supply. Pi-supply. , Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018).
  20. Python. Python. , Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020).
  21. MathWorks. MathWorks. , Available from: https://mathworks.com/academia/highschool/ (2020).
  22. Cran.R-Project.org. Cran.R-Project.org. , Available from: https://cran.r-project.org/manuals.html (2020).
  23. Liu, Y., Tian, C., Huang, Y. Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Tags

Comportamento Problema 160 Condicionamento Operante Cognição Gravação de Vídeo Comportamento de Roedores Raspberry Pi DeepLabCut
Rastreando ratos em câmaras de condicionamento operantes usando uma versátil câmera de vídeo caseira e deeplabcut
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Clemensson, E. K. H., Abbaszadeh,More

Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter