Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Ein Open-Source-Virtual-Reality-System zur Messung des räumlichen Lernens bei kopfgebundenen Mäusen

Published: March 3, 2023 doi: 10.3791/64863

Summary

Hier stellen wir ein vereinfachtes Open-Source-Hardware- und Software-Setup zur Untersuchung des räumlichen Lernens von Mäusen mit Hilfe von Virtual Reality (VR) vor. Dieses System zeigt einer kopfgebundenen Maus, die auf einem Rad läuft, eine virtuelle lineare Spur an, indem es ein Netzwerk von Mikrocontrollern und einen Einplatinencomputer verwendet, auf dem ein einfach zu bedienendes grafisches Python-Softwarepaket ausgeführt wird.

Abstract

Kopfgebundene Verhaltensexperimente an Mäusen ermöglichen es Neurowissenschaftlern, die Aktivität neuronaler Schaltkreise mit hochauflösenden elektrophysiologischen und optischen Bildgebungswerkzeugen zu beobachten und gleichzeitig einem sich verhaltenden Tier präzise sensorische Reize zu geben. In jüngster Zeit haben Studien an Menschen und Nagetieren mit Virtual-Reality-Umgebungen (VR) gezeigt, dass VR aufgrund der äußerst präzisen Kontrolle von Parametern wie räumlichen und kontextuellen Hinweisen ein wichtiges Werkzeug ist, um die neuronalen Mechanismen aufzudecken, die dem räumlichen Lernen im Hippocampus und im Kortex zugrunde liegen. Das Einrichten virtueller Umgebungen für das räumliche Verhalten von Nagetieren kann jedoch kostspielig sein und erfordert einen umfangreichen Hintergrund in Ingenieurwesen und Computerprogrammierung. Hier stellen wir ein einfaches, aber leistungsfähiges System vor, das auf kostengünstiger, modularer Open-Source-Hard- und Software basiert und es Forschern ermöglicht, räumliches Lernen in kopfgebundenen Mäusen mithilfe einer VR-Umgebung zu untersuchen. Dieses System verwendet gekoppelte Mikrocontroller, um die Fortbewegung zu messen und Verhaltensreize zu liefern, während kopfgebundene Mäuse auf einem Rad in Verbindung mit einer virtuellen linearen Spurumgebung laufen, die von einem grafischen Softwarepaket gerendert wird, das auf einem Einplatinencomputer läuft. Der Schwerpunkt auf verteilter Verarbeitung ermöglicht es den Forschern, flexible, modulare Systeme zu entwickeln, um komplexe räumliche Verhaltensweisen bei Mäusen zu ermitteln und zu messen, um den Zusammenhang zwischen der Aktivität neuronaler Schaltkreise und dem räumlichen Lernen im Gehirn von Säugetieren zu bestimmen.

Introduction

Räumliche Navigation ist ein ethologisch wichtiges Verhalten, bei dem Tiere die Merkmale neuer Orte in einer kognitiven Karte kodieren, die verwendet wird, um Bereiche möglicher Belohnungen zu finden und potenzielle Gefahrenbereiche zu vermeiden. Die kognitiven Prozesse, die der räumlichen Navigation zugrunde liegen, sind untrennbar mit dem Gedächtnis verbunden und teilen sich ein neuronales Substrat im Hippocampus1 und im Kortex, wo neuronale Schaltkreise in diesen Bereichen eingehende Informationen integrieren und kognitive Karten von Umgebungen und Ereignissen für den späteren Abrufbilden 2. Während die Entdeckung von Ortszellen im Hippocampus3,4 und von Gitterzellen im entorhinalen Kortex5 Aufschluss darüber gegeben hat, wie die kognitive Karte innerhalb des Hippocampus gebildet wird, bleiben viele Fragen darüber offen, wie bestimmte neuronale Subtypen, Mikroschaltkreise und einzelne Subregionen des Hippocampus (Gyrus dentatus und Cornu ammonis Areale, CA3-1) interagieren und an der Bildung und dem Abruf des räumlichen Gedächtnisses beteiligt sind.

Die In-vivo-Zwei-Photonen-Bildgebung ist ein nützliches Werkzeug zur Aufdeckung der Zell- und Populationsdynamik in der sensorischen Neurophysiologie 6,7; Die typische Notwendigkeit einer Kopfstütze schränkt jedoch den Nutzen dieser Methode zur Untersuchung des räumlichen Verhaltens von Säugetieren ein. Das Aufkommen der virtuellen Realität (VR)8 hat dieses Manko behoben, indem immersive und realistische visuell-räumliche Umgebungen präsentiert wurden, während kopfgebundene Mäuse auf einem Ball oder Laufband liefen, um die räumliche und kontextuelle Kodierung im Hippocampus 8,9,10 und im Kortex 11 zu untersuchen. Darüber hinaus hat die Verwendung von VR-Umgebungen mit sich verhaltenden Mäusen es neurowissenschaftlichen Forschern ermöglicht, die Komponenten des räumlichen Verhaltens zu analysieren, indem sie die Elemente der VR-Umgebung12 (z. B. visueller Fluss, kontextuelle Modulation) auf eine Weise präzise steuern, die in realen Experimenten des räumlichen Lernens, wie z. B. dem Morris-Wasserlabyrinth, dem Barnes-Labyrinth oder Lochbrettaufgaben, nicht möglich ist.

Visuelle VR-Umgebungen werden in der Regel auf der Graphical Processing Unit (GPU) eines Computers gerendert, die die Last der schnellen Berechnung der Tausenden von Polygonen bewältigt, die erforderlich sind, um eine sich bewegende 3D-Umgebung in Echtzeit auf einem Bildschirm zu modellieren. Die großen Verarbeitungsanforderungen erfordern im Allgemeinen die Verwendung eines separaten PCs mit einer GPU, die die visuelle Umgebung auf einem Monitor, mehreren Bildschirmen13 oder einem Projektor14 wiedergibt, während die Bewegung von einem Laufband, einem Rad oder einem Schaumstoffball unter dem Tier aufgezeichnet wird. Die daraus resultierende Vorrichtung zur Steuerung, zum Rendern und zur Projektion der VR-Umgebung ist daher relativ teuer, sperrig und umständlich. Darüber hinaus wurden viele solcher Umgebungen in der Literatur mit proprietärer Software implementiert, die sowohl kostspielig ist als auch nur auf einem dedizierten PC ausgeführt werden kann.

Aus diesen Gründen haben wir ein Open-Source-VR-System entwickelt, um das räumliche Lernverhalten von kopfgebundenen Mäusen mit einem Raspberry Pi-Einplatinencomputer zu untersuchen. Dieser Linux-Computer ist sowohl klein als auch kostengünstig und enthält dennoch einen GPU-Chip für 3D-Rendering, der die Integration von VR-Umgebungen mit dem Display oder dem Verhaltensapparat in verschiedenen individuellen Setups ermöglicht. Darüber hinaus haben wir ein in Python geschriebenes grafisches Softwarepaket, "HallPassVR", entwickelt, das den Einplatinencomputer nutzt, um eine einfache visuell-räumliche Umgebung, eine virtuelle lineare Strecke oder einen Flur, zu rendern, indem benutzerdefinierte visuelle Merkmale, die über eine grafische Benutzeroberfläche (GUI) ausgewählt wurden, neu kombiniert werden. Dies wird mit Mikrocontroller-Subsystemen (z. B. ESP32 oder Arduino) kombiniert, um die Fortbewegung zu messen und das Verhalten zu koordinieren, z. B. durch die Abgabe anderer Modalitäten von Sinnesreizen oder Belohnungen, um das Reinforcement Learning zu erleichtern. Dieses System bietet eine kostengünstige, flexible und einfach zu bedienende alternative Methode zur Bereitstellung visuell-räumlicher VR-Umgebungen für kopfgebundene Mäuse während der Zwei-Photonen-Bildgebung (oder anderer Techniken, die eine Kopffixierung erfordern), um die neuronalen Schaltkreise zu untersuchen, die dem räumlichen Lernverhalten zugrunde liegen.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle Verfahren in diesem Protokoll wurden vom Institutional Animal Care and Use Committee des New York State Psychiatric Institute genehmigt.

HINWEIS: Ein Einplatinencomputer wird verwendet, um eine visuelle VR-Umgebung anzuzeigen, die mit dem Ausführen einer kopfgebundenen Maus auf einem Rad koordiniert ist. Bewegungsinformationen werden als serieller Eingang von einem ESP32-Mikrocontroller empfangen, der einen mit der Radachse gekoppelten Drehgeber liest. Die VR-Umgebung wird mit OpenGL-Hardwarebeschleunigung auf der Raspberry Pi-GPU gerendert, die das pi3d-Python-3D-Paket für Raspberry Pi verwendet. Die gerenderte Umgebung wird dann über einen Projektor auf eine kompakte, umlaufende Parabolleinwand ausgegeben, die auf das Gesichtsfeld der kopfgebundenen Maus15,16 zentriert ist, während das Verhalten (z. B. Lecken als Reaktion auf räumliche Belohnungen) von einem ESP32-Mikrocontroller mit zweitem Verhalten gemessen wird. Das grafische Softwarepaket ermöglicht die Erstellung virtueller linearer Gleisumgebungen, die aus sich wiederholenden Mustern visueller Reize entlang eines virtuellen Korridors oder Flurs mit einer grafischen Benutzeroberfläche (GUI) bestehen. Dieses Design lässt sich leicht parametrisieren und ermöglicht so die Erstellung komplexer Experimente, die darauf abzielen, zu verstehen, wie das Gehirn Orte und visuelle Hinweise während des räumlichen Lernens kodiert (siehe Abschnitt 4). Entwürfe für die benutzerdefinierten Hardwarekomponenten, die für dieses System erforderlich sind (d. h. das Laufrad, die Projektionsleinwand und die Kopfstütze), werden in einem öffentlichen GitHub-Repository (https://github.com/GergelyTuri/HallPassVR) abgelegt. Es wird empfohlen, die Dokumentation dieses Repositorys zusammen mit diesem Protokoll zu lesen, da die Site mit zukünftigen Verbesserungen des Systems aktualisiert wird.

1. Hardware-Setup: Aufbau des Laufrads, der Projektionsfläche und der Kopffixierungsvorrichtung

HINWEIS: Die kundenspezifischen Komponenten für diese Setups können leicht hergestellt werden, wenn der Benutzer Zugang zu 3D-Druck- und Laserschneidgeräten hat oder an professionelle Fertigungs- oder 3D-Prototyping-Dienste (z. B. eMachinehop) ausgelagert werden kann. Alle Designdateien werden als bereitgestellt. STL-3D-Dateien oder . DXF-AutoCAD-Dateien.

  1. Laufrad und Verhaltensaufbau (Abbildung 1)
    HINWEIS: Das Rad besteht aus einem durchsichtigen Acrylzylinder (6 Zoll Durchmesser, 3 Zoll Breite, 1/8 Zoll Dicke), der auf einer Achse zentriert ist, die über Kugellager an lasergeschnittenen Acrylhalterungen aufgehängt ist. Die Radbaugruppe wird dann auf einem leichten Aluminiumrahmen (T-Nut) montiert und sicher an einem optischen Steckbrett befestigt (Abbildung 1C-E).
    1. Laserschneiden Sie die Seiten der Rad- und Achshalterungen aus einer 1/4 Acrylplatte und befestigen Sie die Radseiten mit Acrylzement am Acrylzylinder. Schrauben Sie den Achsflansch in die Mitte des Radseitenteils.
    2. Setzen Sie die Achse in den Radnabenflansch ein, schnappen Sie die Kugellager in die Achshalterungen ein und befestigen Sie sie an der vertikalen Aluminium-Stützstange.
    3. Setzen Sie die Radachse in die montierten Kugellager ein und lassen Sie 0,5-1 Zoll der Achse hinter den Lagern für die Befestigung des Drehgebers.
    4. Befestigen Sie die Drehgeberhalterung am Ende der Achse gegenüber dem Rad und setzen Sie den Drehgeber ein. Verwenden Sie dann die Wellenkupplung, um die Radachse mit der Drehgeberwelle zu koppeln.
    5. Befestigen Sie die Lecköffnung am Flexarm und befestigen Sie sie dann mit Nutensteinen am Aluminiumradrahmen. Verwenden Sie einen 1/16-Zoll-Schlauch, um den Leckanschluss mit dem Magnetventil und das Ventil mit dem Wasserbehälter zu verbinden.
      HINWEIS: Der Leckanschluss muss aus Metall bestehen und mit einem Draht verlötet sein, um ihn an den kapazitiven Berührungssensorstiften des Verhaltens ESP32 zu befestigen.
  2. Projektionswand
    HINWEIS: Bei der VR-Leinwand handelt es sich um eine kleine parabolische Rückprojektionsleinwand (Leinwandgröße: 54 cm x 21,5 cm), die auf einem im Labor von Christopher Harvey entwickelten Designbasiert 15,16. Der Projektionswinkel (Keystone) des verwendeten LED-Projektors unterscheidet sich von dem des zuvor verwendeten Laserprojektors. Daher wird das ursprüngliche Design leicht modifiziert, indem das Gerät unter dem Bildschirm montiert und das Spiegelsystem vereinfacht wird (Abbildung 1A, B). Es wird dringend empfohlen, die Dokumentation des Harvey-Labors zusammen mit unserer zu lesen, um die VR-Umgebung an die Bedürfnisse des Benutzers anzupassen15.
    1. Laserschneiden Sie die Seiten der Projektionsleinwand aus 1/4 in schwarze, matte Acrylplatten. Laserschneiden Sie den Rückprojektionsspiegel aus 1/4 aus verspiegeltem Acryl.
    2. Montieren Sie den Rahmen der Projektionswand mit den Aluminiumstangen und schneiden Sie die Acrylplatten laserzu.
    3. Setzen Sie das transluzente Leinwandmaterial in den Parabolschlitz im Rahmen ein. Setzen Sie den Rückprojektionsspiegel in den Schlitz auf der Rückseite des Leinwandrahmens ein.
    4. Platzieren Sie einen LED-Projektor auf der unteren Montageplatte im Rahmen der Projektionsleinwand. Richten Sie den Projektor mit Befestigungsschrauben aus, um die Positionierung des projizierten Bildes auf der parabolischen Rückprojektionsleinwand zu optimieren.
    5. Versiegeln Sie ggf. die Projektorbox, um eine Lichtkontamination der optischen Sensoren zu verhindern.
  3. Kopfstützen-Apparat
    HINWEIS: Diese Kopfstützenvorrichtung besteht aus zwei ineinandergreifenden 3D-gedruckten Verteilern zur Befestigung eines Kopfpfostens aus Metall (Abbildung 1E, F).
    1. Mit einem hochauflösenden SLM-3D-Drucker können Sie die Haltearme der Kopfpfosten in 3D drucken.
      HINWEIS: Harzbedruckter Kunststoff ist in der Lage, eine stabile Kopffixierung für Verhaltensexperimente zu gewährleisten. Um jedoch maximale Stabilität für empfindliche Anwendungen wie Einzelzellaufzeichnung oder Zwei-Photonen-Bildgebung zu erreichen, wird empfohlen, bearbeitete Metallteile (z. B. eMachineShop) zu verwenden.
    2. Installieren Sie den 3D-gedruckten Kopfpfostenhalter auf einem zweiachsigen Goniometer mit optischen Befestigungspfosten, damit der Kopf des Tieres geneigt werden kann, um das Präparat auszurichten.
      HINWEIS: Diese Funktion ist für langfristige In-vivo-Bildgebungsexperimente unerlässlich, wenn der Nachweis derselben Zellpopulation in nachfolgenden Bildgebungssitzungen erforderlich ist. Andernfalls kann diese Funktion weggelassen werden, um die Kosten für die Einrichtung zu reduzieren.
    3. Stellen Sie die Kopfpfosten her.
      HINWEIS: Zwei Arten von Kopfstützen mit unterschiedlicher Komplexität (und unterschiedlichem Preis) sind zusammen mit dieser Anleitung unter dem Link in der Materialtabelle hinterlegt.
      1. Entscheiden Sie je nach Art des Experiments, welche Kopfstütze implementiert werden soll. Die Kopfstangen sind aus Edelstahl gefertigt und werden in der Regel an eine lokale Maschinenwerkstatt oder einen Online-Dienst (z. B. eMachineShop) zur Herstellung ausgelagert.

2. Aufbau der Elektronik-Hardware/-Software (Einplatinencomputer, ESP32-Mikrocontroller, Abbildung 2)

  1. Konfigurieren Sie den Einplatinencomputer.
    HINWEIS: Der in der Materialtabelle enthaltene Einplatinencomputer (Raspberry Pi 4B) ist optimal für dieses Setup, da er über eine integrierte GPU verfügt, um das Rendern von VR-Umgebungen zu erleichtern, und zwei HDMI-Anschlüsse für die Steuerung/Überwachung von Experimenten und die VR-Projektion. Andere Einplatinencomputer mit diesen Eigenschaften können möglicherweise ersetzt werden, aber einige der folgenden Anweisungen können spezifisch für Raspberry Pi sein.
    1. Laden Sie die Einplatinencomputer-Imager-Anwendung auf den PC herunter und installieren Sie das Betriebssystem (derzeit Raspberry Pi OS r.2021-05-07) auf der microSD-Karte (16+ GB). Legen Sie die Karte ein und starten Sie den Einplatinencomputer.
    2. Konfigurieren Sie den Einplatinencomputer für die pi3d Python 3D-Bibliothek: (Menüleiste) Einstellungen > Raspberry Pi-Konfiguration.
      1. Klicken Sie auf Anzeige > Bildschirmausblendung > Deaktivieren.
      2. Klicken Sie auf Schnittstellen > serielle Schnittstelle > aktivieren.
      3. Klicken Sie auf Leistung > GPU-Speicher > 256 (MB).
    3. Aktualisieren Sie das Python-Image-Bibliothekspaket für pi3d: (Terminal)> sudo pip3 install pillow --upgrade.
    4. Installieren Sie das pi3d Python 3D-Paket für den Einplatinencomputer: (Terminal)> sudo pip3 install pi3d.
    5. Erhöhen Sie den HDMI-Ausgangspegel für den Projektor: (Terminal)> sudo nano /boot/config.txt, Auskommentieren config_hdmi_boost=4, Speichern und Neustarten.
    6. Laden Sie die integrierte Entwicklungsumgebung (IDE) von arduino.cc/en/software herunter und installieren Sie sie (z. B. arduino-1.8.19-linuxarm.tar.gz), die benötigt wird, um den Code auf den Drehgeber und die ESP32-Mikrocontroller zu laden.
    7. Installieren Sie die ESP32-Mikrocontroller-Unterstützung auf der IDE:
      1. Klicken Sie auf Datei > Einstellungen > Zusätzliche Board-Manager-URLs = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Klicken Sie auf Tools > Boards > Boards Manager > ESP32 (von Espressif). Installieren Sie v.2.0.0 (der Upload schlägt derzeit auf v2.0.4 fehl).
    8. Laden Sie die Processing IDE von https://github.com/processing/processing4/releases herunter und installieren Sie sie (z. B. processing-4.0.1-linux-arm32.tgz), die für die Aufzeichnung und Online-Darstellung des Mausverhaltens während VR erforderlich ist.
      HINWEIS: Die Arduino- und Processing-Umgebungen können auf Wunsch auf einem separaten PC vom VR-Einplatinencomputer ausgeführt werden.
  2. Richten Sie die Anschlüsse des Drehgebers ESP32 ein.
    HINWEIS: Der mit der Radachse gekoppelte Drehgeber misst die Raddrehung mit Mausfortbewegung, die mit einem ESP32-Mikrocontroller gezählt wird. Die Positionsänderungen werden dann an die serielle GPIO-Schnittstelle des Einplatinencomputers gesendet, um die Bewegung durch die virtuelle Umgebung mithilfe des grafischen Softwarepakets zu steuern, sowie an das Verhalten ESP32, um die Belohnungszonen zu steuern (Abbildung 2).
    1. Verbinden Sie die Drähte zwischen der Drehgeberkomponente und dem Drehgeber ESP32. Drehgeber haben in der Regel vier Drähte: +, GND, A und B (zwei digitale Leitungen für Quadratur-Encoder). Verbinden Sie diese über Überbrückungsdrähte mit ESP32 3,3 V, GND, 25, 26 (im Falle des beigefügten Codes).
    2. Verbinden Sie die seriellen RX/TX-Drähte zwischen dem rotierenden ESP32 und dem Verhaltens-ESP32. Stellen Sie eine einfache Zweidrahtverbindung zwischen dem rotierenden ESP32 Serial0 RX/TX (Empfangen/Senden) und dem Serial2-Port des Verhaltens ESP32 (TX/RX, Pins 17, 16; siehe Serial2-Port rechts neben OMwSmall PCB) her. Dadurch werden Bewegungsinformationen vom Drehgeber an die Verhaltenseinstellungen für räumliche Zonen, wie z. B. Belohnungszonen, übertragen.
    3. Verbinden Sie die seriellen RX/TX-Drähte zwischen dem rotierenden ESP32 und dem GPIO des Einplatinencomputers (oder einer direkten USB-Verbindung). Stellen Sie eine Zweidrahtverbindung zwischen den GPIO-Pins 14, 15 (RX/TX) des Einplatinencomputers und dem rotierenden ESP32 Serial2 (TX/RX, Pins 17, 16) her. Dadurch werden Bewegungsinformationen vom Drehgeber in das grafische Softwarepaket übertragen, das auf dem Einplatinencomputer läuft.
      HINWEIS: Dieser Schritt ist nur notwendig, wenn der rotierende ESP32 nicht über einen USB-Anschluss angeschlossen ist (d.h. es handelt sich um eine serielle GPIO-Verbindung unter "/dev/ttyS0"), aber der HallPassVR_wired.py-Code muss ansonsten geändert werden, um "/dev/ttyUSB0" zu verwenden. Diese festverdrahtete Verbindung wird in zukünftigen Versionen durch eine drahtlose Bluetooth-Verbindung ersetzt.
    4. Stecken Sie den rotierenden ESP32-USB-Stick in den USB-Anschluss des Einplatinencomputers (oder einen anderen PC, auf dem die IDE ausgeführt wird), um den anfänglichen Drehgebercode hochzuladen.
  3. Richten Sie die ESP32-Verbindungen mit der Verhaltenshardware ein (über OpenMaze PCB).
    HINWEIS: Der ESP32-Mikrocontroller steuert alle Nicht-VR-Tierinteraktionen (Bereitstellung von Nicht-VR-Stimuli und -Belohnungen, Erkennen von Mauslecken), die über ein allgemeines PCB-"Breakout-Board" für den ESP32 "OMwSmall" verbunden sind, dessen Designs über die OpenMaze-Website (www.openmaze.org) erhältlich sind. Die Leiterplatte enthält die elektronischen Komponenten, die für den Antrieb der elektromechanischen Komponenten erforderlich sind, wie z. B. die Magnetventile, die zur Abgabe von Flüssigkeitsbelohnungen verwendet werden.
    1. Schließen Sie das 12-V-Flüssigkeitsmagnetventil an den IC-Ausgang ULN2803 ganz links auf der OMwSmall-Platine an (Pin 12 im Beispielaufbau und -code). Dieser IC versorgt das Belohnungsmagnetventil mit 12 V, das über einen GPIO-Ausgang des ESP32-Mikrocontrollers gesteuert wird.
    2. Verbinden Sie den Lick-Port mit dem ESP32-Touch-Eingang (z. B. T0, GPIO4 im Beispielcode). Der ESP32 verfügt über eine integrierte kapazitive Berührungserkennung an bestimmten Pins, die der ESP32-Code verwendet, um das Lecken des angeschlossenen Metallleckanschlusses durch die Maus während des VR-Verhaltens zu erkennen.
    3. Verbinden Sie die seriellen RX/TX-Drähte zwischen dem Verhalten ESP32 Serial2 (Pins 16, 17) und dem Drehgeber ESP32 Serial0 (siehe Schritt 2.2.2).
    4. Stecken Sie den USB-Stick in den USB-Anschluss des Einplatinencomputers (oder eines anderen PCs), um neue Programme für verschiedene experimentelle Paradigmen (z. B. Anzahl/Lage von Belohnungszonen) in den Verhaltens-ESP32 hochzuladen und Verhaltensdaten mit dem mitgelieferten Processing-Sketch zu erfassen.
    5. Stecken Sie den 12-V-DC-Wandadapter in den 2,1-mm-Hohlstecker der ESP32 OMwSmall-Platine, um das Belohnungsmagnetventil mit Strom zu versorgen.
    6. Schließen Sie den HDMI #2-Ausgang des Einplatinencomputers an den HDMI-Anschluss des Projektors an. Dadurch wird die VR-Umgebung, die von der Einplatinencomputer-GPU gerendert wird, auf die Projektionsfläche übertragen.
    7. (optional) Verbinden Sie den Synchronisationsdraht (Pin 26) mit einem neuronalen Bildgebungs- oder elektrophysiologischen Aufzeichnungsaufbau. Alle 5 s wird ein 3,3-V-Transistor-Transistor-Logik-Signal (TTL) gesendet, um die Systeme mit einer Genauigkeit von nahezu einer Millisekunde auszurichten.
  4. Einrichten der Software: Laden Sie die Firmware/Software auf den Drehgeber ESP32 (Abbildung 2B) und verhalten Sie den ESP32 (Abbildung 2E) mithilfe der IDE und laden Sie die VR-Python-Software auf den Einplatinencomputer herunter. Siehe https://github.com/GergelyTuri/HallPassVR/software.
    1. Stecken Sie zuerst den Drehgeber ESP32 in den USB-Port des Einplatinencomputers - dieser wird vom Betriebssystem automatisch "/dev/ttyUSB0 " genannt.
    2. Laden Sie den Drehgebercode: Öffnen Sie die Datei RotaryEncoder_Esp32_VR.ino in der IDE, und wählen Sie dann den ESP32 unter Tools > Boards > ESP32 Dev Module aus. Wählen Sie den ESP32-Port aus, indem Sie auf Extras > Port > /dev/ttyUSB0 klicken und dann auf Hochladen klicken.
    3. Stecken Sie als nächstes das Verhalten ESP32 in den USB-Anschluss des Einplatinencomputers - dieser wird vom Betriebssystem "/dev/ttyUSB1" genannt.
    4. Laden Sie den Verhaltenssequenzcode auf das Verhalten ESP32 (IDE, ESP32 Dev Module bereits ausgewählt), klicken Sie dann auf Tools > Port > /dev/ttyUSB1 und klicken Sie auf Upload: wheel_VR_behavior.ino.
    5. Testen Sie die seriellen Verbindungen, indem Sie die serielle Schnittstelle für jeden ESP32 in der IDE auswählen (Tools > Port > /dev/ttyUSB0 oder /dev/ttyUSB1) und dann auf Tools > Serial Monitor (Baudrate: 115.200) klicken, um den seriellen Ausgang der Drehplatine (USB0) oder der Verhaltenskarte (USB1) zu beobachten. Drehen Sie das Rad, um eine unformatierte Bewegungsausgabe vom rotierenden ESP32 auf USB0 oder eine formatierte Bewegungsausgabe vom Verhalten ESP32 auf USB1 zu sehen.
    6. Laden Sie das grafische Softwarepaket Python-Code von https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR herunter (nach /home/pi/Documents). Dieser Ordner enthält alle Dateien, die zum Ausführen des grafischen Softwarepakets erforderlich sind, wenn das pi3d-Python3-Paket zuvor korrekt installiert wurde (Schritt 2.1).

3. Ausführen und Testen des grafischen Softwarepakets

HINWEIS: Führen Sie die grafische Softwarepaket-GUI aus, um eine lineare VR-Spurumgebung zu initiieren, kalibrieren Sie die Abstände im ESP32-Code der VR-Software und des Verhaltens und testen Sie die Erfassung und Online-Darstellung des Lauf- und Leckverhaltens der Maus mit der mitgelieferten Verarbeitungssprachenskizze.

  1. Öffnen Sie das Terminalfenster im Einplatinencomputer und navigieren Sie zum Ordner HallPassVR (terminal:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)
  2. Führen Sie die VR-GUI aus: (Terminal)> python3 HallPassVR_GUI.py (das GUI-Fenster wird geöffnet, Abbildung 3A).
  3. Grafische Software-GUI
    1. Wählen Sie vier Elemente (Bilder) aus dem Listenfeld aus und fügen Sie sie hinzu (oder wählen Sie das vorgespeicherte Muster unten aus und klicken Sie dann auf Hochladen) für jedes der drei Muster entlang der Spur und klicken Sie dann auf Generieren.
      HINWEIS: Neue Bilddateien (.jpeg) können im Ordner HallPassVR/HallPassVR_wired/images/ELEMENTS abgelegt werden, bevor die GUI ausgeführt wird.
    2. Wählen Sie Boden- und Deckenbilder aus den Dropdown-Menüs aus, und legen Sie die Länge der Spur für diesen Beispielcode auf 2 m fest (sie muss der trackLength in Millimetern [mm] im Verhalten ESP32-Code und Verarbeitungscode entsprechen).
    3. Benennen Sie dieses Muster, falls gewünscht (es wird in HallPassVR_wired/images/PATH_HIST gespeichert).
    4. Klicken Sie auf die Schaltfläche Start (warten Sie, bis das VR-Fenster beginnt, bevor Sie an eine andere Stelle klicken). Die VR-Umgebung wird auf Bildschirm #2 (Projektionsleinwand, Abbildung 3B, C) angezeigt.
  4. Führen Sie die Verarbeitungsskizze aus, um die Verhaltensdaten/Bewegungen zu erfassen und darzustellen.
    1. Öffnen Sie VRwheel_RecGraphSerialTxt.pde in der Verarbeitungs-IDE.
    2. Ändern Sie das Tier = "yourMouseNumber"; und legen Sie sessionMinutes auf die Länge der Verhaltenssitzung in Minuten fest.
    3. Klicken Sie auf die Schaltfläche Ausführen in der Verarbeitungs-IDE.
    4. Überprüfen Sie das Fenster Verarbeitungsdiagramm, das die aktuelle Mausposition auf der virtuellen linearen Spur anzeigen sollte, während sich das Rad dreht, zusammen mit den Belohnungszonen und laufenden Histogrammen der Licks, Runden und Belohnungen, die alle 30 Sekunden aktualisiert werden (Abbildung 3D). Schieben Sie das Laufrad von Hand vor, um den Mausbetrieb zu Testzwecken zu simulieren, oder verwenden Sie eine Testmaus für die Ersteinrichtung.
    5. Klicken Sie auf das Plotfenster und drücken Sie die q-Taste auf der Tastatur, um die Erfassung von Verhaltensdaten zu beenden. Eine Textdatei mit den Verhaltensereignissen und -zeiten (in der Regel <2 MB Größe pro Sitzung) und ein Bild des endgültigen Plotfensters (.png) wird gespeichert, wenn sessionMinutes verstrichen ist oder der Benutzer die q-Taste drückt, um ihn zu beenden.
      HINWEIS: Aufgrund der geringen Größe der Ausgabedateien .txt wird geschätzt, dass mindestens mehrere tausend Verhaltensaufzeichnungen auf der SD-Karte des Einplatinencomputers gespeichert werden können. Datendateien können zur späteren Analyse auf einem USB-Stick gespeichert werden, oder wenn sie mit einem lokalen Netzwerk verbunden sind, können die Daten aus der Ferne verwaltet werden.
  5. Kalibrieren Sie die Länge der Verhaltensspur mit der Länge der VR-Spur.
    1. Schieben Sie das Rad von Hand vor, während Sie den VR-Korridor und die Mausposition (im Verarbeitungsdiagramm) beobachten. Wenn der VR-Korridor endet, vor/nachdem die Maus das Ende des Verhaltensdiagramms erreicht hat, erhöhen/verringern Sie die VR-Spurlänge schrittweise (HallPassVR_wired.py, corridor_length_default in Zentimetern [cm]), bis die Spur in den beiden Systemen gleichzeitig zurückgesetzt wird.
      HINWEIS: Der Code wird derzeit für ein Laufrad mit einem Durchmesser von 6 Zoll mit einem Quadratur-Drehgeber mit 256 Positionen kalibriert, sodass der Benutzer möglicherweise den VR- (HallPassVR_wired.py, corridor_length_default, in Zentimetern [cm]) und den Verhaltenscode (wheel_VR_behavior.ino, trackLength, in Millimeter [mm]) ändern muss, um andere Konfigurationen zu berücksichtigen. Die Verhaltensposition wird jedoch in jeder VR-Runde zurückgesetzt, um die Korrespondenz zwischen den Systemen aufrechtzuerhalten.

4. Maustraining und räumliches Lernverhalten

HINWEIS: Die Mäuse werden zur Kopffixierung implantiert, an die Kopfstütze gewöhnt und dann darauf trainiert, auf dem Rad zu laufen und nach und nach flüssigen Belohnungen zu lecken ("zufällige Nahrungssuche"). Mäuse, die gleichmäßig laufen und lecken, werden dann mithilfe der VR-Umgebung auf eine räumliche versteckte Belohnungsaufgabe trainiert, in der eine einzelne Belohnungszone nach einem visuellen Hinweis auf der virtuellen linearen Spur dargestellt wird. Das räumliche Lernen wird dann als erhöhte Leckselektivität für Positionen unmittelbar vor der Belohnungszone gemessen.

  1. Kopfchirurgie nach der Implantation: Dieses Verfahren wird an anderer Stelle in dieser Zeitschrift und in anderen ausführlich beschrieben, daher beziehen Sie sich auf diese Literatur für spezifische Anweisungen 7,17,18,19,20,21.
  2. Wasser-Fahrplan
    1. Führen Sie 24 Stunden vor der ersten Handhabung eine Wasserbeschränkung durch (siehe unten) und erlauben Sie nach jeder Sitzung der Gewöhnung oder des kopfgebundenen Verhaltens einen ad-libitum-Wasserkonsum . Verringern Sie die Zeit der Wasserverfügbarkeit über drei Tage während der Gewöhnung schrittweise auf etwa 5 Minuten und passen Sie die Menge für einzelne Mäuse so an, dass ihr Körpergewicht nicht unter 80 % ihres Gewichts vor der Beschränkung fällt. Überwachen Sie täglich das Gewicht jedes Tieres und beobachten Sie auch den Zustand jeder Maus auf Anzeichen von Dehydrierung22. Mäuse, die nicht in der Lage sind, 80 % ihres Körpergewichts vor der Beschränkung zu halten oder dehydriert zu sein scheinen, sollten aus der Studie entfernt werden und kostenloses Wasser zur Verfügung stellen.
      HINWEIS: Eine Wasserbeschränkung ist notwendig, um die Mäuse zu motivieren, mit flüssigen Belohnungen auf dem Rad zu laufen, sowie um räumliches Lecken als Hinweis auf gelernte Orte entlang der Strecke zu verwenden. Die institutionellen Richtlinien können in Bezug auf spezifische Anweisungen für dieses Verfahren unterschiedlich sein, so dass der Benutzer seine jeweiligen institutionellen Tierpflegeausschüsse konsultieren muss, um die Gesundheit und das Wohlergehen der Tiere während der Wasserbeschränkung zu gewährleisten.
  3. Handhabung: Behandeln Sie die implantierten Mäuse täglich, um sie an den menschlichen Kontakt zu gewöhnen, danach kann begrenztes Ad-libitum-Wasser als Verstärkung verabreicht werden (1-5 Minuten/Tag, 2 Tage bis 1 Woche).
  4. Gewöhnung an die Kopfstütze
    1. Gewöhnen Sie die Mäuse für längere Zeit an die Kopfstütze, indem Sie sie in den Kopfstützenapparat einsetzen und sie mit gelegentlichen Wassertropfen belohnen, um den Stress der Kopffixierung zu verringern.
    2. Beginnen Sie mit 5 Minuten Kopffixierung und erhöhen Sie die Dauer täglich in Schritten von 5 Minuten, bis die Mäuse in der Lage sind, die Fixierung bis zu 30 Minuten lang zu tolerieren. Entfernen Sie die Mäuse aus dem Fixierapparat, wenn sie sich abzumühen scheinen oder sich nur sehr wenig bewegen. Mäuse fangen jedoch in der Regel innerhalb mehrerer Sitzungen spontan an, auf dem Rad zu laufen, was bedeutet, dass sie für die nächste Trainingsstufe bereit sind.
      HINWEIS: Mäuse, die wiederholt unter Kopfstütze kämpfen oder nicht rennen und lecken, um Belohnungen zu erhalten, sollten in frühere Trainingsstadien zurückgeführt und aus der Studie entfernt werden, wenn sie in drei solchen Abhilfezyklen keine Fortschritte machen (siehe Tabelle 1).
  5. Lauf-/Lecktraining (zufällige Nahrungssuche)
    HINWEIS: Um die räumliche Lernaufgabe in der VR-Umgebung ausführen zu können, müssen die Mäuse zunächst lernen, auf dem Rad zu laufen und konsequent zu lecken, um gelegentliche Belohnungen zu erhalten. Der Verlauf der operanten Verhaltensparameter wird über den Verhaltens-Mikrocontroller ESP32 gesteuert.
    1. Zufällige Nahrungssuche mit nicht-operanten Belohnungen
      1. Führen Sie das grafische Software-GUI-Programm mit einem Pfad beliebiger visueller Elemente aus (Benutzerauswahl, siehe Schritt 3.3).
      2. Laden Sie das Verhaltensprogramm mit mehreren nicht-operanten Belohnungen (Codevariablen: isOperant=0, numRew=4, isRandRew=1) in den Verhaltens-ESP32 hoch, um die Mäuse zum Laufen und Lecken zu konditionieren. Lassen Sie die Mäuse in 20-30-minütigen Sitzungen laufen, bis die Mäuse mindestens 20 Runden pro Sitzung laufen, und lecken Sie nach Belohnungen, die an zufälligen Orten präsentiert werden (ein bis vier Sitzungen).
    2. Zufällige Nahrungssuche mit operanten Belohnungen in abwechselnden Runden
      1. Laden Sie das Verhaltensprogramm mit altOpt=1 hoch (abwechselnd operante/nicht-operante Runden) und trainieren Sie die Mäuse, bis sie sowohl nach nicht-operanten als auch nach operanten Belohnungszonen lecken (ein bis vier Sitzungen).
    3. Voll operante zufällige Nahrungssuche
      1. Laden Sie das Verhaltensprogramm mit vier operanten zufälligen Belohnungszonen hoch (ESP32-Codevariablen: isOperant=1, numRew=4, isRandRew=1). Am Ende dieses Trainingsschritts sollten die Mäuse konstant laufen und Testlecks über die gesamte Streckenlänge (ein bis vier Sitzungen; Abbildung 4A).
  6. Räumliches Lernen
    HINWEIS: Führen Sie ein räumliches Lernexperiment mit einer einzelnen versteckten Belohnungszone in einiger Entfernung von einem einzelnen visuellen Hinweis durch, indem Sie einen 2 m langen Flur mit dunklen Paneelen entlang der Strecke und einem einzelnen kontrastreichen visuellen Reizpanel in der Mitte als visuellen Hinweis auswählen (0,9-1,1 m Position), analog zu neueren Experimenten mit räumlichen olfaktorischen Hinweisen20 . Die Mäuse müssen an einer Belohnungszone (in einer Position von 1,5 bis 1,8 m) lecken, die sich in der virtuellen linearen Spurumgebung in einiger Entfernung vom visuellen Hinweis befindet.
    1. Führen Sie das grafische Softwareprogramm mit einem Pfad eines dunklen Flurs mit einem einzelnen visuellen Hinweis in der Mitte aus (z. B. Schachbrett, siehe Schritt 3.3, Abbildung 3A).
    2. Laden Sie das Verhaltensprogramm mit einer einzelnen versteckten Belohnungszone in das Verhalten ESP32 hoch (Verhaltens-ESP32-Codevariablen: isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500}).
    3. Setzen Sie die Maus vorsichtig in die Kopffixierungsvorrichtung ein, stellen Sie den Leckauslauf auf eine Stelle direkt vor dem Maul der Maus ein und positionieren Sie das Mausrad in der Mitte der Projektionsfläche. Stellen Sie sicher, dass der Kopf der Maus nach den letzten Einstellungen ~12-15 cm vom Bildschirm entfernt ist.
    4. Legen Sie den Namen des Tieres in der Verarbeitungsskizze fest und drücken Sie dann in der Verarbeitungs-IDE auf Ausführen, um mit der Erfassung und Darstellung der Verhaltensdaten zu beginnen (siehe Schritt 3.4).
    5. Führen Sie die Maus für 30-minütige Sitzungen mit einer einzigen versteckten Belohnungszone und einem einzigen visuellen Hinweis auf den VR-Flur.
    6. Offline: Laden Sie die .txt Datendatei aus dem Ordner Processing sketch herunter und analysieren Sie das räumliche Leckverhalten (z. B. in Matlab mit den enthaltenen Dateien procVRbehav.m und vrLickByLap.m).
      HINWEIS: Die Mäuse sollten zunächst Testlecks über die gesamte virtuelle Strecke durchführen ("zufällige Nahrungssuche") und dann erst in der Nähe des Belohnungsortes selektiv nach dem visuellen VR-Hinweis zu lecken beginnen (Abbildung 4).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Dieses Open-Source-Virtual-Reality-Verhaltens-Setup ermöglichte es uns, das Leckverhalten als Auslesen des räumlichen Lernens zu quantifizieren, während kopfgebundene Mäuse durch eine virtuelle lineare Spurumgebung navigierten. Sieben C57BL/6-Mäuse beiderlei Geschlechts im Alter von 4 Monaten wurden auf einen eingeschränkten Wasserplan gesetzt und zunächst darauf trainiert, kontinuierlich auf niedrigem Niveau zu lecken, während sie auf dem Rad liefen, um zufällige räumliche Belohnungen zu erhalten ("zufällige Nahrungssuche") ohne VR. Obwohl ihre Leistung zunächst beeinträchtigt wurde, wenn sie mit einem zufälligen 2-m-Flurmuster auf die VR-Projektionsleinwand verschoben wurde, kehrte sie innerhalb mehrerer VR-Sitzungen auf das vorherige Niveau zurück (Abbildung 4A). Die Mäuse, die die zufällige Futtersuchstrategie mit VR entwickelten (sechs der sieben Mäuse, 86 %; eine Maus lief nicht konstant und wurde ausgeschlossen), mussten dann nach einem einzigen visuellen Positionshinweis in der Mitte einer ansonsten strukturlosen 2 m langen virtuellen Spur an einer nicht beachteten operanten Belohnungszone in 0,5 m Entfernung lecken, um Wasserbelohnungen zu erhalten ("versteckte Belohnungsaufgabe"). Nach den aktuellen Pilotdaten mit diesem System waren vier der sieben (57 %) Mäuse in der Lage, die versteckte Belohnungsaufgabe mit einem einzigen visuellen Hinweis in zwei bis vier Sitzungen zu erlernen, was durch Lecken in der Nähe der Belohnungszone mit zunehmender Selektivität gezeigt wurde (Tabelle 1, Abbildung 4B, C), was unseren früheren Ergebnissen mit einem Nicht-VR-Laufband ähnelt17 . Diese Tatsache ist wichtig für die Untersuchung des räumlichen Lernens, da sie die Überwachung und/oder Manipulation der neuronalen Aktivität während kritischer Lernphasen ohne umfangreiches Training ermöglicht. Darüber hinaus zeigten die Mäuse sowohl innerhalb der Sitzung als auch zwischen den Sitzungen ein substanzielles Lernen (Abbildung 4C), was die Möglichkeit bot, sowohl die kurz- als auch die langfristigen Anpassungen der neuronalen Schaltkreise zu beobachten, die mit dem räumlichen Lernen einhergehen. Wir haben die Lernrate einer äquivalenten Nicht-VR-Aufgabe nicht getestet, aber viele klassische reale Hippocampus-abhängige räumliche Aufgaben, wie z. B. das Morris-Wasserlabyrinth, erfordern ein noch umfangreicheres Training und bieten dramatisch weniger Verhaltenstests und sind daher weniger geeignet für die Überwachung des Lernverhaltens zusammen mit neuronalen Aktivitätsänderungen.

Während die Mehrheit der Mäuse in dieser Pilotgruppe (57%) in der Lage war, die versteckte Belohnungsaufgabe in einer kleinen Anzahl von Sitzungen zu erlernen, können zusätzliche Mäuse räumliches Lernen über längere Zeitskalen zeigen, und individualisiertes Training sollte diesen Anteil der Mäuse erhöhen. In der Tat können Variationen in den Lernraten nützlich sein, um die spezifischen Zusammenhänge zwischen neuronaler Aktivität in Gehirnarealen wie dem Hippocampus und dem Verhaltenslernen zu trennen. Wir beobachteten jedoch, dass ein kleiner Prozentsatz der Mäuse nicht lernte, auf dem Rad zu laufen oder zu lecken, um weder nicht-operante noch operante Belohnungen zu erhalten (eine der sieben Mäuse, 14%) und daher nicht für nachfolgende Experimente verwendet werden konnte. Eine zusätzliche Handhabung und Gewöhnung sowie eine Verringerung des allgemeinen Stresszustandes des Tieres durch weitere Verstärkung, z. B. durch die Verwendung von erwünschten Futterleckerlis, können nützlich sein, um diesen Tieren zu helfen, während des kopfgestützten Verhaltens auf dem Rad aktives Laufen und Lecken anzunehmen.

Durch die Manipulation des Vorhandenseins und der Position der Cue- und Belohnungszonen auf intermittierenden Runden auf der virtuellen Strecke kann ein Experimentator die Abhängigkeit des räumlich selektiven Leckens von bestimmten Informationskanälen in VR weiter erkennen, um beispielsweise zu bestimmen, wie Mäuse auf lokale oder entfernte Hinweise oder Eigenbewegungsinformationen angewiesen sind, um ihre Position in einer Umgebung zu bestimmen. Die Leckselektivität von Mäusen, die den versteckten Ort der Belohnung gelernt haben, sollte durch die Verschiebung oder Auslassung des visuellen Hinweises entlang der Spur beeinflusst werden, wenn sie diesen räumlichen Hinweis aktiv als Orientierungspunkt nutzen, wie wir in einer kürzlich durchgeführten Arbeit mit räumlichen olfaktorischen Hinweisen gezeigt haben20. Aber selbst mit dem einfachen Beispiel, das wir hier vorgestellt haben, deutet das hochselektive Lecken, das von den Mäusen erreicht wird (Abbildung 4C, rechts), darauf hin, dass sie die visuelle VR-Umgebung kodieren, um ihre Entscheidungen darüber zu treffen, wo sie sich befinden und wann sie lecken sollen, da die Belohnungszone nur in Bezug auf visuelle Hinweise in der VR-Umgebung offensichtlich ist. Dieses VR-System ermöglicht neben der visuellen VR-Umgebung auch die Darstellung anderer Modalitäten räumlicher und kontextueller Hinweise, wie z. B. olfaktorische, taktile und auditive Hinweise, die verwendet werden können, um die Selektivität der neuronalen Aktivität und des Verhaltens für komplexe Kombinationen verschiedener sensorischer Hinweise zu testen. Obwohl wir nicht auf die Abhängigkeit der Aufgabenleistung von der Aktivität des Hippocampus getestet haben, zeigte eine kürzlich durchgeführte Studie mit einer ähnlichen Aufgabe, aber mit taktilen Hinweisen eine Störung des räumlichen Lernens mit Hippocampus-Inaktivierung23, was für die in dieser Studie durchgeführte VR-Aufgabe mit versteckter Belohnung bestätigt werden sollte.

Figure 1
Abbildung 1: Kopfgebundener VR-Hardware-Aufbau: Projektionsleinwand, Laufrad und Kopffixierungsvorrichtung. (A) Ein 3D-Konstruktionsschema des Laufrads und der Projektionsleinwand. (B) Abgeschlossenes VR-Verhaltens-Setup. Die VR-Umgebung wird auf (1) einem Einplatinencomputer gerendert und auf eine parabolische (2) Rückprojektionsleinwand projiziert (basierend auf dem Design von Chris Harveys Labor15,16). (3) Radbaugruppe. (4) Kopfpfostenhalter. (5) Wasserreservoir für die Belohnungslieferung. (C) Draufsicht auf die Projektionsfläche und Verhaltenseinstellung. (1) LED-Projektor. (2) Spiegel zur Rückprojektion des VR-Korridors auf die gekrümmte Leinwand. (3) Laufrad. (D) Rückansicht der Radbaugruppe. Die Radumdrehungen werden vom (1) Drehgeber übersetzt und über einen (2) ESP32-Mikrocontroller an den Einplatinencomputer übertragen. (3) Ein zweiachsiges Goniometer wird zur Feinabstimmung der Kopfposition für die optische Bildgebung verwendet. (E) Einrichtung auf der Ebene des Einführens der Maus, wobei die (1) Kopffixierungsvorrichtung und (2) die Platzierung der Lecköffnung über der (3) Laufradoberfläche gezeigt wird. (F) Foto der (1) Lecköffnung, die am (2) Flexarm angebracht ist, um den Belohnungsauslauf in der Nähe des Mundes der Maus präzise zu platzieren. Die Belohnungen werden über ein (3) Magnetventil vergeben, das durch das Verhalten ESP32 (über die OpenMaze OMwSmall-Platine) gesteuert wird. Ebenfalls sichtbar ist der Drehgeber, der mit der (4) Radachse gekoppelt ist, und (5) das Goniometer zur Lenkwinkeleinstellung. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 2
Abbildung 2: Schematische Darstellung des VR-Elektronik-Setups. Dieser Schaltplan zeigt die wichtigsten Verbindungen zwischen den elektronischen Komponenten des Open-Source-Virtual-Reality-Systems für Mäuse. (A) Mäuse werden auf einer speziellen 3D-gedruckten Kopffixierungsvorrichtung über einem Acryl-Laufrad kopfgebunden. (B) Die Drehung der Radachse bei laufender Maus wird von einem hochauflösenden Drehgeber erfasst, der mit einem Mikrocontroller (Drehdecoder ESP32) verbunden ist. (C) Bewegungsinformationen werden über eine serielle Verbindung an einen Einplatinencomputer übertragen, auf dem die HallPassVR-GUI-Software und die 3D-Umgebung ausgeführt werden, die die Position in der virtuellen VR-Linearbahnumgebung basierend auf der Fortbewegung der Maus aktualisiert. (D) Die gerenderte VR-Umgebung wird über den HDMI #2-Videoausgang des Einplatinencomputers (VR-Video-HDMI) an den Projektor/die Leinwand gesendet. (E) Bewegungsinformationen vom Drehgeber ESP32 werden auch an einen anderen Mikrocontroller (Behavior ESP32 mit der OpenMaze OMwSmall PCB) gesendet, der die Position der Maus nutzt, um räumliche, nicht-VR-bezogene Verhaltensereignisse (wie z. B. Belohnungszonen oder räumliche olfaktorische, taktile oder auditive Reize) in Abstimmung mit der VR-Umgebung zu steuern und das Lecken des Belohnungsauslaufs durch die Maus über kapazitive Berührungserkennung zu messen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 3
Abbildung 3: Grafische Software-GUI und Verhalten. (A) HallPassVR-GUI: Vier Bilder werden ausgewählt, um über jedes räumliche Muster zu kacheln, das ein Drittel der Spurlänge abdeckt (oder das zuvor gespeicherte Kombinationsmuster wird geladen), um drei Muster in jedem Pfad zu erhalten, die der Spurlänge entsprechen. Decken- und Bodenbilder werden ausgewählt, und dann wird Start gedrückt, um die VR-Umgebung auf dem HDMI-Ausgang (Projektionsleinwand) des Einplatinencomputers zu initialisieren. (B) Beispiel für einen virtuellen Korridor, der mit den in A gezeigten GUI-Parametern erstellt und für ein verstecktes Belohnungsexperiment verwendet wird, um räumliches Lernen zu testen. (C) Foto einer kopfgebundenen Maus, die in der in B gezeigten virtuellen Umgebung auf dem Rad läuft. (D) Das obere Bedienfeld zeigt das Online-Diagramm des Tierverhaltens in einer VR-Umgebung aus der mitgelieferten Verarbeitungsskizze zum Aufzeichnen und Zeichnen der Verhaltensdaten. Licks, Runden und Belohnungen werden pro 30-Sekunden-Zeitabschnitt für die 30-minütige Sitzung während des räumlichen Lernens mit versteckten Belohnungen aufgezeichnet. Der untere Bereich zeigt die aktuelle Mausposition (schwarz) und die Position aller Belohnungszonen (grau) während des Verhaltens an. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 4
Abbildung 4: Räumliches Lernen mit der grafischen Softwareumgebung. Repräsentative räumliche Leckdaten von einem Tier (A) während der zufälligen Nahrungssuche mit zufälligen Hinweisen entlang der virtuellen linearen Spur und (B-C) 2 Trainingstagen mit einer statischen versteckten Belohnungszone in 1,5 m Entfernung mit einem einzigen visuellen Hinweis in der Mitte der Strecke. (A) Tag 0 zufällige Suche nach vier Belohnungszonen pro Runde, die zufällig aus acht Positionen ausgewählt werden, die gleichmäßig entlang der 2 m langen virtuellen linearen Strecke verteilt sind. (Links) Die durchschnittliche Anzahl der Licks pro räumlichem Bin (5 cm) während der 30-minütigen Sitzung (oben: VR-Flur mit zufälligen visuellen Stimulus-Panels). (Rechts) Anzahl der Licks in jedem 5-cm-Raumabschnitt pro Runde während dieser Sitzung, dargestellt durch eine Heatmap. (B) Tag 1, der erste Trainingstag mit einer einzelnen Belohnungszone auf 1,5 m (roter Kasten auf dem Streckendiagramm oben) unter Verwendung einer virtuellen Spur, die einen einzigen kontrastreichen Stimulus an Position 0,8-1,2 m enthält. (Links) Durchschnittliche räumliche Leckzahlen über die Sitzung, die zunehmende Lecken zeigen, wenn sich das Tier der Belohnungszone nähert. (Rechts) Räumliche Lecks pro Runde, die eine erhöhte Selektivität des Leckens im Bereich vor der Belohnung zeigen. (C) Tag 2, von der gleichen versteckten Belohnungsaufgabe und dem gleichen virtuellen Flur wie Tag 1 und von derselben Maus. (Links) Gesamtzahl der Licks pro räumlichem Abschnitt, was eine Abnahme der Licks außerhalb der Zone vor der Belohnung zeigt. (Rechts) Räumliches Lecken pro Runde an Tag 2, das ein erhöhtes Lecken vor der Belohnungszone und ein verringertes Lecken an anderen Orten zeigt, was auf die Entwicklung eines räumlich spezifischen antizipatorischen Leckens hinweist. Dies zeigt, dass dieses Tier den (nicht beachteten) versteckten Ort der Belohnung gelernt und eine Strategie entwickelt hat, um die Anstrengung (das Lecken) in Regionen zu minimieren, in denen es keine Belohnung erwartet. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Verhaltensbezogenes Ergebnis Anzahl der Mäuse Prozentualer Anteil der Mäuse
Maus lief/leckte nicht 1 14%
Nur zufällige Nahrungssuche 2 29%
Erlernte versteckte Belohnung 4 57%
Gesamt (N) 7

Tabelle 1: Pilotergebnisse des VR-Pilotprojekts für räumliches Lernen. Sieben C57BL/6-Mäuse beiderlei Geschlechts im Alter von 4 Monaten wurden schrittweise darauf trainiert, eine räumliche versteckte Belohnungsaufgabe in VR auszuführen. Von diesen Mäusen rannte/leckte eine Maus nach dem anfänglichen Training nicht (eine der sieben Mäuse, 14%), während sechs der verbleibenden Mäuse lernten, auf dem Rad zu laufen und nach zufälligen räumlichen Belohnungen im zufälligen Nahrungssuchschritt des Trainings zu lecken (sechs der sieben Mäuse, 86%). Vier der sechs Mäuse, die in der Lage waren, das zufällige Futtersuchverhalten auszuführen, lernten anschließend, selektiv zu lecken, in Erwartung der nicht gekürzten Belohnung in der versteckten Belohnungsaufgabe selektiv zu lecken (vier der sieben Mäuse, 57 % der Mäuse insgesamt, vier der sechs Mäuse, 66 % der zufällig suchenden Mäuse), während zwei dies nicht taten (zwei der sieben Mäuse, 29%).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Dieses Open-Source-VR-System für Mäuse funktioniert nur, wenn die seriellen Verbindungen zwischen den rotierenden und verhaltensfähigen ESP32-Mikrocontrollern und dem Einplatinencomputer korrekt hergestellt sind (Schritt 2), was mit dem seriellen IDE-Monitor bestätigt werden kann (Schritt 2.4.5). Für erfolgreiche Verhaltensergebnisse aus diesem Protokoll (Schritt 4) müssen die Mäuse an den Apparat gewöhnt sein und sich wohl fühlen, auf dem Rad zu laufen, um flüssige Belohnungen zu erhalten (Schritte 4.3-4.5). Dies erfordert eine ausreichende (aber nicht übermäßige) Wasserbeschränkung, da Mäuse, die ad libitum Wasser im häuslichen Käfig erhalten, nicht rennen und lecken, um Belohnungen zu erhalten (d. h. um ihren wahrgenommenen Standort anzuzeigen), und dehydrierte Mäuse möglicherweise lethargisch sind und nicht auf dem Rad laufen. Es ist auch erwähnenswert, dass es alternative Methoden gibt, um das Verhalten von Mäusen ohne Wasserbeschränkungzu motivieren 24; Wir haben diese Methoden hier jedoch nicht getestet. Für das Trainingsverfahren können Tiere, die anfangs nicht laufen, vom Experimentator ad hoc (d. h. nicht räumliche) Wasserbelohnungen über einen angebrachten optionalen Knopfdruck erhalten, oder das Rad kann sanft bewegt werden, um die Fortbewegung zu fördern. Um ein zufälliges Futtersuchverhalten zu entwickeln, sollten Mäuse, die rennen, aber nicht lecken, mit nicht-operanten Belohnungen (Verhalten ESP32-Code: isOperant = 0;, Schritt 4.5.1) ausgeführt werden, bis sie rennen und nach Belohnungen lecken, und sie können dann mit abwechselnden Runden von nicht-operanten und operanten Belohnungszonen ausgeführt werden (altOpt=1; Schritt 4.5.2), bis sie anfangen, auf operanten Runden zu lecken, bevor sie zu vollständig operanten zufälligen Belohnungszonen übergehen (Schritt 4.5.3).

Während wir vollständige Anweisungen und Beispielergebnisse für eine Reihe grundlegender Experimente bereitgestellt haben, die darauf abzielen, eine Form des räumlichen Lernens hervorzurufen (konditioniertes Lecken an einer versteckten Belohnungsstelle in der virtuellen linearen Spurumgebung), kann das gleiche grundlegende Hardware- und Software-Setup auch für die Bereitstellung komplexerer visueller Umgebungen mit dem pi3d-Python-Paket für Raspberry Pi modifiziert werden. Dieses System kann beispielsweise komplexere Labyrinthe wie Korridore mit variabler Länge, mehrere Muster und 3D-Objekte sowie naturalistische 3D-VR-Landschaften umfassen. Darüber hinaus kann die Verhaltenssoftware für die Abgabe von Wasserbelohnungen und anderen nicht-visuellen Reizen für andere Trainingsparadigmen modifiziert werden, indem Schlüsselvariablen geändert werden (die am Anfang des Verhaltens-ESP32-Codes dargestellt werden) oder indem neue Arten von räumlichen Ereignissen in denselben Code eingefügt werden. Gerne beraten wir die Nutzer hinsichtlich Methoden zur Umsetzung anderer Arten von Verhaltensexperimenten mit diesem VR-Setup oder bei der Fehlersuche.

Immersive VR-Umgebungen haben sich als vielseitiges Werkzeug erwiesen, um die zugrunde liegenden neuronalen Mechanismen der räumlichen Navigation 6,7,8, des Belohnungs-Lernverhaltens9 und der visuellen Wahrnehmung25 sowohl in klinischen als auch in Tierstudien zu untersuchen. Der Hauptvorteil dieses Ansatzes besteht darin, dass der Experimentator eine strenge Kontrolle über kontextuelle Elemente wie visuelle Hinweise und spezifische räumliche Reize (z. B. Belohnungen und olfaktorische, auditive oder taktile Reize) hat, was in realen Umgebungen mit frei beweglichen Tieren nicht praktikabel ist. Es sollte jedoch beachtet werden, dass Unterschiede in der Art und Weise bestehen können, in der VR-Umgebungen von Gehirnarealen wie dem Hippocampus kodiert werden, verglichen mit der Verwendung realer Umgebungen26,27. Mit dieser Einschränkung ermöglicht die Verwendung von VR-Umgebungen den Experimentatoren, eine große Anzahl von Verhaltensversuchen mit sorgfältig kontrollierten Reizen durchzuführen, was die Dissoziation der Beiträge verschiedener sensorischer Elemente zur räumlichen Navigation ermöglicht.

Die Komplexität der Erstellung benutzerdefinierter VR-Setups erfordert oft einen umfangreichen Hintergrund in Technik und Computerprogrammierung, was die Einrichtungszeit verlängern und die Anzahl der Geräte begrenzen kann, die gebaut werden können, um Mäuse für Experimente zu trainieren. VR-Setups sind auch von kommerziellen Anbietern erhältlich. Diese Lösungen können jedoch teuer und eingeschränkt sein, wenn der Benutzer neue Funktionen implementieren oder die Trainings-/Aufzeichnungskapazität auf mehr als ein Setup erweitern möchte. Die geschätzte Preisspanne des hier vorgestellten Open-Source-VR-Setups beträgt 1.000 US-Dollar < US-Dollar. Eine vereinfachte Version für das Training (z. B. fehlende Goniometer für die Kopfwinkeleinstellung) kann jedoch für 500 < US-Dollar (USD) hergestellt werden, was den Bau mehrerer Setups für das Training von Mäusen in größerem Maßstab ermöglicht. Die modulare Anordnung der Komponenten ermöglicht auch die Integration von VR mit anderen Systemen zur Verhaltenssteuerung, wie z. B. dem Laufbandsystem mit räumlichen olfaktorischen und taktilen Reizen, die wir zuvor20 verwendet haben, und somit schließen sich VR und andere Reizmodalitäten nicht gegenseitig aus.

Dieses Open-Source-VR-System mit zugehöriger Hardware (Laufrad, Projektionsleinwand und Kopffixierungsgerät), Elektronik-Setup (Einplatinencomputer und ESP32-Mikrocontroller) und Software (VR-GUI und Verhaltenscode) bietet ein kostengünstiges, kompaktes und einfach zu bedienendes Setup für die Bereitstellung parametrisierter immersiver VR-Umgebungen für Mäuse während der kopfgebundenen räumlichen Navigation. Dieses Verhalten kann dann mit neuronaler Bildgebung oder elektrophysiologischer Aufzeichnung synchronisiert werden, um die neuronale Aktivität während des räumlichen Lernens zu untersuchen (Schritt 2.3.7). Das Spektrum der experimentellen Techniken, die mit VR kompatibel sind, ist breit und reicht vom räumlichen Lernverhalten allein bis hin zur Kombination mit Faserphotometrie, Miniskop-Bildgebung, Einzelphotonen- und Multiphotonen-Bildgebung und elektrophysiologischen Techniken (z. B. Neuropixel oder intrazelluläre Ableitung). Während für einige dieser Aufzeichnungstechniken eine Kopfstütze erforderlich ist, können die extrem präzise Art der Reizpräsentation und die stereotype Natur des Verhaltens auch für andere Techniken nützlich sein, die keine Kopffixierung erfordern, wie z. B. Miniskop-Bildgebung und Faserphotometrie. Es sollte jedoch beachtet werden, dass unsere kapazitive sensorbasierte Lösung zur Erkennung von Lecksteinen ein erhebliches Rauschen auf elektrophysiologischen Spuren verursachen kann. Um solche Artefakte zu vermeiden, sollten optische oder andere (z.B. mechanische) sensorbasierte Lösungen zur Leckdetektion implementiert werden.

Zukünftige Verbesserungen des VR-Systems werden auf die GitHub-Seite des Projekts (https://github.com/GergelyTuri/HallPassVR) hochgeladen, daher sollten Benutzer diese Seite regelmäßig auf Updates überprüfen. So sind wir gerade dabei, die fest verdrahteten seriellen Verbindungen zwischen den Mikrocontrollern und dem Einplatinencomputer durch die Bluetooth-Funktionalität zu ersetzen, die für die bereits in diesem Design verwendeten ESP32-Mikrocontroller nativ ist. Darüber hinaus planen wir, die HallPassVR-GUI zu aktualisieren, um die Spezifikation verschiedener Pfade in jeder Verhaltenssitzung zu ermöglichen, um unterschiedliche Positionen für wichtige visuelle Orientierungspunkte auf verschiedenen Runden zu enthalten. Dies ermöglicht eine größere Flexibilität bei der Dissoziation des Einflusses bestimmter visueller und kontextueller Merkmale auf die neuronale Kodierung des Raums während des räumlichen Lernens.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Clay Lacefield ist der Gründer und Betreuer von OpenMaze.org, das Designs für die in diesem Protokoll verwendete OMwSmall-Leiterplatte kostenlos zum Download bereitstellt.

Acknowledgments

Wir bedanken uns bei Noah Pettit vom Harvey-Labor für die Diskussion und die Anregungen bei der Entwicklung des Protokolls in diesem Manuskript. Diese Arbeit wurde durch einen BBRF Young Investigator Award und NIMH 1R21MH122965 (G.F.T.) unterstützt, zusätzlich zu NINDS R56NS128177 (R.H., C.L.) und NIMH R01MH068542 (R.H.).

Materials

Name Company Catalog Number Comments
1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

DOWNLOAD MATERIALS LIST

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. Pettit, N., et al. Harvey Lab Mouse VR. , Available from: https://github.com/Harvey/Lab/mouseVR (2021).
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Tags

Neurowissenschaften Heft 193
Ein Open-Source-Virtual-Reality-System zur Messung des räumlichen Lernens bei kopfgebundenen Mäusen
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Lacefield, C., Cai, H., Ho, H.,More

Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter