Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Een open-source virtual reality-systeem voor het meten van ruimtelijk leren bij hoofdremmende muizen

Published: March 3, 2023 doi: 10.3791/64863

Summary

Hier presenteren we een vereenvoudigde open-source hardware- en software-opstelling voor het onderzoeken van ruimtelijk leren van muizen met behulp van virtual reality (VR). Dit systeem toont een virtueel lineair spoor naar een hoofd-ingetogen muis die op een wiel draait door gebruik te maken van een netwerk van microcontrollers en een single-board computer met een eenvoudig te gebruiken Python grafisch softwarepakket.

Abstract

Hoofd-ingetogen gedragsexperimenten bij muizen stellen neurowetenschappers in staat om neurale circuitactiviteit te observeren met elektrofysiologische en optische beeldvormingshulpmiddelen met hoge resolutie, terwijl ze nauwkeurige sensorische stimuli leveren aan een zich gedragend dier. Onlangs hebben menselijke en knaagdierstudies met behulp van virtual reality (VR) -omgevingen aangetoond dat VR een belangrijk hulpmiddel is voor het blootleggen van de neurale mechanismen die ten grondslag liggen aan ruimtelijk leren in de hippocampus en cortex, vanwege de uiterst nauwkeurige controle over parameters zoals ruimtelijke en contextuele signalen. Het opzetten van virtuele omgevingen voor ruimtelijk gedrag van knaagdieren kan echter duur zijn en vereist een uitgebreide achtergrond in engineering en computerprogrammering. Hier presenteren we een eenvoudig maar krachtig systeem op basis van goedkope, modulaire, open-source hardware en software waarmee onderzoekers ruimtelijk leren kunnen bestuderen in hoofd-ingetogen muizen met behulp van een VR-omgeving. Dit systeem maakt gebruik van gekoppelde microcontrollers om de voortbeweging te meten en gedragsstimuli te leveren, terwijl hoofd-ingehouden muizen op een wiel rennen in combinatie met een virtuele lineaire spooromgeving die wordt weergegeven door een grafisch softwarepakket dat op een single-board computer draait. De nadruk op gedistribueerde verwerking stelt onderzoekers in staat om flexibele, modulaire systemen te ontwerpen om complex ruimtelijk gedrag bij muizen uit te lokken en te meten om het verband tussen neurale circuitactiviteit en ruimtelijk leren in het zoogdierbrein te bepalen.

Introduction

Ruimtelijke navigatie is een ethologisch belangrijk gedrag waarbij dieren de kenmerken van nieuwe locaties coderen in een cognitieve kaart, die wordt gebruikt voor het vinden van gebieden met mogelijke beloning en het vermijden van gebieden met potentieel gevaar. Onlosmakelijk verbonden met het geheugen, delen de cognitieve processen die ten grondslag liggen aan ruimtelijke navigatie een neuraal substraat in de hippocampus1 en cortex, waar neurale circuits in deze gebieden binnenkomende informatie integreren en cognitieve kaarten van omgevingen en gebeurtenissen vormen voor latere herinnering2. Hoewel de ontdekking van plaatscellen in de hippocampus3,4 en rastercellen in de entorhinale cortex5 licht heeft geworpen op hoe de cognitieve kaart in de hippocampus wordt gevormd, blijven er veel vragen over hoe specifieke neurale subtypen, microcircuits en individuele subregio's van de hippocampus (de gyrus dentate en cornu ammonis-gebieden, CA3-1) interageren en deelnemen aan ruimtelijke geheugenvorming en -herinnering.

In vivo beeldvorming van twee fotonen is een nuttig hulpmiddel geweest bij het blootleggen van cellulaire en populatiedynamiek in sensorische neurofysiologie 6,7; De typische noodzaak voor hoofdsteun beperkt echter het nut van deze methode voor het onderzoeken van ruimtelijk gedrag van zoogdieren. De komst van virtual reality (VR)8 heeft deze tekortkoming aangepakt door meeslepende en realistische visuospatiale omgevingen te presenteren terwijl hoofd-ingetogen muizen op een bal of loopband rennen om ruimtelijke en contextuele codering in de hippocampus 8,9,10 en cortex 11 te bestuderen. Bovendien heeft het gebruik van VR-omgevingen met zich gedragende muizen neurowetenschappelijke onderzoekers in staat gesteld om de componenten van ruimtelijk gedrag te ontleden door de elementen van de VR-omgeving12 (bijv. Visuele stroom, contextuele modulatie) nauwkeurig te regelen op manieren die niet mogelijk zijn in real-world experimenten van ruimtelijk leren, zoals het Morris waterdoolhof, Barnes doolhof of hole board-taken.

Visuele VR-omgevingen worden meestal gerenderd op de grafische verwerkingseenheid (GPU) van een computer, die de belasting van het snel berekenen van de duizenden polygonen verwerkt die nodig zijn om een bewegende 3D-omgeving in realtime op een scherm te modelleren. De grote verwerkingsvereisten vereisen over het algemeen het gebruik van een afzonderlijke pc met een GPU die de visuele omgeving weergeeft aan een monitor, meerdere schermen13 of een projector14 terwijl de beweging wordt opgenomen vanaf een loopband, wiel of schuimbal onder het dier. Het resulterende apparaat voor het besturen, renderen en projecteren van de VR-omgeving is daarom relatief duur, omvangrijk en omslachtig. Bovendien zijn veel van dergelijke omgevingen in de literatuur geïmplementeerd met behulp van propriëtaire software die zowel duur is als alleen op een speciale pc kan worden uitgevoerd.

Om deze redenen hebben we een open-source VR-systeem ontworpen om ruimtelijk leergedrag bij hoofd-ingetogen muizen te bestuderen met behulp van een Raspberry Pi single-board computer. Deze Linux-computer is zowel klein als goedkoop, maar bevat een GPU-chip voor 3D-rendering, waardoor VR-omgevingen kunnen worden geïntegreerd met het weergave- of gedragsapparaat in verschillende individuele opstellingen. Verder hebben we een grafisch softwarepakket ontwikkeld dat is geschreven in Python, "HallPassVR", dat de single-board computer gebruikt om een eenvoudige visuospatiale omgeving, een virtuele lineaire track of gang weer te geven, door aangepaste visuele functies die zijn geselecteerd met behulp van een grafische gebruikersinterface (GUI) opnieuw te combineren. Dit wordt gecombineerd met microcontroller-subsystemen (bijv. ESP32 of Arduino) om voortbeweging te meten en gedrag te coördineren, zoals door de levering van andere modaliteiten van sensorische stimuli of beloningen om reinforcement learning te vergemakkelijken. Dit systeem biedt een goedkope, flexibele en eenvoudig te gebruiken alternatieve methode voor het leveren van visuospatiale VR-omgevingen aan hoofd-ingehouden muizen tijdens twee-foton beeldvorming (of andere technieken die hoofdfixatie vereisen) voor het bestuderen van de neurale circuits die ten grondslag liggen aan ruimtelijk leergedrag.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle procedures in dit protocol zijn goedgekeurd door de Institutional Animal Care and Use Committee van het New York State Psychiatric Institute.

OPMERKING: Een single-board computer wordt gebruikt om een VR visuele omgeving weer te geven die gecoördineerd is met het draaien van een hoofd-ingehouden muis op een wiel. Bewegingsinformatie wordt ontvangen als seriële invoer van een ESP32-microcontroller die een roterende encoder leest die aan de wielas is gekoppeld. De VR-omgeving wordt gerenderd met behulp van OpenGL-hardwareversnelling op de Raspberry Pi GPU, die het pi3d Python 3D-pakket voor Raspberry Pi gebruikt. De gerenderde omgeving wordt vervolgens uitgevoerd via een projector op een compact omhullend parabolisch scherm gecentreerd op het gezichtsveld van de hoofdbedwang muis15,16, terwijl het gedrag (bijvoorbeeld likken als reactie op ruimtelijke beloningen) wordt gemeten door een tweede gedrag ESP32-microcontroller. Het grafische softwarepakket maakt het mogelijk om virtuele lineaire spooromgevingen te creëren die bestaan uit herhaalde patronen van visuele stimuli langs een virtuele gang of gang met een grafische gebruikersinterface (GUI). Dit ontwerp is gemakkelijk te parametriseren, waardoor complexe experimenten kunnen worden gemaakt die gericht zijn op het begrijpen hoe de hersenen plaatsen en visuele signalen coderen tijdens ruimtelijk leren (zie sectie 4). Ontwerpen voor de aangepaste hardwarecomponenten die nodig zijn voor dit systeem (d.w.z. het loopwiel, projectiescherm en hoofdsteunapparatuur) worden gedeponeerd in een openbare GitHub-repository (https://github.com/GergelyTuri/HallPassVR). Het wordt aanbevolen om de documentatie van die repository samen met dit protocol te lezen, omdat de site zal worden bijgewerkt met toekomstige verbeteringen van het systeem.

1. Hardware-instelling: constructie van het loopwiel, projectiescherm en hoofdbevestigingsapparaat

OPMERKING: De aangepaste componenten voor deze opstellingen kunnen eenvoudig worden vervaardigd als de gebruiker toegang heeft tot 3D-print- en lasersnijapparatuur of kan worden uitbesteed aan professionele productie- of 3D-prototypingdiensten (bijv. eMachinehop). Alle ontwerpbestanden worden geleverd als . STL 3D-bestanden of . DXF AutoCAD-bestanden.

  1. Loopwiel en gedragsopstelling (figuur 1)
    OPMERKING: Het wiel bestaat uit een heldere acrylcilinder (6 in diameter, 3 in breedte, 1/8 in dikte) gecentreerd op een as opgehangen aan lasergesneden acrylbevestigingen via kogellagers. De wielassemblage wordt vervolgens gemonteerd op een lichtgewicht aluminium frame (t-groef) en stevig bevestigd aan een optisch breadboard (figuur 1C-E).
    1. Lasersnijd de zijkanten van het wiel en de assteunen van een 1/4 in acrylplaat en bevestig de wielzijden aan de acrylcilinder met acrylcement. Schroef de asflens in het midden van het zijstuk van het wiel.
    2. Steek de as in de middenflens van het wiel, klik de kogellagers in de assteunen en bevestig ze aan de verticale aluminium steunbalk.
    3. Plaats de wielas in de gemonteerde kogellagers en laat 0,5-1 inch van de as voorbij de lagers voor de bevestiging van de roterende encoder.
    4. Bevestig de roterende encoderbevestiging aan het uiteinde van de as tegenover het wiel en plaats de roterende encoder; Gebruik vervolgens de askoppeling om de wielas aan de roterende encoderas te koppelen.
    5. Bevestig de likpoort aan de flexarm en bevestig deze vervolgens met t-sleufmoeren aan het aluminium wielframe. Gebruik 1/16 inch buizen om de likpoort aan te sluiten op de magneetklep en de klep op het waterreservoir.
      OPMERKING: De likpoort moet van metaal zijn met een gesoldeerde draad om deze te bevestigen aan de capacitieve aanraakgevoelige pinnen van het gedrag ESP32.
  2. Projectiescherm
    OPMERKING: Het VR-scherm is een klein parabolisch achterprojectiescherm (canvasformaat: 54 cm x 21,5 cm) op basis van een ontwerp dat is ontwikkeld in het laboratorium van Christopher Harvey15,16. De projectiehoek (keystone) van de gebruikte LED-projector verschilt van die van de eerder gebruikte laserprojector; zo wordt het oorspronkelijke ontwerp enigszins gewijzigd door het apparaat onder het scherm te monteren en het spiegelsysteem te vereenvoudigen (figuur 1A, B). Het lezen van de documentatie van het Harvey-lab samen met de onze wordt ten zeerste aanbevolen om de VR-omgeving aan te passen aan de behoeften van de gebruiker15.
    1. Lasergesneden de zijkanten van het projectiescherm vanaf 1/4 in zwarte matte acrylplaten. Lasergesneden de achterste projectiespiegel van 1/4 in gespiegeld acryl.
    2. Monteer het projectieschermframe met de aluminium staven en lasersnijd de acrylpanelen.
    3. Plaats het doorschijnende projectieschermmateriaal in de parabolische sleuf in het frame. Plaats de achteruitkijkspiegel in de sleuf aan de achterkant van het projectieschermframe.
    4. Plaats een LED-projector op de onderste montageplaat in het frame van het projectiescherm. Lijn de projector uit met bevestigingsbouten om de positionering van het geprojecteerde beeld op het parabolische achterprojectiescherm te optimaliseren.
    5. Sluit indien nodig de projectorbox af om lichtvervuiling van de optische sensoren te voorkomen.
  3. Hoofdsteunapparatuur
    OPMERKING: Dit ontwerp van de hoofdsteun bestaat uit twee in elkaar grijpende 3D-geprinte spruitstukken voor het vastzetten van een metalen hoofdpaal (figuur 1E, F).
    1. Met behulp van een SLM 3D-printer met hoge resolutie kunt u de hoofdarmen 3D-printen.
      OPMERKING: Harsbedrukt plastic is in staat om stabiele hoofdfixatie te bieden voor gedragsexperimenten; Om echter maximale stabiliteit te bereiken voor gevoelige toepassingen zoals eencellige opname of beeldvorming met twee fotonen, wordt aanbevolen om bewerkte metalen onderdelen te gebruiken (bijv. eMachineShop).
    2. Installeer de 3D-geprinte hoofdposthouder op een tweeassige goniometer met optische montagepalen, zodat het hoofd van het dier kan worden gekanteld om het preparaat waterpas te zetten.
      OPMERKING: Deze functie is onmisbaar voor langdurige in vivo beeldvormingsexperimenten wanneer het vinden van dezelfde celpopulatie in volgende beeldvormingssessies vereist is. Anders kan deze functie worden weggelaten om de kosten van de installatie te verlagen.
    3. Fabriceer de hoofdpalen.
      OPMERKING: Twee soorten hoofdposten met verschillende complexiteit (en prijs) worden samen met deze instructies gedeponeerd in de link in de materiaaltabel.
      1. Afhankelijk van het type experiment bepaalt u welke hoofdpost u wilt implementeren. De kopstangen zijn gemaakt van roestvrij staal en worden over het algemeen uitbesteed aan een lokale machinewerkplaats of online service (bijv. eMachineShop) voor productie.

2. Installatie van de elektronica hardware/software (single board computer, ESP32 microcontrollers, Figuur 2)

  1. Configureer de single-board computer.
    OPMERKING: De single-board computer in de Tabel met Materialen (Raspberry Pi 4B) is optimaal voor deze opstelling omdat deze een on-board GPU heeft om VR-omgevingsweergave te vergemakkelijken en twee HDMI-poorten voor experimentele controle / monitoring en VR-projectie. Andere single-board computers met deze kenmerken kunnen mogelijk worden vervangen, maar sommige van de volgende instructies kunnen specifiek zijn voor Raspberry Pi.
    1. Download de single-board computer imager-applicatie naar de pc en installeer het besturingssysteem (momenteel Raspberry Pi OS r.2021-05-07) op de microSD-kaart (16+ GB). Plaats de kaart en start de single-board computer op.
    2. Configureer de single-board computer voor de pi3d Python 3D-bibliotheek: (menubalk) Voorkeuren > Raspberry Pi-configuratie.
      1. Klik op Display > Screen Blanking > uitschakelen.
      2. Klik op Interfaces > seriële poort > inschakelen.
      3. Klik op Prestaties > GPU-geheugen > 256 (MB).
    3. Upgrade het Python image library pakket voor pi3d: (terminal)> sudo pip3 install pillow --upgrade.
    4. Installeer het pi3d Python 3D pakket voor de single board computer: (terminal)> sudo pip3 install pi3d.
    5. Verhoog het HDMI-uitgangsniveau voor de projector: (terminal)> sudo nano /boot/config.txt, uncomment config_hdmi_boost=4, save en reboot.
    6. Download en installeer de geïntegreerde ontwikkelomgeving (IDE) van arduino.cc/en/software (bijv. arduino-1.8.19-linuxarm.tar.gz), die nodig is om de code op de roterende encoder en het gedrag ESP32-microcontrollers te laden.
    7. Installeer ESP32 microcontroller ondersteuning op de IDE:
      1. Klik op Bestand > voorkeuren > Extra Board Manager URL's = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Klik op Tools > Boards > Boards Manager > ESP32 (door Espressif). Installeer v.2.0.0 (uploaden mislukt momenteel op v2.0.4).
    8. Download en installeer de Processing IDE vanuit https://github.com/processing/processing4/releases (bijv. processing-4.0.1-linux-arm32.tgz), die nodig is voor het opnemen en online plotten van het muisgedrag tijdens VR.
      OPMERKING: De Arduino- en Processing-omgevingen kunnen desgewenst op een aparte pc van de VR single-board computer worden uitgevoerd.
  2. Stel de esp32-aansluitingen van de roterende encoder in.
    OPMERKING: De roterende encoder gekoppeld aan de wielas meet de wielrotatie met muisbeweging, die wordt geteld met een ESP32-microcontroller. De positiewijzigingen worden vervolgens verzonden naar de GPIO-seriële poort van de single-board computer om de beweging door de virtuele omgeving te regelen met behulp van het grafische softwarepakket, evenals naar het gedrag ESP32 om de beloningszones te besturen (figuur 2).
    1. Verbind de draden tussen de roterende encodercomponent en de roterende ESP32. Roterende encoders hebben over het algemeen vier draden: +, GND, A en B (twee digitale lijnen voor kwadratuur-encoders). Verbind deze via jumperdraden met ESP32 3.3 V, GND, 25, 26 (in het geval van de bijgevoegde code).
    2. Sluit de seriële RX/TX-draden aan tussen de roterende ESP32 en het gedrag ESP32. Maak een eenvoudige tweedraadsverbinding tussen de roterende ESP32 Serial0 RX/TX (ontvangen/verzenden) en de Serial2-poort van het gedrag ESP32 (TX/RX, pinnen 17, 16; zie Serial2-poort rechts van OMwSmall PCB). Dit brengt bewegingsinformatie van de roterende encoder naar de gedragsinstelling voor ruimtelijke zones zoals beloningszones.
    3. Sluit de seriële RX/TX-draden aan tussen de roterende ESP32 en de GPIO van de single-board computer (of directe USB-verbinding). Maak een tweedraads verbinding tussen de single-board computer GPIO pinnen 14, 15 (RX/TX) en de roterende ESP32 Serial2 (TX/RX, pinnen 17, 16). Dit brengt bewegingsinformatie van de roterende encoder naar het grafische softwarepakket dat op de single-board computer draait.
      OPMERKING: Deze stap is alleen nodig als de roterende ESP32 niet via een USB is aangesloten (d.w.z. het is een GPIO seriële verbinding op "/dev/ttyS0"), maar de HallPassVR_wired.py code moet anders worden gewijzigd om "/dev/ttyUSB0" te gebruiken. Deze bedrade verbinding zal in toekomstige versies worden vervangen door een draadloze Bluetooth-verbinding.
    4. Sluit de roterende ESP32 USB aan op de USB-stick van de single-board computer (of een andere pc waarop de IDE wordt uitgevoerd) om de initiële roterende encodercode te uploaden.
  3. Stel het gedrag ESP32-verbindingen in met de gedragshardware (via OpenMaze PCB).
    OPMERKING: Het gedrag ESP32 microcontroller controleert alle niet-VR dierlijke interacties (het leveren van niet-VR stimuli en beloningen, het detecteren van muis likken), die zijn verbonden via een algemene PCB "breakout board" voor de ESP32, "OMwSmall", waarvan de ontwerpen beschikbaar zijn via de OpenMaze website (www.openmaze.org). De printplaat bevat de elektronische componenten die nodig zijn voor het aandrijven van de elektromechanische componenten, zoals de magneetventielen die worden gebruikt om vloeibare beloningen te leveren.
    1. Sluit het 12 V vloeibare magneetventiel aan op de ULN2803 IC-uitgang helemaal links van de OMwSmall PCB (pin 12 in de voorbeeldopstelling en code). Dit IC gaat 12 V stroom naar de beloningsmagneetklep, geregeld door een GPIO-uitgang op de gedrag ESP32 microcontroller.
    2. Sluit de likpoort aan op de ESP32-aanraakingang (bijv. T0, GPIO4 in de voorbeeldcode). De ESP32 heeft ingebouwde capacitieve aanraakdetectie op specifieke pinnen, die de ESP32-code gebruikt om het likken van de aangesloten metalen likpoort door de muis tijdens het VR-gedrag te detecteren.
    3. Sluit de seriële RX/TX-draden aan tussen het gedrag ESP32 Serial2 (pinnen 16, 17) en roterende encoder ESP32 Serial0 (zie stap 2.2.2).
    4. Sluit de USB aan op de USB-poort van de single-board computer (of een andere pc) om nieuwe programma's te uploaden naar het gedrag ESP32 voor verschillende experimentele paradigma's (bijv. aantal/locatie van beloningszones) en om gedragsgegevens vast te leggen met behulp van de meegeleverde verwerkingsschets.
    5. Sluit de 12 V DC-wandadapter aan op de 2,1 mm barrel jack-connector op het gedrag ESP32 OMwSmall PCB om de stroom te leveren voor de beloningsmagneetklep.
    6. Sluit de HDMI #2-uitgang van de single-board computer aan op de HDMI-poort van de projector; dit zal de VR-omgeving die wordt gerenderd door de GPU van de single-board computer naar het projectiescherm brengen.
    7. (optioneel) Sluit de synchronisatiedraad (pin 26) aan op een neurale beeldvorming of elektrofysiologische opname-instelling. Een 3,3 V transistor-transistor-logica (TTL) signaal wordt elke 5 s verzonden om de systemen met bijna milliseconde precisie uit te lijnen.
  4. De software instellen: Laad de firmware/software op de roterende encoder ESP32 (Figuur 2B) en gedrag ESP32 (Figuur 2E) met behulp van de IDE, en download de VR Python-software op de single-board computer. Zie https://github.com/GergelyTuri/HallPassVR/software.
    1. Sluit de roterende encoder ESP32 eerst aan op de USB-poort van de single-board computer - deze wordt automatisch "/dev/ttyUSB0 " genoemd door het besturingssysteem.
    2. De roterende encodercode laden: Open het bestand RotaryEncoder_Esp32_VR.ino in de IDE en selecteer vervolgens de ESP32 onder Tools > Boards > ESP32 Dev Module. Selecteer de ESP32-poort door te klikken op Extra > Poort > /dev/ttyUSB0 en klik vervolgens op Uploaden.
    3. Sluit het gedrag ESP32 aan op de USB-poort van de single-board computer, waarna dit door het besturingssysteem "/dev/ttyUSB1" wordt genoemd.
    4. Laad de gedragsvolgordecode op het gedrag ESP32 (IDE, ESP32 Dev Module al geselecteerd), klik vervolgens op Extra > poort > /dev/ttyUSB1 en klik op Uploaden: wheel_VR_behavior.ino.
    5. Test de seriële verbindingen door de seriële poort voor elke ESP32 in de IDE (Tools > Port > /dev/ttyUSB0 of /dev/ttyUSB1) te selecteren en vervolgens op Tools > Serial Monitor (baudrate: 115.200) te klikken om de seriële uitgang van het draaibord (USB0) of het gedragsbord (USB1) te observeren. Draai het wiel om een onbewerkte bewegingsuitvoer van de roterende ESP32 op USB0 of geformatteerde bewegingsuitvoer van het gedrag ESP32 op USB1 te zien.
    6. Download het grafische softwarepakket Python-code van https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR (naar /home/pi/Documents). Deze map bevat alle bestanden die nodig zijn voor het uitvoeren van het grafische softwarepakket als het pi3d Python3-pakket eerder correct is geïnstalleerd (stap 2.1).

3. Het uitvoeren en testen van het grafische softwarepakket

OPMERKING: Voer de GUI van het grafische softwarepakket uit om een VR-lineaire trackomgeving te initiëren, kalibreer de afstanden op de VR-software en gedrag ESP32-code en test de acquisitie en online plotting van het loop- en likgedrag van de muis met de meegeleverde Processing-taalschets.

  1. Open het terminalvenster op de single-board computer en navigeer naar de map HallPassVR (terminal:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)
  2. Voer de VR GUI: (terminal)> python3 HallPassVR_GUI.py uit (het GUI-venster wordt geopend, Figuur 3A).
  3. Grafische software GUI
    1. Selecteer en voeg vier elementen (afbeeldingen) toe uit de keuzelijst (of selecteer het vooraf opgeslagen patroon hieronder en klik vervolgens op Uploaden) voor elk van de drie patronen langs de track en klik vervolgens op Genereren.
      OPMERKING: Nieuwe afbeeldingsbestanden (.jpeg) kunnen in de map HallPassVR/HallPassVR_wired/images/ELEMENTS worden geplaatst voordat de GUI wordt uitgevoerd.
    2. Selecteer vloer- en plafondafbeeldingen in de vervolgkeuzemenu's en stel de lengte van de track in op 2 m voor deze voorbeeldcode (deze moet gelijk zijn aan de trackLength in millimeters [mm] in het gedrag ESP32-code en Processing-code).
    3. Geef dit patroon desgewenst een naam (het wordt opgeslagen in HallPassVR_wired/afbeeldingen/PATH_HIST).
    4. Klik op de knop Start (wacht tot het VR-venster wordt gestart voordat u ergens anders klikt). De VR-omgeving verschijnt op Scherm #2 (projectiescherm, Figuur 3B, C).
  4. Voer de verwerkingsschets uit om de gedragsgegevens / -beweging te verzamelen en te plotten.
    1. Open VRwheel_RecGraphSerialTxt.pde in de verwerkings-IDE.
    2. Verander het dier = "yourMouseNumber"; variabel, en stel sessionMinutes in gelijk aan de lengte van de gedragssessie in minuten.
    3. Klik op de knop Uitvoeren op de verwerkings-IDE.
    4. Controleer het venster Verwerkingsplot, dat de huidige muispositie op de virtuele lineaire track moet weergeven terwijl het wiel draait, samen met de beloningszones en lopende histogrammen van de licks, ronden en beloningen die elke 30 s worden bijgewerkt (Figuur 3D). Verplaats het loopwiel met de hand om te simuleren dat de muis wordt uitgevoerd om te testen, of gebruik een testmuis voor de eerste installatie.
    5. Klik op het plotvenster en druk op de q-toets op het toetsenbord om te stoppen met het verkrijgen van gedragsgegevens. Een tekstbestand van de gedragsgebeurtenissen en -tijden (meestal <2 MB groot per sessie) en een afbeelding van het laatste plotvenster (.png) wordt opgeslagen wanneer sessionMinutes is verstreken of de gebruiker op de q-toets drukt om af te sluiten.
      OPMERKING: Vanwege de kleine omvang van de uitvoer .txt bestanden, wordt geschat dat ten minste enkele duizenden gedragsopnamen kunnen worden opgeslagen op de SD-kaart van de single-board computer. Gegevensbestanden kunnen worden opgeslagen op een USB-stick voor latere analyse, of als ze zijn verbonden met een lokaal netwerk, kunnen de gegevens op afstand worden beheerd.
  5. Kalibreer de lengte van het gedrag met de lengte van de VR-track.
    1. Beweeg het wiel met de hand terwijl u de VR-gang en muispositie observeert (op de verwerkingsplot). Als de VR-gang eindigt voor/nadat de muis het einde van de gedragsplot heeft bereikt, verhoogt/verlaagt u de VR-tracklengte stapsgewijs (HallPassVR_wired.py, corridor_length_default, in centimeters [cm]) totdat de track tegelijkertijd in de twee systemen wordt gereset.
      OPMERKING: De code is momenteel gekalibreerd voor een loopwiel met een diameter van 6 inch met behulp van een roterende encoder met een kwadratuur met 256 posities, dus de gebruiker moet mogelijk de VR (HallPassVR_wired.py, corridor_length_default, in centimeters [cm]) en gedragscode (wheel_VR_behavior.ino, trackLength, in millimeters [mm]) wijzigen om rekening te houden met andere configuraties. De gedragspositie wordt echter op elke VR-ronde gereset om de correspondentie tussen de systemen te behouden.

4. Muistraining en ruimtelijk leergedrag

OPMERKING: De muizen worden geïmplanteerd voor hoofdfixatie, gewend aan hoofdsteun en vervolgens getraind om op het wiel te rennen en consequent te likken voor vloeibare beloningen geleidelijk ("willekeurig foerageren"). Muizen die consistent rennen en likken bereiken, worden vervolgens getraind op een ruimtelijke verborgen beloningstaak met behulp van de VR-omgeving, waarin een enkele beloningszone wordt gepresenteerd volgens een visuele aanwijzing op de virtuele lineaire track. Ruimtelijk leren wordt vervolgens gemeten als verhoogde likselectiviteit voor posities direct voorafgaand aan de beloningszone.

  1. Hoofd na implantatie chirurgie: Deze procedure wordt in detail elders in dit tijdschrift en in andere beschreven, dus raadpleeg deze literatuur voor specifieke instructies 7,17,18,19,20,21.
  2. Waterschema
    1. Voer waterbeperking 24 uur voorafgaand aan de eerste behandeling uit (zie hieronder) en sta ad libitum waterverbruik toe na elke sessie van gewenning of hoofdingetogen gedrag. Verminder de tijd van waterbeschikbaarheid geleidelijk gedurende drie dagen tijdens de gewenning tot ongeveer 5 minuten en pas de hoeveelheid voor individuele muizen zodanig aan dat hun lichaamsgewicht niet onder 80% van hun pre-restrictiegewicht daalt. Controleer dagelijks het gewicht van elk dier en observeer ook de conditie van elke muis op tekenen van uitdroging22. Muizen die niet in staat zijn om 80% van hun pre-restrictieve lichaamsgewicht te behouden of uitgedroogd lijken, moeten uit het onderzoek worden verwijderd en gratis water beschikbaar krijgen.
      OPMERKING: Waterbeperking is nodig om de muizen te motiveren om op het wiel te rennen met behulp van vloeibare beloningen, en om ruimtelijk likken te gebruiken als een indicatie van geleerde locaties langs de baan. Institutionele richtlijnen kunnen verschillen over specifieke instructies voor deze procedure, dus de gebruiker moet zijn individuele institutionele dierverzorgingscommissies raadplegen om de gezondheid en het welzijn van dieren tijdens waterbeperking te waarborgen.
  3. Behandeling: Behandel de geïmplanteerde muizen dagelijks om ze te laten wennen aan menselijk contact, waarna beperkt ad libitum water kan worden toegediend als versterking (1-5 min / dag, 2 dagen tot 1 week).
  4. Gewenning aan de hoofdsteun
    1. Wen de muizen gedurende langere tijd aan de hoofdsteun door ze in het hoofdsteunapparaat te plaatsen terwijl ze worden beloond met af en toe druppels water om de stress van hoofdfixatie te verminderen.
    2. Begin met 5 minuten hoofdfixatie en verhoog de duur met stappen van 5 minuten per dag totdat de muizen in staat zijn om fixatie tot 30 minuten te verdragen. Verwijder de muizen uit het fixatieapparaat als ze lijken te worstelen of heel weinig bewegen. Muizen beginnen echter over het algemeen spontaan binnen enkele sessies op het wiel te rennen, wat betekent dat ze klaar zijn voor de volgende fase van de training.
      OPMERKING: Muizen die herhaaldelijk worstelen onder hoofdsteun of niet rennen en likken voor beloningen, moeten worden teruggevallen naar eerdere stadia van training en uit het onderzoek worden verwijderd als ze gedurende drie van dergelijke herstelcycli geen vooruitgang boeken (zie tabel 1).
  5. Run/lick training (willekeurig foerageren)
    OPMERKING: Om de ruimtelijke leertaak in de VR-omgeving uit te voeren, moeten de muizen eerst leren om op het wiel te rennen en consequent te likken voor incidentele beloningen. De progressie in de operante gedragsparameters wordt geregeld via de gedrags-ESP32-microcontroller.
    1. Willekeurig foerageren met niet-operante beloningen
      1. Voer het gui-programma van de grafische software uit met een pad van willekeurige visuele elementen (gebruikerskeuze, zie stap 3.3).
      2. Upload het gedragsprogramma naar het gedrag ESP32 met meerdere niet-operante beloningen (codevariabelen: isOperant=0, numRew=4, isRandRew=1) om de muizen te conditioneren om te rennen en te likken. Voer de muizen uit in sessies van 20-30 minuten totdat de muizen minstens 20 ronden per sessie rennen en lik voor beloningen die op willekeurige locaties worden gepresenteerd (één tot vier sessies).
    2. Willekeurig foerageren met operante beloningen op alternatieve ronden
      1. Upload het gedragsprogramma met altOpt=1 (afwisselend operant/niet-operante rondes) en train de muizen totdat ze likken voor zowel niet-operante als operante beloningszones (één tot vier sessies).
    3. Volledig operabel willekeurig foerageren
      1. Upload het gedragsprogramma met vier operante willekeurige beloningszones (gedrag ESP32-codevariabelen: isOperant=1, numRew=4, isRandRew=1). Aan het einde van deze trainingsstap moeten de muizen consistent lopen en testlicks uitvoeren over de gehele baanlengte (één tot vier sessies; Figuur 4A).
  6. Ruimtelijk leren
    OPMERKING: Voer een ruimtelijk leerexperiment uit met een enkele verborgen beloningszone op enige afstand van een enkele visuele aanwijzing door een 2 m lange gang te selecteren met donkere panelen langs het spoor en een enkel visueel stimuluspaneel met hoog contrast in het midden als een visuele aanwijzing (positie van 0,9-1,1 m), analoog aan recente experimenten met ruimtelijke olfactorische signalen20 . Muizen moeten likken op een beloningszone (op een positie van 1,5-1,8 m) op een afstand van de visuele cue in de virtuele lineaire baanomgeving.
    1. Voer het grafische softwareprogramma uit met een pad van een donkere gang met een enkele visuele aanwijzing in het midden (bijvoorbeeld schaakbord, zie stap 3.3, figuur 3A).
    2. Upload het gedragsprogramma met één verborgen beloningszone naar het gedrag ESP32 (gedrag ESP32-codevariabelen: isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500}).
    3. Plaats de muis voorzichtig in het hoofdfixatieapparaat, stel de liktuit in op een locatie net voor de mond van de muis en plaats het muiswiel in het midden van de projectieschermzone. Zorg ervoor dat de kop van de muis ~12-15 cm van het scherm verwijderd is na de laatste aanpassingen.
    4. Stel de naam van het dier in de verwerkingsschets in en druk vervolgens op uitvoeren in de verwerkings-IDE om te beginnen met het verzamelen en plotten van de gedragsgegevens (zie stap 3.4).
    5. Voer de muis uit voor sessies van 30 minuten met een enkele verborgen beloningszone en een enkele visuele aanwijzing VR-gang.
    6. Offline: download het .txt gegevensbestand uit de map Processing sketch en analyseer het ruimtelijke likgedrag (bijvoorbeeld in Matlab met de meegeleverde bestanden procVRbehav.m en vrLickByLap.m).
      OPMERKING: De muizen moeten in eerste instantie testlicks uitvoeren over de hele virtuele baan ("willekeurig foerageren") en vervolgens selectief beginnen te likken in de buurt van de beloningslocatie na de VR-visuele aanwijzing (figuur 4).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Deze open-source virtual reality-gedragsopstelling stelde ons in staat om likgedrag te kwantificeren als een uitlezing van ruimtelijk leren terwijl hoofd-ingetogen muizen door een virtuele lineaire spooromgeving navigeerden. Zeven C57BL / 6-muizen van beide geslachten op de leeftijd van 4 maanden werden op een beperkt waterschema geplaatst en eerst getraind om continu op lage niveaus te likken terwijl ze op het wiel liepen voor willekeurige ruimtelijke beloningen ("willekeurig foerageren") zonder VR. Hoewel hun prestaties aanvankelijk werden beïnvloed toen ze werden verplaatst naar de VR-projectieschermopstelling met een willekeurig gangpatroon van 2 m, keerde het terug naar eerdere niveaus binnen verschillende VR-sessies (figuur 4A). De muizen die de willekeurige foerageerstrategie met VR ontwikkelden (zes van de zeven muizen, 86%; één muis liep niet consistent en werd uitgesloten) moesten vervolgens likken aan een niet-gecude operante beloningszone op 0,5 m na een enkele visuele locatiecue in het midden van een anders functieloze virtuele baan van 2 m om waterbeloningen te ontvangen ("verborgen beloningstaak"). Volgens de huidige pilotgegevens met dit systeem waren vier van de zeven (57%) muizen in staat om de verborgen beloningstaak te leren met een enkele visuele aanwijzing in twee tot vier sessies, zoals blijkt uit het likken in de buurt van de beloningszone met toenemende selectiviteit (tabel 1, figuur 4B, C), wat vergelijkbaar is met onze eerdere resultaten met een niet-VR-loopband17 . Dit feit is belangrijk in de studie van ruimtelijk leren, omdat het de monitoring en / of manipulatie van neurale activiteit tijdens kritieke perioden van leren mogelijk maakt zonder uitgebreide training. Bovendien vertoonden de muizen zowel substantieel leren binnen de sessie als tussen de sessies (figuur 4C), wat een mogelijkheid bood om zowel de neurale circuitaanpassingen op korte als op lange termijn te observeren die gepaard gaan met ruimtelijk leren. We hebben de leersnelheid van een gelijkwaardige niet-VR-taak niet getest, maar veel klassieke hippocampusafhankelijke ruimtelijke taken in de echte wereld, zoals het Morris-waterdoolhof, vereisen nog uitgebreidere training en presenteren dramatisch minder gedragsproeven en zijn dus minder geschikt voor het monitoren van leergedrag samen met neurale activiteitsveranderingen.

Terwijl een meerderheid van de muizen in deze pilotgroep (57%) in staat was om de verborgen beloningstaak in een klein aantal sessies te leren, kunnen extra muizen ruimtelijk leren vertonen over langere tijdschalen, en geïndividualiseerde training zou deze fractie van muizen moeten verhogen. Inderdaad, variaties in leersnelheden kunnen nuttig zijn voor het dissociëren van de specifieke relaties tussen neurale activiteit in hersengebieden zoals de hippocampus en gedragsleren. We merkten echter op dat een klein percentage muizen niet leerde om op het wiel te rennen of te likken voor niet-operante of operante beloningen (een van de zeven muizen, 14%) en dus niet kon worden gebruikt voor latere experimenten. Extra hantering en gewenning en een vermindering van de algemene stresstoestand van het dier door verdere versterking, zoals door het gebruik van wenselijke voedseltraktaties, kunnen nuttig zijn om deze dieren te helpen actief rennen en likken aan te nemen tijdens hoofdingetogen gedrag op het wiel.

Door de aanwezigheid en positie van de cue- en beloningszones op intermitterende ronden op de virtuele baan te manipuleren, kan een experimentator verder de afhankelijkheid onderscheiden van ruimtelijk selectief likken op specifieke informatiekanalen in VR om bijvoorbeeld te bepalen hoe muizen vertrouwen op lokale of verre signalen of zelfbewegingsinformatie om hun locatie in een omgeving vast te stellen. De likkende selectiviteit van muizen die de verborgen beloningslocatie hebben geleerd, moet worden beïnvloed door de verschuiving of weglating van de visuele cue langs het spoor als ze deze ruimtelijke cue actief gebruiken als een oriëntatiepunt, zoals we hebben aangetoond in een recent werk met behulp van ruimtelijke olfactorische cues20. Maar zelfs met het eenvoudige voorbeeld dat we hier hebben gepresenteerd, geeft het zeer selectieve likken van de muizen (figuur 4C, rechts) aan dat ze de VR-visuele omgeving coderen om hun beslissingen te informeren over waar ze zijn en dus wanneer ze moeten likken, omdat de beloningszone alleen duidelijk is in relatie tot visuele signalen in de VR-omgeving. Dit VR-systeem maakt ook de presentatie mogelijk van andere modaliteiten van ruimtelijke en contextuele signalen naast de visuele VR-omgeving, zoals olfactorische, tactiele en auditieve signalen, die kunnen worden gebruikt om de selectiviteit van neurale activiteit en gedrag te testen voor complexe combinaties van verschillende sensorische signalen. Bovendien, hoewel we niet hebben getest op de afhankelijkheid van taakprestaties van hippocampusactiviteit, toonde een recente studie met een vergelijkbare taak maar met tactiele signalen een verstoring van ruimtelijk leren met hippocampale inactivatie23, wat moet worden bevestigd voor de VR verborgen beloningstaak die in deze studie wordt uitgevoerd.

Figure 1
Figuur 1: Head-restricted VR-hardware-opstelling: projectiescherm, loopwiel en hoofdfixatie-apparaat. (A) Een 3D-ontwerpschema van het loopwiel en het projectiescherm. (B) Voltooide VR-gedragsinstelling. De VR-omgeving wordt gerenderd op (1) een single-board computer en geprojecteerd op een parabolisch (2) achterprojectiescherm (gebaseerd op het ontwerp van Chris Harvey's lab15,16). (3) Wielassemblage. (4) Hoofdposthouder. (5) Waterreservoir voor beloningslevering. (C) Bovenaanzicht van het projectiescherm en de gedragsopstelling. (1) LED-projector. (2) Spiegel voor het achterop projecteren van de VR-gang op het gebogen scherm. (3) Loopwiel. (D) Achteraanzicht van het wiel. Wielrotaties worden vertaald door de (1) roterende encoder en verzonden naar de single-board computer via een (2) ESP32-microcontroller. (3) Een tweeassige goniometer wordt gebruikt om de positie van de kop voor optische beeldvorming te verfijnen. (E) Opstelling op het niveau van het inbrengen van de muis, met vermelding van de (1) kopfixatieapparatuur en (2) likpoortplaatsing over het (3) loopwieloppervlak. (F) Foto van de (1) likpoort bevestigd aan de (2) flexarm voor nauwkeurige plaatsing van de beloningspuit in de buurt van de mond van de muis. Beloningen worden gegeven via een (3) magneetventiel dat wordt bestuurd door het gedrag ESP32 (via de OpenMaze OMwSmall PCB). Ook zichtbaar is de roterende encoder gekoppeld aan de (4) wielas en (5) de goniometer voor balhoofdhoekverstelling. Klik hier om een grotere versie van deze figuur te bekijken.

Figure 2
Figuur 2: VR-elektronica setup schematisch. Dit schema toont de meest relevante verbindingen tussen de elektronische componenten in het open-source virtual reality-systeem voor muizen. (A) Muizen worden met het hoofd vastgehouden op een aangepast 3D-geprint hoofdfixatieapparaat boven een acryl loopwiel. (B) De rotatie van de wielas wanneer de muis draait, wordt gedetecteerd door een roterende encoder met hoge resolutie die is aangesloten op een microcontroller (roterende decoder ESP32). (C) Bewegingsinformatie wordt via een seriële verbinding overgebracht naar een single-board computer met de HallPassVR GUI-software en 3D-omgeving, die de positie in de VR virtuele lineaire trackomgeving bijwerkt op basis van de voortbeweging van de muis. (D) De gerenderde VR-omgeving wordt naar de projector/het scherm gestuurd via de HDMI #2-video-uitgang van de single-board computer (VR-video, HDMI). (E) Bewegingsinformatie van de roterende encoder ESP32 wordt ook verzonden naar een andere microcontroller (Behavior ESP32 met de OpenMaze OMwSmall PCB), die de positie van de muis gebruikt om ruimtelijke, niet-VR-gedragsgebeurtenissen (zoals beloningszones of ruimtelijke olfactorische, tactiele of auditieve stimuli) te regelen in samenwerking met de VR-omgeving en meet het likken van de beloningspuit door de muis via capacitieve aanraakdetectie. Klik hier om een grotere versie van deze figuur te bekijken.

Figure 3
Figuur 3: Grafische software GUI en gedrag. (A) HallPassVR GUI: Vier afbeeldingen worden geselecteerd om over elk ruimtelijk patroon te tegelen dat een derde van de spoorlengte beslaat (of het eerder opgeslagen combinatiepatroon wordt geladen) voor drie patronen in elk pad dat gelijk is aan de spoorlengte. Plafond- en vloerafbeeldingen worden geselecteerd en vervolgens wordt op Start gedrukt om de VR-omgeving te initialiseren op de HDMI-uitgang (projectiescherm) van de single-board computer. (B) Voorbeeld virtuele corridor gemaakt met de GUI-parameters weergegeven in A en gebruikt voor een verborgen beloningsexperiment om ruimtelijk leren te testen. (C) Foto van een met het hoofd in bedwang gehouden muis die op het wiel loopt in de onder B getoonde virtuele omgeving. (D) Het bovenste paneel toont de online plot van diergedrag in een VR-omgeving uit de meegeleverde verwerkingsschets om de gedragsgegevens vast te leggen en te plotten. Licks, ronden en beloningen worden uitgezet per 30 s tijdbakken voor de 30 minuten durende sessie tijdens verborgen beloning ruimtelijk leren. Het onderste paneel toont de huidige muispositie (zwart) en de locatie van eventuele beloningszones (grijs) tijdens het gedrag. Klik hier om een grotere versie van deze figuur te bekijken.

Figure 4
Figuur 4: Ruimtelijk leren met behulp van de grafische softwareomgeving. Representatieve ruimtelijke likgegevens van één dier (A) tijdens willekeurig foerageren met willekeurige aanwijzingen langs de virtuele lineaire baan en (B-C) 2 dagen training met een statische verborgen beloningszone op 1,5 m met een enkele visuele cue in het midden van de baan. (A) Dag 0 willekeurig foerageren voor vier beloningszones per ronde, willekeurig geselecteerd uit acht posities gelijkmatig verdeeld over de 2 m virtuele lineaire baan. (Links) Het gemiddelde aantal licks per ruimtelijke bak (5 cm) over de sessie van 30 minuten (boven: VR-gang met willekeurige visuele stimuluspanelen). (Rechts) Aantal licks in elke 5 cm ruimtelijke bak per ronde tijdens deze sessie, weergegeven door een heatmap. (B) Dag 1, de eerste trainingsdag met een enkele beloningszone op 1,5 m (rood vak op het baandiagram, boven) met behulp van een virtuele baan met een enkele prikkel met hoog contrast op positie 0,8-1,2 m. (Links) Gemiddelde ruimtelijke liktellingen over de sessie, met toenemende likken wanneer het dier de beloningszone nadert. (Rechts) Ruimtelijke licks per ronde, met een verhoogde selectiviteit van likken in het pre-reward-gebied. (C) Dag 2, vanuit dezelfde verborgen beloningstaak en virtuele gang als Dag 1 en vanuit dezelfde muis. (Links) Totaal aantal licks per ruimtelijke bak, met een afname van licks buiten de pre-reward zone. (Rechts) Ruimtelijke licks per ronde op dag 2, met meer likken voorafgaand aan de beloningszone en minder likken elders, wat wijst op de ontwikkeling van ruimtelijk specifiek anticiperend likken. Hieruit blijkt dat dit dier de (ongenuanceerde) verborgen beloningslocatie heeft geleerd en een strategie heeft ontwikkeld om inspanning (likken) te minimaliseren in regio's waar ze niet verwachten dat er een beloning aanwezig is. Klik hier om een grotere versie van deze figuur te bekijken.

Gedragsmatige uitkomst Aantal muizen Percentage muizen
Muis liep/likte niet 1 14%
Alleen willekeurig foerageren 2 29%
Aangeleerde verborgen beloning 4 57%
Totaal (N) 7

Tabel 1: VR ruimtelijk leergedrag pilot resultaten. Zeven C57BL/6-muizen van beide geslachten op de leeftijd van 4 maanden werden geleidelijk getraind om een ruimtelijke verborgen beloningstaak in VR uit te voeren. Van deze muizen rende/likte één muis niet na de eerste training (een van de zeven muizen, 14%), terwijl zes van de resterende muizen leerden rennen op het wiel en likken voor willekeurige ruimtelijke beloningen in de willekeurige foerageerstap van de training (zes van de zeven muizen, 86%). Vier van de zes muizen die in staat waren om het willekeurige foerageergedrag uit te voeren, leerden vervolgens selectief te likken in afwachting van de niet-cued beloning in de verborgen beloningstaak (vier van de zeven muizen, 57% van de muizen in totaal, vier van de zes muizen, 66% van de willekeurige foeragerende muizen), terwijl twee dat niet deden (twee van de zeven muizen, 29%).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Dit open-source VR-systeem voor muizen werkt alleen als de seriële verbindingen goed zijn gemaakt tussen de roterende en gedragsmatige ESP32-microcontrollers en de single-board computer (stap 2), wat kan worden bevestigd met behulp van de IDE seriële monitor (stap 2.4.5). Voor succesvolle gedragsresultaten van dit protocol (stap 4), moeten de muizen gewend zijn aan het apparaat en comfortabel op het wiel lopen voor vloeibare beloningen (stappen 4.3-4.5). Dit vereist voldoende (maar niet overmatige) waterbeperking, omdat muizen die ad libitum water in de thuiskooi krijgen niet zullen rennen en likken voor beloningen (d.w.z. om hun waargenomen locatie aan te geven), en uitgedroogde muizen kunnen lethargisch zijn en niet op het wiel rennen. Het is ook vermeldenswaard dat er alternatieve methoden zijn om muisgedrag te motiveren zonder waterbeperking24; We hebben deze methoden hier echter niet getest. Voor de trainingsprocedure kunnen dieren die in eerste instantie niet rennen, ad hoc (d.w.z. niet-ruimtelijke) waterbeloningen krijgen van de experimentator via een bijgevoegde optionele druk op de knop, of het wiel kan voorzichtig worden bewogen om de voortbeweging aan te moedigen. Om willekeurig foerageergedrag te ontwikkelen, moeten muizen die rennen maar niet likken, worden uitgevoerd met niet-operante beloningen (gedrag ESP32-code: isOperant = 0;, stap 4.5.1) totdat ze rennen en likken voor beloningen, en ze kunnen dan worden uitgevoerd met afwisselende ronden van niet-operante en operante beloningszones (altOpt = 1; Stap 4.5.2) totdat ze beginnen te likken op operante ronden voordat ze naar volledig operante willekeurige beloningszones gaan (stap 4.5.3).

Hoewel we volledige instructies en voorbeeldresultaten hebben gegeven voor een basisset experimenten die gericht zijn op het uitlokken van één vorm van ruimtelijk leren (geconditioneerd likken op een verborgen beloningslocatie in de virtuele lineaire trackomgeving), kan dezelfde basishardware- en software-instelling ook worden aangepast voor de levering van complexere visuospatiale omgevingen met behulp van het pi3d Python-pakket voor Raspberry Pi. Dit systeem kan bijvoorbeeld complexere doolhoven bevatten, zoals gangen met variabele lengtes, meerdere patronen en 3D-objecten en naturalistische 3D VR-landschappen. Bovendien kan de gedragssoftware voor het leveren van waterbeloningen en andere niet-visuele stimuli worden aangepast voor andere trainingsparadigma's door belangrijke variabelen te wijzigen (gepresenteerd aan het begin van de ESP32-code van het gedrag) of door nieuwe soorten ruimtelijke gebeurtenissen in dezelfde code in te voegen. We adviseren gebruikers graag over methoden voor het implementeren van andere soorten gedragsexperimenten met deze VR-opstelling of bij het oplossen van problemen.

Immersieve VR-omgevingen zijn een veelzijdig hulpmiddel gebleken voor het bestuderen van de onderliggende neurale mechanismen van ruimtelijke navigatie 6,7,8, beloningsleergedrag9 en visuele perceptie25, zowel in klinische als dierstudies. Het belangrijkste voordeel van deze aanpak is dat de experimentator strakke controle heeft over contextuele elementen zoals visuele signalen en specifieke ruimtelijke stimuli (bijv. Beloningen en olfactorische, auditieve of tactiele stimuli), wat niet praktisch is in echte omgevingen met vrij bewegende dieren. Er moet echter worden opgemerkt dat er verschillen kunnen bestaan in de manier waarop VR-omgevingen worden gecodeerd door hersengebieden zoals de hippocampus in vergelijking met het gebruik van echte omgevingen26,27. Met dit voorbehoud stelt het gebruik van VR-omgevingen experimentatoren in staat om een groot aantal gedragsproeven uit te voeren met zorgvuldig gecontroleerde stimuli, waardoor de bijdragen van verschillende sensorische elementen aan ruimtelijke navigatie kunnen worden losgekoppeld.

De complexiteit van het bouwen van aangepaste VR-opstellingen vereist vaak een uitgebreide achtergrond in engineering en computerprogrammering, wat de installatietijd kan verlengen en het aantal apparaten kan beperken dat kan worden gebouwd om muizen te trainen voor experimenten. VR-opstellingen zijn ook verkrijgbaar bij commerciële leveranciers; Deze oplossingen kunnen echter duur en beperkt zijn als de gebruiker nieuwe functies wil implementeren of de trainings- / opnamecapaciteit wil uitbreiden naar meer dan één opstelling. De geschatte prijsklasse van de hier gepresenteerde open-source VR-opstelling is < $ 1.000 (USD); een vereenvoudigde versie voor training (bijvoorbeeld het ontbreken van goniometers voor het aanpassen van de hoofdhoek) kan echter worden geproduceerd voor < $ 500 (USD), waardoor de constructie van meerdere opstellingen voor het trainen van muizen op grotere schaal mogelijk is. De modulaire opstelling van componenten maakt ook de integratie van VR met andere systemen voor gedragscontrole mogelijk, zoals het loopbandsysteem met ruimtelijke olfactorische en tactiele stimuli die we eerder hebben gebruikt20, en dus sluiten VR en andere stimulusmodaliteiten elkaar niet uit.

Dit open-source VR-systeem met de bijbehorende hardware (loopwiel, projectiescherm en hoofdfixatieapparaat), elektronica-opstelling (single-board computer en ESP32-microcontrollers) en software (VR GUI en gedragscode) biedt een goedkope, compacte en eenvoudig te gebruiken opstelling voor het leveren van geparametriseerde meeslepende VR-omgevingen aan muizen tijdens hoofdbeperkte ruimtelijke navigatie. Dit gedrag kan vervolgens worden gesynchroniseerd met neurale beeldvorming of elektrofysiologische opname om neurale activiteit tijdens ruimtelijk leren te onderzoeken (stap 2.3.7). Het spectrum van experimentele technieken die compatibel zijn met VR is breed, variërend van ruimtelijk leergedrag alleen tot combinatie met vezelfotometrie, miniscoopbeeldvorming, beeldvorming met één foton en meerdere fotonen en elektrofysiologische technieken (bijv. Neuropixels of intracellulaire opname). Hoewel hoofdsteun noodzakelijk is voor sommige van deze opnametechnieken, kan de uiterst precieze aard van de stimuluspresentatie en de stereotiepe aard van het gedrag ook nuttig zijn voor andere technieken die geen hoofdfixatie vereisen, zoals miniscoopbeeldvorming en vezelfotometrie. Er moet echter worden opgemerkt dat onze capacitieve sensorgebaseerde oplossing voor het detecteren van likjes aanzienlijke ruis kan veroorzaken op elektrofysiologische sporen. Om dergelijke artefacten, optisch of anderszins (bijv. Mechanisch), te voorkomen, moeten sensorgebaseerde oplossingen worden geïmplementeerd voor likdetectie.

Toekomstige verbeteringen aan het VR-systeem worden geüpload naar de GitHub-pagina van het project (https://github.com/GergelyTuri/HallPassVR), dus gebruikers moeten deze pagina regelmatig controleren op updates. We zijn bijvoorbeeld bezig met het vervangen van de bedrade seriële verbindingen tussen de microcontrollers en de single-board computer door Bluetooth-functionaliteit, die eigen is aan de ESP32-microcontrollers die al in dit ontwerp worden gebruikt. Daarnaast zijn we van plan om de HallPassVR GUI te upgraden om de specificatie van verschillende paden in elke gedragssessie mogelijk te maken om verschillende posities te bevatten voor belangrijke visuele stimuli op verschillende ronden. Dit zal een grotere flexibiliteit mogelijk maken voor het scheiden van de impact van specifieke visuele en contextuele kenmerken op de neurale codering van ruimte tijdens ruimtelijk leren.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Clay Lacefield is de oprichter en onderhouder van OpenMaze.org, dat ontwerpen biedt voor de OMwSmall PCB die in dit protocol wordt gebruikt, gratis te downloaden.

Acknowledgments

We willen Noah Pettit van het Harvey-lab bedanken voor de discussie en suggesties tijdens het ontwikkelen van het protocol in dit manuscript. Dit werk werd ondersteund door een BBRF Young Investigator Award en NIMH 1R21MH122965 (G.F.T.), naast NINDS R56NS128177 (R.H., C.L.) en NIMH R01MH068542 (R.H.).

Materials

Name Company Catalog Number Comments
1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

DOWNLOAD MATERIALS LIST

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. Pettit, N., et al. Harvey Lab Mouse VR. , Available from: https://github.com/Harvey/Lab/mouseVR (2021).
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Tags

Neurowetenschappen Nummer 193
Een open-source virtual reality-systeem voor het meten van ruimtelijk leren bij hoofdremmende muizen
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Lacefield, C., Cai, H., Ho, H.,More

Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter