Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Et open source virtual reality-system til måling af rumlig læring i hovedfastholdte mus

Published: March 3, 2023 doi: 10.3791/64863

Summary

Her præsenterer vi en forenklet open source-hardware- og softwareopsætning til undersøgelse af musens rumlige læring ved hjælp af virtual reality (VR). Dette system viser et virtuelt lineært spor til en hovedbehersket mus, der kører på et hjul ved hjælp af et netværk af mikrocontrollere og en enkeltkortcomputer, der kører en brugervenlig Python grafisk softwarepakke.

Abstract

Hovedbeherskede adfærdseksperimenter hos mus giver neuroforskere mulighed for at observere neurale kredsløbsaktivitet med elektrofysiologiske og optiske billeddannelsesværktøjer med høj opløsning, samtidig med at de leverer præcise sensoriske stimuli til et dyr, der opfører sig. For nylig har menneskelige og gnaverundersøgelser ved hjælp af virtual reality (VR) miljøer vist, at VR er et vigtigt redskab til at afdække de neurale mekanismer, der ligger til grund for rumlig læring i hippocampus og cortex på grund af den ekstremt præcise kontrol over parametre som rumlige og kontekstuelle signaler. Opsætning af virtuelle miljøer til gnaverrumlig adfærd kan dog være dyrt og kræve en omfattende baggrund inden for teknik og computerprogrammering. Her præsenterer vi et simpelt, men kraftfuldt system baseret på billig, modulær, open source hardware og software, der gør det muligt for forskere at studere rumlig læring i hovedfastholdte mus ved hjælp af et VR-miljø. Dette system bruger koblede mikrocontrollere til at måle bevægelse og levere adfærdsmæssige stimuli, mens hovedfastholdte mus løber på et hjul sammen med et virtuelt lineært spormiljø gengivet af en grafisk softwarepakke, der kører på en enkeltkortcomputer. Vægten på distribueret behandling gør det muligt for forskere at designe fleksible, modulære systemer til at fremkalde og måle kompleks rumlig adfærd hos mus for at bestemme forbindelsen mellem neurale kredsløbsaktivitet og rumlig læring i pattedyrhjernen.

Introduction

Rumlig navigation er en etologisk vigtig adfærd, hvormed dyr koder funktionerne på nye steder i et kognitivt kort, som bruges til at finde områder med mulig belønning og undgå områder med potentiel fare. Uløseligt forbundet med hukommelse deler de kognitive processer, der ligger til grund for rumlig navigation, et neuralt substrat i hippocampus1 og cortex, hvor neurale kredsløb i disse områder integrerer indgående information og danner kognitive kort over miljøer og begivenheder til senere tilbagekaldelse2. Mens opdagelsen af stedceller i hippocampus3,4 og gitterceller i entorhinal cortex5 har kastet lys over, hvordan det kognitive kort inden for hippocampus dannes, er der stadig mange spørgsmål om, hvordan specifikke neurale undertyper, mikrokredsløb og individuelle underregioner af hippocampus (dentate gyrus og cornu ammonis områder, CA3-1) interagerer og deltager i rumlig hukommelsesdannelse og tilbagekaldelse.

In vivo to-fotonbilleddannelse har været et nyttigt værktøj til at afdække cellulær og populationsdynamik i sensorisk neurofysiologi 6,7; Den typiske nødvendighed af nakkestøtte begrænser imidlertid nytten af denne metode til undersøgelse af pattedyrs rumlige adfærd. Fremkomsten af virtual reality (VR)8 har adresseret denne mangel ved at præsentere fordybende og realistiske visuospatiale miljøer, mens hovedbeherskede mus løber på en bold eller løbebånd for at studere rumlig og kontekstuel kodning i hippocampus 8,9,10 og cortex 11. Desuden har brugen af VR-miljøer med mus, der opfører sig, gjort det muligt for neurovidenskabsforskere at dissekere komponenterne i rumlig adfærd ved præcist at kontrollere elementerne i VR-miljøet12 (f.eks. Visuelt flow, kontekstuel modulation) på måder, der ikke er mulige i virkelige eksperimenter med rumlig læring, såsom Morris-vandlabyrinten, Barnes-labyrinten eller hulbrætopgaver.

Visuelle VR-miljøer gengives typisk på en computers grafiske behandlingsenhed (GPU), som håndterer belastningen ved hurtigt at beregne de tusindvis af polygoner, der er nødvendige for at modellere et bevægeligt 3D-miljø på en skærm i realtid. De store behandlingskrav kræver generelt brug af en separat pc med en GPU, der gengiver det visuelle miljø til en skærm, flere skærme13 eller en projektor14 , da bevægelsen registreres fra et løbebånd, hjul eller skumkugle under dyret. Det resulterende apparat til styring, gengivelse og projicering af VR-miljøet er derfor relativt dyrt, omfangsrigt og besværligt. Desuden er mange sådanne miljøer i litteraturen blevet implementeret ved hjælp af proprietær software, der både er dyr og kun kan køres på en dedikeret pc.

Af disse grunde har vi designet et open source VR-system til at studere rumlig læringsadfærd hos hovedfastholdte mus ved hjælp af en Raspberry Pi single-board computer. Denne Linux-computer er både lille og billig, men indeholder alligevel en GPU-chip til 3D-gengivelse, hvilket muliggør integration af VR-miljøer med skærmen eller adfærdsapparatet i forskellige individuelle opsætninger. Desuden har vi udviklet en grafisk softwarepakke skrevet i Python, "HallPassVR", som bruger single-board computeren til at gengive et simpelt visuospatialt miljø, et virtuelt lineært spor eller gang, ved at rekombinere brugerdefinerede visuelle funktioner valgt ved hjælp af en grafisk brugergrænseflade (GUI). Dette kombineres med mikrocontroller-undersystemer (f.eks. ESP32 eller Arduino) for at måle bevægelse og koordinere adfærd, såsom ved levering af andre metoder til sensoriske stimuli eller belønninger for at lette forstærkningsindlæring. Dette system giver en billig, fleksibel og brugervenlig alternativ metode til at levere visuospatiale VR-miljøer til hovedfastholdte mus under to-foton-billeddannelse (eller andre teknikker, der kræver hovedfiksering) til at studere de neurale kredsløb, der ligger til grund for rumlig læringsadfærd.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle procedurer i denne protokol blev godkendt af Institutional Animal Care and Use Committee of the New York State Psychiatric Institute.

BEMÆRK: En enkeltkortcomputer bruges til at vise et VR-visuelt miljø, der er koordineret med kørslen af en hovedfastholdt mus på et hjul. Bevægelsesinformation modtages som serielt input fra en ESP32-mikrocontroller, der læser en roterende encoder, der er koblet til hjulakslen. VR-miljøet gengives ved hjælp af OpenGL-hardwareacceleration på Raspberry Pi GPU, som bruger pi3d Python 3D-pakken til Raspberry Pi. Det gengivne miljø udsendes derefter via en projektor på en kompakt wraparound parabolsk skærm centreret på den hovedfastholdte mus' synsfelt15,16, mens adfærden (f.eks. slikning som reaktion på rumlige belønninger) måles af en anden adfærd ESP32-mikrocontroller. Den grafiske softwarepakke gør det muligt at skabe virtuelle lineære spormiljøer, der består af gentagne mønstre af visuelle stimuli langs en virtuel korridor eller gang med en grafisk brugergrænseflade (GUI). Dette design er let parameteriseret, hvilket gør det muligt at skabe komplekse eksperimenter med det formål at forstå, hvordan hjernen koder for steder og visuelle signaler under rumlig læring (se afsnit 4). Design til de brugerdefinerede hardwarekomponenter, der er nødvendige for dette system (dvs. løbehjulet, projektionsskærmen og nakkestøtteapparatet) deponeres i et offentligt GitHub-lager (https://github.com/GergelyTuri/HallPassVR). Det anbefales at læse dokumentationen til dette lager sammen med denne protokol, da webstedet vil blive opdateret med fremtidige forbedringer af systemet.

1. Hardware opsætning: Konstruktion af løbehjul, projektionsskærm og hovedfikseringsapparat

BEMÆRK: De brugerdefinerede komponenter til disse opsætninger kan let fremstilles, hvis brugeren har adgang til 3D-udskrivnings- og laserskæringsudstyr eller kan outsources til professionel fremstilling eller 3D-prototypetjenester (f.eks. eMachinehop). Alle designfiler leveres som . STL 3D-filer eller . DXF AutoCAD-filer.

  1. Løbehjul og adfærdsopsætning (figur 1)
    BEMÆRK: Hjulet består af en klar akrylcylinder (6 i diameter, 3 i bredden, 1/8 i tykkelse) centreret på en aksel ophængt fra laserskårne akrylbeslag via kuglelejer. Hjulsamlingen monteres derefter på en let aluminiumsramme (t-slids) og fastgøres sikkert til et optisk brødbræt (figur 1C-E).
    1. Laserskær siderne af hjul- og akselbeslagene fra en 1/4 i akrylplade, og fastgør hjulsiderne til akrylcylinderen med akrylcement. Skru akselflangen ind i midten af hjulets sidestykke.
    2. Indsæt akslen i hjulets midterflange, klik kuglelejerne ind i akselbeslagene, og fastgør dem til den lodrette aluminiumsstøttestang.
    3. Indsæt hjulakslen i de monterede kuglelejer, og lad 0,5-1 tommer af akslen passere lejerne til fastgørelse af den roterende encoder.
    4. Fastgør den roterende encoderholder til enden af akslen modsat hjulet, og indsæt den roterende encoder; Brug derefter akselkoblingen til at koble hjulakslen til den roterende enkoderaksel.
    5. Fastgør slikkeporten til flexarmen, og fastgør den derefter til aluminiumshjulrammen med t-slotmøtrikker. Brug 1/16 tommer slange til at forbinde slikkeporten til magnetventilen og ventilen til vandbeholderen.
      BEMÆRK: Slikkeporten skal være lavet af metal med en loddet ledning for at fastgøre den til de kapacitive berøringsfølerstifter på adfærd ESP32.
  2. Projektionsskærm
    BEMÆRK: VR-skærmen er en lille parabolsk bagprojektionsskærm (lærredstørrelse: 54 cm x 21,5 cm) baseret på et design udviklet i Christopher Harveys laboratorium15,16. Projektionsvinklen (slutstenen) på den anvendte LED-projektor er forskellig fra den tidligere anvendte laserprojektor; således ændres det originale design lidt ved at montere enheden under skærmen og forenkle spejlsystemet (figur 1A, B). Det anbefales stærkt at læse Harvey-laboratoriets dokumentation sammen med vores for at skræddersy VR-miljøet til brugerens behov15.
    1. Laserskær projektionsskærmens sider fra 1/4 i sorte matte akrylplader. Laserskær bagprojektionsspejlet fra 1/4 i spejlet akryl.
    2. Saml projektionsskærmrammen med aluminiumsstængerne, og laserskær akrylpanelerne.
    3. Indsæt det gennemskinnelige projektionsskærmmateriale i parabolspalten i rammen. Indsæt det bageste projektionsspejl i spalten bag på projektionsskærmrammen.
    4. Placer en LED-projektor på den nederste monteringsplade inde i projektionsskærmrammen. Juster projektoren med monteringsbolte for at optimere placeringen af det projicerede billede på den parabolske bagprojektionsskærm.
    5. Forsegl projektorboksenheden for at forhindre lyskontaminering af de optiske sensorer, hvis det er nødvendigt.
  3. Nakkestøtteapparat
    BEMÆRK: Dette design af nakkestøtteapparatet består af to sammenlåsende 3D-printede manifolder til fastgørelse af en metalhovedstolpe (figur 1E, F).
    1. Brug en SLM 3D-printer med høj opløsning til at 3D-udskrive hovedstolpen, der holder armene.
      BEMÆRK: Harpikstrykt plast er i stand til at tilvejebringe stabil hovedfiksering til adfærdseksperimenter; For at opnå maksimal stabilitet til følsomme applikationer som enkeltcelleoptagelse eller to-fotonbilleddannelse anbefales det dog at bruge bearbejdede metaldele (f.eks. eMachineShop).
    2. Installer den 3D-printede hovedstolpeholder på et dobbeltakset goniometer med optiske monteringsstolper, så dyrets hoved kan vippes for at udjævne præparatet.
      BEMÆRK: Denne funktion er uundværlig for langsigtede in vivo-billeddannelseseksperimenter, når det er nødvendigt at finde den samme cellepopulation i efterfølgende billeddannelsessessioner. Ellers kan denne funktion udelades for at reducere omkostningerne ved opsætningen.
    3. Fremhæv hovedstolperne.
      BEMÆRK: To typer hovedstolper med forskellig kompleksitet (og pris) deponeres i linket i materialefortegnelsen sammen med disse instruktioner.
      1. Afhængigt af eksperimenttypen skal du beslutte, hvilken hovedpost der skal implementeres. Hovedstængerne er lavet af rustfrit stål og er generelt outsourcet til ethvert lokalt maskinværksted eller onlinetjeneste (f.eks. eMachineShop) til fremstilling.

2. Opsætning af elektronikhardware/-software (enkeltkortcomputer, ESP32-mikrocontrollere, figur 2)

  1. Konfigurer enkeltkortcomputeren.
    BEMÆRK: Enkeltkortcomputeren, der er inkluderet i materialetabellen (Raspberry Pi 4B), er optimal til denne opsætning, fordi den har en indbygget GPU for at lette VR-miljøgengivelse og to HDMI-porte til eksperimentkontrol / overvågning og VR-projektion. Andre enkeltkortcomputere med disse egenskaber kan potentielt erstattes, men nogle af følgende instruktioner kan være specifikke for Raspberry Pi.
    1. Download single-board computer imager-applikationen til pc'en, og installer operativsystemet (i øjeblikket Raspberry Pi OS r.2021-05-07) på microSD-kortet (16+ GB). Indsæt kortet, og start single-board computeren.
    2. Konfigurer enkeltkortcomputeren til pi3d Python 3D-biblioteket: (menulinje) Indstillinger > Raspberry Pi-konfiguration.
      1. Klik på Skærm > skærmblankning > Deaktiver.
      2. Klik på grænseflader > seriel port > aktiver.
      3. Klik på Ydeevne > GPU-hukommelse > 256 (MB).
    3. Opgrader Python-billedbibliotekspakken til pi3d: (terminal)> sudo pip3 install pillow --upgrade.
    4. Installer pi3d Python 3D-pakken til enkeltkortcomputeren: (terminal)> sudo pip3 installer pi3d.
    5. Forøg HDMI-udgangsniveauet for projektoren: (terminal)> sudo nano /boot/config.txt, fjern kommentarer config_hdmi_boost=4, gem og genstart.
    6. Download og installer det integrerede udviklingsmiljø (IDE) fra arduino.cc/en/software (f.eks. arduino-1.8.19-linuxarm.tar.gz), som er nødvendigt for at indlæse koden på den roterende koder og adfærden ESP32-mikrocontrollere.
    7. Installer understøttelse af ESP32-mikrocontroller på IDE:
      1. Klik på Filer > præferencer > Yderligere Board Manager-URL'er = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Klik på Værktøjer > tavler > bestyrelser > ESP32 (af Espressif). Installer v.2.0.0 (upload mislykkes i øjeblikket på v2.0.4).
    8. Download og installer Processing IDE fra https://github.com/processing/processing4/releases (f.eks. processing-4.0.1-linux-arm32.tgz), som er nødvendig for optagelse og online plotning af musens adfærd under VR.
      BEMÆRK: Arduino- og behandlingsmiljøerne kan køres på en separat pc fra VR-enkeltkortcomputeren, hvis det ønskes.
  2. Konfigurer enkoderen ESP32-forbindelser.
    BEMÆRK: Hastighedsføleren, der er koblet til hjulakslen, måler hjulrotationen med musebevægelse, som tælles med en ESP32-mikrocontroller. Positionsændringerne sendes derefter til single-board computer GPIO seriel port for at styre bevægelsen gennem det virtuelle miljø ved hjælp af den grafiske softwarepakke samt til adfærden ESP32 for at styre belønningszonerne (figur 2).
    1. Tilslut ledningerne mellem den roterende encoderkomponent og den roterende ESP32. Roterende encodere har generelt fire ledninger: +, GND, A og B (to digitale linjer til kvadraturkodere). Tilslut disse via jumperledninger til ESP32 3.3 V, GND, 25, 26 (i tilfælde af den vedhæftede kode).
    2. Tilslut de serielle RX/TX-ledninger mellem den roterende ESP32 og adfærden ESP32. Opret en enkel to-leder forbindelse mellem den roterende ESP32 Serial0 RX/TX (modtag/send) og Serial2-porten af funktionsmåden ESP32 (TX/RX, ben 17, 16; se Serial2-port til højre for OMwSmall PCB). Dette vil overføre bevægelsesoplysninger fra den roterende koder til adfærdsopsætningen for rumlige zoner såsom belønningszoner.
    3. Tilslut de serielle RX/TX-ledninger mellem den roterende ESP32 og single-board computer GPIO (eller direkte USB-forbindelse). Opret en to-leder forbindelse mellem GPIO-benene 14, 15 (RX/TX) og ESP32 Serial2 (TX/RX, ben 17, 16). Dette vil bære bevægelsesinformation fra den roterende encoder til den grafiske softwarepakke, der kører på single-board computeren.
      BEMÆRK: Dette trin er kun nødvendigt, hvis den roterende ESP32 ikke er tilsluttet via en USB (dvs. det er en GPIO-seriel forbindelse ved "/dev/ttyS0"), men HallPassVR_wired.py-koden skal ellers ændres til at bruge "/dev/ttyUSB0". Denne kabelforbindelse erstattes med en trådløs Bluetooth-forbindelse i fremtidige versioner.
    4. Sæt den roterende ESP32 USB i enkeltkortcomputerens USB (eller en anden pc, der kører IDE) for at uploade den indledende roterende koderkode.
  3. Opsæt adfærden ESP32-forbindelser med adfærdshardwaren (via OpenMaze PCB).
    BEMÆRK: Adfærden ESP32-mikrocontroller styrer alle ikke-VR-dyreinteraktioner (leverer ikke-VR-stimuli og belønninger, detekterer muselicks), som er forbundet via et generelt PCB-"breakout board" til ESP32, "OMwSmall", hvis design er tilgængeligt via OpenMaze-webstedet (www.openmaze.org). PCB'et indeholder de elektroniske komponenter, der er nødvendige for at drive de elektromekaniske komponenter, såsom magnetventilerne, der bruges til at levere væskebelønninger.
    1. Tilslut 12 V flydende magnetventil til ULN2803 IC-udgangen yderst til venstre på OMwSmall PCB (pin 12 i eksemplet opsætning og kode). Denne IC porte 12 V strøm til belønningsmagnetventilen, styret af en GPIO-udgang på adfærd ESP32-mikrocontrolleren.
    2. Tilslut lick-porten til ESP32-berøringsindgangen (f.eks. T0, GPIO4 i eksempelkoden). ESP32 har indbygget kapacitiv berøringsregistrering på specifikke stifter, som adfærden ESP32-koden bruger til at registrere musens slikning af den vedhæftede metallickport under VR-adfærden.
    3. Tilslut de serielle RX/TX-ledninger mellem funktionsmåden ESP32 Serial2 (ben 16, 17) og hastighedsføleren ESP32 Serial0 (se trin 2.2.2).
    4. Sæt USB'en i enkeltkortcomputerens USB-port (eller anden pc) for at uploade nye programmer til adfærden ESP32 for forskellige eksperimentelle paradigmer (f.eks. antal/placering af belønningszoner) og for at registrere adfærdsdata ved hjælp af den medfølgende behandlingsskitse.
    5. Sæt 12 V DC-vægadapteren i 2.1 mm tøndestikstikket på opførsel ESP32 OMwSmall PCB for at give strøm til belønningsmagnetventilen.
    6. Sæt enkeltkortcomputerens HDMI #2-udgang i projektorens HDMI-port; dette vil bære VR-miljøet gengivet af single-board computer GPU til projektionsskærmen.
    7. (valgfrit) Tilslut synkroniseringsledningen (ben 26) til en opsætning af neural billeddannelse eller elektrofysiologisk optagelse. Et 3,3 V transistor-transistor-logik (TTL) signal vil blive sendt hver 5. sek. for at justere systemerne med næsten millisekunders præcision.
  4. Konfigurer softwaren: Indlæs firmwaren/softwaren på den roterende encoder ESP32 (figur 2B) og adfærd ESP32 (figur 2E) ved hjælp af IDE, og download VR Python-softwaren til enkeltkortcomputeren. Se https://github.com/GergelyTuri/HallPassVR/software.
    1. Sæt først den roterende encoder ESP32 i single-board computerens USB-port - dette vil automatisk blive navngivet "/ dev / ttyUSB0 " af operativsystemet.
    2. Indlæs den roterende koderkode: Åbn filen RotaryEncoder_Esp32_VR.ino i IDE'en, og vælg derefter ESP32 under Værktøjer > kort > ESP32 Dev-modul. Vælg ESP32-porten ved at klikke på Funktioner > port > /dev/ttyUSB0, og klik derefter på Upload.
    3. Sæt adfærden ESP32 i single-board computerens USB-port næste-dette vil blive navngivet "/ dev / ttyUSB1" af OS.
    4. Indlæs adfærdssekvenskoden på adfærden ESP32 (IDE, ESP32 Dev Module allerede valgt), klik derefter på Tools > Port > /dev/ttyUSB1, og klik på Upload: wheel_VR_behavior.ino.
    5. Test de serielle forbindelser ved at vælge den serielle port for hver ESP32 i IDE (Tools > Port > /dev/ttyUSB0 eller /dev/ttyUSB1) og derefter klikke på Tools > Serial Monitor (baudrate: 115.200) for at observere det serielle output fra drejekortet (USB0) eller adfærdskortet (USB1). Drej hjulet for at se et råt bevægelsesoutput fra den roterende ESP32 på USB0 eller formateret bevægelsesoutput fra adfærden ESP32 på USB1.
    6. Download den grafiske softwarepakke Python-kode fra https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR (til /home/pi/Documents). Denne mappe indeholder alle de filer, der er nødvendige for at køre den grafiske softwarepakke, hvis pi3d Python3-pakken blev installeret korrekt tidligere (trin 2.1).

3. Kørsel og test af den grafiske softwarepakke

BEMÆRK: Kør den grafiske softwarepakke GUI for at starte et VR-lineært spormiljø, kalibrere afstandene på VR-softwaren og adfærd ESP32-kode og teste erhvervelsen og online plotning af musens løbe- og slikkeadfærd med den medfølgende behandlingssprogskitse.

  1. Åbn terminalvinduet i enkeltkortcomputeren, og naviger til HallPassVR-mappen (terminal: > cd / home / pi / Documents / HallPassVR / HallPassVR_Wired)
  2. Kør VR GUI: (terminal)> python3 HallPassVR_GUI.py (GUI-vinduet åbnes, figur 3A).
  3. Grafisk software GUI
    1. Vælg og tilføj fire elementer (billeder) fra listen (eller vælg det forudlagrede mønster nedenfor, og klik derefter på Upload) for hvert af de tre mønstre langs sporet, og klik derefter på Generer.
      BEMÆRK: Nye billedfiler (.jpeg) kan placeres i mappen HallPassVR/HallPassVR_wired/images/ELEMENTS, før GUI'en køres.
    2. Vælg gulv- og loftbilleder i rullemenuerne, og indstil sporets længde til 2 m for denne eksempelkode (den skal svare til sporlængden i millimeter [mm] i funktionsmåden ESP32-kode og behandlingskode).
    3. Navngiv dette mønster, hvis det ønskes (det gemmes i HallPassVR_wired/billeder/PATH_HIST).
    4. Klik på Start-knappen (vent, indtil VR-vinduet starter, før du klikker et andet sted). VR-miljøet vises på skærm #2 (projektionsskærm, figur 3B, C).
  4. Kør behandlingsskitsen for at hente og plotte adfærdsdataene / bevægelsen.
    1. Åbn VRwheel_RecGraphSerialTxt.pde i behandlings-IDE'et.
    2. Skift dyret = "yourMouseNumber"; variabel, og indstil sessionMinutes svarende til længden af adfærdssessionen i minutter.
    3. Klik på knappen Kør behandlings-IDE'et.
    4. Kontroller vinduet Behandling af plot, som skal vise den aktuelle museposition på det virtuelle lineære spor, når hjulet roterer, sammen med belønningszonerne og løbehistogrammerne for licks, omgange og belønninger, der opdateres hver 30. sek. (figur 3D). Skub løbehjulet frem manuelt for at simulere musen, der kører til test, eller brug en testmus til den indledende opsætning.
    5. Klik på plotvinduet, og tryk på q-tasten på tastaturet for at stoppe med at erhverve adfærdsdata. En tekstfil med adfærdsmæssige hændelser og tidspunkter (normalt <2 MB i størrelse pr. session) og et billede af det sidste plotvindue (.png) gemmes, når sessionMinutes er gået, eller brugeren trykker på q-tasten for at afslutte.
      BEMÆRK: På grund af den lille størrelse af output .txt filer anslås det, at mindst flere tusinde adfærdsoptagelser kan gemmes på enkeltkortcomputerens SD-kort. Datafiler kan gemmes på et tommelfingerdrev til efterfølgende analyse, eller hvis de er tilsluttet et lokalt netværk, kan dataene administreres eksternt.
  5. Kalibrer adfærdssporets længde med VR-sporlængden.
    1. Fremfør hjulet manuelt, mens du observerer VR-korridoren og musens position (på behandlingsplottet). Hvis VR-korridoren slutter før/efter, at musen når slutningen af adfærdsplottet, skal du øge/mindske VR-sporlængden trinvist (HallPassVR_wired.py, corridor_length_default, i centimeter [cm]), indtil sporet nulstilles samtidigt i de to systemer.
      BEMÆRK: Koden er i øjeblikket kalibreret til et løbehjul med en diameter på 6 tommer ved hjælp af en kvadratur-roterende encoder med 256 positioner, så brugeren skal muligvis ændre VR (HallPassVR_wired.py, corridor_length_default, i centimeter [cm]) og adfærdskode (wheel_VR_behavior.ino, trackLength, i millimeter [mm]) for at tage højde for andre konfigurationer. Den adfærdsmæssige position nulstilles dog på hver VR-omgang for at opretholde korrespondance mellem systemerne.

4. Mustræning og rumlig læringsadfærd

BEMÆRK: Musene implanteres til hovedfiksering, vænnes til nakkestøtte og trænes derefter til at løbe på hjulet og slikke konsekvent for væskebelønninger gradvist ("tilfældig fouragering"). Mus, der opnår konsekvent løb og slikning, trænes derefter på en rumlig skjult belønningsopgave ved hjælp af VR-miljøet, hvor en enkelt belønningszone præsenteres efter et visuelt signal på det virtuelle lineære spor. Rumlig læring måles derefter som øget slikselektivitet for positioner umiddelbart før belønningszonen.

  1. Hovedoperation efter implantation: Denne procedure er beskrevet detaljeret andetsteds i denne journal og i andre, så se denne litteratur for specifikke instruktioner 7,17,18,19,20,21.
  2. Vand tidsplan
    1. Udfør vandbegrænsning 24 timer før første håndtering (se nedenfor), og tillad ad libitum vandforbrug efter hver session med tilvænning eller hovedbehersket adfærd. Reducer den tid, det tager at have adgang til vand gradvist over tre dage under tilvænning, til ca. 5 minutter, og juster mængden for individuelle mus, så deres kropsvægt ikke falder til under 80 % af deres vægt før begrænsningen. Overvåg vægten af hvert dyr dagligt og overhold også tilstanden af hver mus for tegn på dehydrering22. Mus, der ikke er i stand til at opretholde 80% af deres kropsvægt før begrænsningen eller synes dehydreret, bør fjernes fra undersøgelsen og gives fri vandtilgængelighed.
      BEMÆRK: Vandbegrænsning er nødvendig for at motivere musene til at løbe på hjulet ved hjælp af flydende belønninger, samt at bruge rumlig slikning som en indikation af lærte steder langs banen. Institutionelle retningslinjer kan variere med hensyn til specifikke instruktioner for denne procedure, så brugeren skal konsultere deres individuelle institutionelle dyreplejekomitéer for at sikre dyresundhed og -velfærd under vandbegrænsning.
  3. Håndtering: Håndter de implanterede mus dagligt for at vænne dem til menneskelig kontakt, hvorefter begrænset ad libitum-vand kan administreres som forstærkning (1-5 min/dag, 2 dage til 1 uge).
  4. Tilvænning til nakkestøtten
    1. Væn musene til nakkestøtten i stigende tid ved at placere dem i nakkestøtteapparatet, mens du belønner dem med lejlighedsvise dråber vand for at reducere stresset ved hovedfiksering.
    2. Start med 5 minutters hovedfiksering, og øg varigheden med 5 minutters trin dagligt, indtil musene er i stand til at tolerere fiksering i op til 30 minutter. Fjern musene fra fikseringsapparatet, hvis de ser ud til at kæmpe eller bevæge sig meget lidt. Imidlertid begynder mus generelt at løbe spontant på hjulet inden for flere sessioner, hvilket betyder, at de er klar til næste fase af træningen.
      BEMÆRK: Mus, der gentagne gange kæmper under nakkestøtte eller ikke løber og slikker for belønninger, bør regresseres til tidligere stadier af træning og fjernes fra undersøgelsen, hvis de ikke udvikler sig i tre sådanne afhjælpende cyklusser (se tabel 1).
  5. Løb/slikketræning (tilfældig fouragering)
    BEMÆRK: For at udføre den rumlige læringsopgave i VR-miljøet skal musene først lære at løbe på hjulet og slikke konsekvent for lejlighedsvise belønninger. Progressionen i de operante adfærdsparametre styres via adfærd ESP32 mikrocontroller.
    1. Tilfældig fouragering med ikke-operante belønninger
      1. Kør det grafiske software GUI-program med en sti af vilkårlige visuelle elementer (brugervalg, se trin 3.3).
      2. Upload adfærdsprogrammet til adfærden ESP32 med flere ikke-operante belønninger (kodevariabler: isOperant = 0, numReset = 4, isRandRaw = 1) for at konditionere musene til at løbe og slikke. Kør musene i 20-30 minutters sessioner, indtil musene løber i mindst 20 omgange pr. Session og slik for belønninger præsenteret på tilfældige steder (en til fire sessioner).
    2. Tilfældig fouragering med operante belønninger på alternative omgange
      1. Upload adfærdsprogrammet med altOpt=1 (skiftevis operant/ikke-operant omgang), og træn musene, indtil de slikker i både ikke-operante og operante belønningszoner (en til fire sessioner).
    3. Fuldt operant tilfældigt fouragering
      1. Upload adfærdsprogrammet med fire operante tilfældige belønningszoner (adfærd ESP32-kodevariabler: isOperant = 1, numGrew = 4, isRandGrew = 1). Ved afslutningen af dette træningstrin skal musene løbe konsekvent og udføre testlicks over hele banelængden (en til fire sessioner; Figur 4A).
  6. Rumlig læring
    BEMÆRK: Udfør et rumligt læringseksperiment med en enkelt skjult belønningszone et stykke væk fra et enkelt visuelt signal ved at vælge en 2 m lang gang med mørke paneler langs banen og et enkelt visuelt stimuluspanel med høj kontrast i midten som et visuelt signal (0,9-1,1 m position), analogt med nylige eksperimenter med rumlige olfaktoriske signaler20 . Mus skal slikke i en belønningszone (i en position på 1,5-1,8 m), der ligger en afstand væk fra det visuelle signal i det virtuelle lineære spormiljø.
    1. Kør det grafiske softwareprogram med en sti til en mørk gang med et enkelt visuelt signal i midten (f.eks. skakbræt, se trin 3.3, figur 3A).
    2. Upload adfærdsprogrammet med en enkelt skjult belønningszone til adfærden ESP32 (adfærd ESP32-kodevariabler: isOperant = 1, isRandRew = 0, numRew = 1, rewPosArr []= {1500}).
    3. Placer forsigtigt musen i hovedfikseringsapparatet, juster slikketuden til et sted lige foran musens mund, og placer musehjulet i midten af projektionsskærmzonen. Sørg for, at musens hoved er ~ 12-15 cm væk fra skærmen efter de endelige justeringer.
    4. Angiv dyrets navn i behandlingsskitsen Behandling, og tryk derefter på kør i behandlings-IDE'en for at begynde at hente og plotte adfærdsdataene (se trin 3.4).
    5. Kør musen i 30 minutters sessioner med en enkelt skjult belønningszone og en enkelt visuel cue VR-gang.
    6. Offline: Download .txt-datafilen fra mappen Behandling af skitse, og analyser den rumlige slikkeadfærd (f.eks. i Matlab med de medfølgende filer procVRbehav.m og vrLickByLap.m).
      BEMÆRK: Musene skal først udføre testlicks over hele det virtuelle spor ("tilfældig fouragering") og derefter begynde at slikke selektivt kun nær belønningsstedet efter VR-visuelle signal (figur 4).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Denne open source virtual reality-adfærdsopsætning gjorde det muligt for os at kvantificere slikkeadfærd som en aflæsning af rumlig læring, da hovedbeherskede mus navigerede i et virtuelt lineært spormiljø. Syv C57BL/6-mus af begge køn i alderen 4 måneder blev placeret på en begrænset vandplan og først trænet til at slikke kontinuerligt på lave niveauer, mens de løb på rattet for tilfældige rumlige belønninger ("tilfældig fouragering") uden VR. Selvom deres ydeevne oprindeligt blev påvirket, da de blev flyttet til VR-projektionsskærmopsætningen med et 2 m tilfældigt gangmønster, vendte den tilbage til tidligere niveauer inden for flere VR-sessioner (figur 4A). Musene, der udviklede den tilfældige fourageringsstrategi med VR (seks af de syv mus, 86%; en mus kunne ikke løbe konsekvent og blev udelukket) blev derefter bedt om at slikke på en ikke-cued operant belønningszone på 0,5 m efter en enkelt visuel placering cue midt i en ellers funktionsløs 2 m virtuel bane for at modtage vandbelønninger ("skjult belønningsopgave"). Ifølge de nuværende pilotdata med dette system var fire af de syv (57%) mus i stand til at lære den skjulte belønningsopgave med et enkelt visuelt signal i to til fire sessioner, som vist ved at slikke nær belønningszonen med stigende selektivitet (tabel 1, figur 4B, C), hvilket ligner vores tidligere resultater med et ikke-VR-løbebånd17 . Denne kendsgerning er vigtig i studiet af rumlig læring, da det giver mulighed for overvågning og / eller manipulation af neural aktivitet i kritiske læringsperioder uden omfattende træning. Desuden udviste musene både betydelig læring inden for sessionen såvel som mellem sessionerne (figur 4C), hvilket giver mulighed for at observere både de kortsigtede og langsigtede neurale kredsløbstilpasninger, der ledsager rumlig læring. Vi testede ikke indlæringshastigheden for en tilsvarende ikke-VR-opgave, men mange klassiske hippocampus-afhængige rumlige opgaver i den virkelige verden, såsom Morris-vandlabyrinten, kræver endnu mere omfattende træning og præsenterer dramatisk færre adfærdsforsøg og er derfor mindre egnede til overvågning af læringsadfærd sammen med ændringer i neural aktivitet.

Mens et flertal af mus i denne pilotgruppe (57%) var i stand til at lære den skjulte belønningsopgave i et lille antal sessioner, kan yderligere mus udvise rumlig læring over længere tidsskalaer, og individualiseret træning bør øge denne brøkdel af mus. Faktisk kan variationer i indlæringshastigheder være nyttige til at adskille de specifikke forhold mellem neural aktivitet i hjerneområder som hippocampus og adfærdsmæssig læring. Vi observerede dog, at en lille procentdel af musene ikke lærte at løbe på hjulet eller slikke for hverken ikke-operante eller operante belønninger (en af de syv mus, 14%) og kunne derfor ikke bruges til efterfølgende eksperimenter. Yderligere håndtering og tilvænning og en reduktion i dyrets generelle stresstilstand gennem yderligere forstærkning, såsom ved at bruge ønskelige fodergodbidder, kan være nyttige til at hjælpe disse dyr med at vedtage aktiv løb og slikning under hovedbehersket adfærd på rattet.

Ved at manipulere tilstedeværelsen og placeringen af cue og belønningszoner på intermitterende omgange på den virtuelle bane, kan en eksperimentator yderligere skelne afhængigheden af rumligt selektiv slikning af specifikke informationskanaler i VR for at bestemme, for eksempel, hvordan mus er afhængige af lokale eller fjerne signaler eller selvbevægelsesinformation for at fastslå deres placering i et miljø. Slikkeselektiviteten hos mus, der har lært den skjulte belønningsplacering, bør påvirkes af forskydningen eller udeladelsen af det visuelle signal langs sporet, hvis de aktivt bruger dette rumlige signal som et vartegn, som vi har vist i et nyligt arbejde ved hjælp af rumlige olfaktoriske signaler20. Men selv med det enkle eksempel, vi har præsenteret her, indikerer den meget selektive slikning, som musene opnår (figur 4C, højre), at de koder VR-det visuelle miljø for at informere deres beslutninger om, hvor de er, og derfor hvornår de skal slikke, da belønningszonen kun er tydelig i forhold til visuelle signaler i VR-miljøet. Dette VR-system tillader også præsentation af andre modaliteter af rumlige og kontekstuelle signaler ud over det visuelle VR-miljø, såsom olfaktoriske, taktile og auditive signaler, som kan bruges til at teste selektiviteten af neural aktivitet og adfærd for komplekse kombinationer af forskellige sensoriske signaler. Derudover, selvom vi ikke testede for afhængigheden af opgaveudførelse af hippocampus aktivitet, viste en nylig undersøgelse ved hjælp af en lignende opgave, men med taktile signaler, en forstyrrelse af rumlig læring med hippocampus inaktivering23, hvilket bør bekræftes for VR skjult belønningsopgave udført i denne undersøgelse.

Figure 1
Figur 1: Hovedfastholdt VR-hardwareopsætning: Projektionsskærm, rat og hovedfikseringsapparat. (A) Et 3D-designskema over løbehjulet og projektionsskærmen. (B) Gennemført VR-adfærdsopsætning. VR-miljøet gengives på (1) en enkeltkortcomputer og projiceres på en parabolsk (2) bagprojektionsskærm (baseret på Chris Harveys laboratoriums design15,16). (3) Samling af hjul. (4) Hovedstolpeholder. (5) Vandreservoir til levering af belønning. (C) Set ovenfra af projektionsskærmen og adfærdsopsætningen. (1) LED-projektor. (2) Spejl til bagudprojicering af VR-korridoren på den buede skærm. (3) Løbehjul. (D) Set bagfra af hjulenheden. Hjulrotationer oversættes af (1) drejeføleren og overføres til enkeltkortcomputeren via en (2) ESP32-mikrocontroller. (3) Et dobbeltakset goniometer bruges til at finjustere hovedpositionen til optisk billeddannelse. (E) Opsætning på musens indføringsniveau, der viser (1) hovedfikseringsapparatet og (2) slikkeportens placering over (3) det kørende hjuls overflade. (F) Foto af (1) slikkeporten, der er fastgjort til (2) flexarmen for præcis placering af belønningspuden nær musens munding. Belønninger gives via en (3) magnetventil, der styres af adfærden ESP32 (via OpenMaze OMwSmall PCB). Også synlig er den roterende encoder koblet til (4) hjulakslen og (5) goniometeret til hovedvinkeljustering. Klik her for at se en større version af denne figur.

Figure 2
Figur 2: VR-elektronikopsætningsskematisk. Dette skema viser de mest relevante forbindelser mellem de elektroniske komponenter i open source virtual reality-systemet til mus. (A) Mus er hovedfastholdt på et brugerdefineret 3D-trykt hovedfikseringsapparat over et akrylløbehjul. (B) Hjulakslens rotation, når musen kører, registreres af en roterende encoder med høj opløsning, der er tilsluttet en mikrocontroller (Rotary decoder ESP32). (C) Bevægelsesinformation formidles via en seriel forbindelse til en enkeltkortcomputer, der kører HallPassVR GUI-softwaren og 3D-miljøet, som opdaterer positionen i VR's virtuelle lineære spormiljø baseret på musens bevægelse. (D) Det gengivne VR-miljø sendes til projektoren/skærmen via HDMI #2-videoudgangen på single-board-computeren (VR-video HDMI). (E) Bevægelsesinformation fra den roterende encoder ESP32 sendes også til en anden mikrocontroller (adfærd ESP32 med OpenMaze OMwSmall PCB), som bruger musens position til at kontrollere rumlige, ikke-VR-adfærdsmæssige begivenheder (såsom belønningszoner eller rumlige olfaktoriske, taktile eller auditive stimuli) i samspil med VR-miljøet og måler musens slikning af belønningstuden via kapacitiv berøringssensor. Klik her for at se en større version af denne figur.

Figure 3
Figur 3: Grafisk software GUI og adfærd. (A) HallPassVR GUI: Fire billeder vælges til flise over hvert rumligt mønster, der dækker en tredjedel af sporlængden (eller det tidligere gemte kombinationsmønster er indlæst) for tre mønstre i hver sti svarende til sporlængden. Loft- og gulvbilleder vælges, og derefter trykkes der på Start for at initialisere VR-miljøet på enkeltkortcomputerens HDMI-udgang (projektionsskærm). (B) Eksempel på virtuel korridor oprettet med GUI-parametrene vist i A og brugt til et skjult belønningseksperiment for at teste rumlig læring. (C) Fotografi af en mus, der holder hovedet fast, og som kører på rattet i det virtuelle miljø, vist i B. (D) Toppanelet viser online plot af dyrs adfærd i et VR-miljø fra den medfølgende behandlingsskitse til at registrere og plotte adfærdsdataene. Licks, omgange og belønninger plottes pr. 30 s tidsbeholdere for 30 minutters session under skjult belønning rumlig læring. Det nederste panel viser den aktuelle museposition (sort) og placeringen af eventuelle belønningszoner (grå) under adfærd. Klik her for at se en større version af denne figur.

Figure 4
Figur 4: Rumlig indlæring ved hjælp af det grafiske softwaremiljø. Repræsentative rumlige slikkedata fra et dyr (A) under tilfældig fouragering med tilfældige signaler langs den virtuelle lineære bane og (B-C) 2 dages træning med en statisk skjult belønningszone på 1,5 m med et enkelt visuelt signal midt på sporet. (A) Dag 0 tilfældigt fouragerende i fire belønningszoner pr. omgang, tilfældigt udvalgt fra otte positioner jævnt fordelt langs den virtuelle lineære bane på 2 m. (Venstre) Det gennemsnitlige antal licks pr. rumlig skraldespand (5 cm) i løbet af 30 minutters session (øverst: VR-gang med tilfældige visuelle stimuluspaneler). (Højre) Antal licks i hver 5 cm rumlig skraldespand pr. omgang i løbet af denne session, repræsenteret af et varmekort. (B) Dag 1, den første træningsdag med en enkelt belønningszone på 1,5 m (rød boks på banediagrammet, øverst) ved hjælp af et virtuelt spor, der indeholder en enkelt stimulus med høj kontrast i position 0,8-1,2 m. (Venstre) Gennemsnitlig rumlig slik tæller i løbet af sessionen, der viser stigende slik, når dyret nærmer sig belønningszonen. (Højre) Rumlige licks pr. omgang, der viser øget selektivitet af slikning i området før belønning. (C) Dag 2, fra den samme skjulte belønningsopgave og virtuelle gang som dag 1 og fra den samme mus. (Venstre) Samlet antal licks pr. rumlig skraldespand, der viser et fald i licks uden for zonen før belønning. (Højre) Rumlige slik pr. omgang på dag 2, der viser øget slikning før belønningszonen og nedsat slikning andre steder, hvilket indikerer udviklingen af rumligt specifik foregribende slikning. Dette viser, at dette dyr har lært den (uncued) skjulte belønningsplacering og udviklet en strategi for at minimere indsatsen (slikning) i regioner, hvor de ikke forventer, at en belønning er til stede. Klik her for at se en større version af denne figur.

Adfærdsmæssigt resultat Antal mus Procentdel af mus
Musen løb/slikkede ikke 1 14%
Kun tilfældigt fouragering 2 29%
Lært skjult belønning 4 57%
I alt (N) 7

Tabel 1: VR rumlig læring adfærdsmæssige pilotresultater. Syv C57BL/6-mus af begge køn i alderen 4 måneder blev gradvist trænet til at udføre en rumlig skjult belønningsopgave i VR. Af disse mus løb/slikkede en mus ikke efter indledende træning (en af de syv mus, 14%), mens seks af de resterende mus lærte at løbe på rattet og slikke for tilfældige rumlige belønninger i det tilfældige fourageringstrin i træningen (seks af de syv mus, 86%). Fire af de seks mus, der var i stand til at udføre den tilfældige fourageringsadfærd, lærte efterfølgende at slikke selektivt i forventning om den ikke-cued belønning i den skjulte belønningsopgave (fire af de syv mus, 57% af musene i alt, fire af de seks mus, 66% af tilfældige fouragerende mus), mens to ikke gjorde det (to af de syv mus, 29%).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Dette open source VR-system til mus fungerer kun, hvis de serielle forbindelser er lavet korrekt mellem de roterende og adfærdsmæssige ESP32-mikrocontrollere og enkeltkortcomputeren (trin 2), hvilket kan bekræftes ved hjælp af IDE-serieskærmen (trin 2.4.5). For vellykkede adfærdsmæssige resultater fra denne protokol (trin 4) skal musene være vant til apparatet og være komfortable med at køre på hjulet for flydende belønninger (trin 4.3-4.5). Dette kræver tilstrækkelig (men ikke overdreven) vandbegrænsning, da mus, der får ad libitum-vand i hjemmeburet, ikke løber og slikker for belønninger (dvs. for at indikere deres opfattede placering), og dehydrerede mus kan være sløve og ikke løbe på hjulet. Det er også værd at bemærke, at der er alternative metoder til at motivere museadfærd uden vandbegrænsning24; Vi testede dog ikke disse metoder her. Til træningsproceduren kan dyr, der ikke løber i starten, gives ad hoc (dvs. ikke-rumlige) vandbelønninger af eksperimentatoren via et vedhæftet valgfrit tryk knappen, eller hjulet kan bevæges forsigtigt for at tilskynde til bevægelse. For at udvikle tilfældig fourageringsadfærd skal mus, der løber, men ikke slikker, køres med ikke-operante belønninger (adfærd ESP32-kode: isOperant = 0;, trin 4.5.1), indtil de løber og slikker for belønninger, og de kan derefter køres med skiftevis omgange af ikke-operante og operante belønningszoner (altOpt = 1; Trin 4.5.2), indtil de begynder at slikke på operante omgange, før de flytter til fuldt operante tilfældige belønningszoner (trin 4.5.3).

Mens vi har leveret komplette instruktioner og eksempelresultater for et grundlæggende sæt eksperimenter, der sigter mod at fremkalde en form for rumlig læring (betinget slikning på et skjult belønningssted i det virtuelle lineære spormiljø), kan den samme grundlæggende hardware- og softwareopsætning også ændres til levering af mere komplekse visuospatiale miljøer ved hjælp af pi3d Python-pakken til Raspberry Pi. For eksempel kan dette system inkorporere mere komplekse labyrinter såsom korridorer med variable længder, flere mønstre og 3D-objekter og naturalistiske 3D VR-landskaber. Desuden kan adfærdssoftwaren til levering af vandbelønninger og andre ikke-visuelle stimuli ændres til andre træningsparadigmer ved at ændre nøglevariabler (præsenteret i begyndelsen af adfærd ESP32-koden) eller ved at indsætte nye typer rumlige begivenheder i den samme kode. Vi rådgiver gerne brugere om metoder til implementering af andre typer adfærdseksperimenter med denne VR-opsætning eller i fejlfinding.

Immersive VR-miljøer har vist sig at være et alsidigt værktøj til at studere de underliggende neurale mekanismer i rumlig navigation 6,7,8, belønningsindlæringsadfærd9 og visuel opfattelse25 både i kliniske og dyreforsøg. Den største fordel ved denne tilgang er, at eksperimentatoren har stram kontrol over kontekstuelle elementer såsom visuelle signaler og specifikke rumlige stimuli (fx belønninger og olfaktoriske, auditive eller taktile stimuli), hvilket ikke er praktisk i virkelige miljøer med frit bevægelige dyr. Det skal dog bemærkes, at der kan være forskelle i den måde, hvorpå VR-miljøer kodes af hjerneområder som hippocampus sammenlignet med brugen af virkelige miljøer26,27. Med denne advarsel giver brugen af VR-miljøer eksperimenter mulighed for at udføre et stort antal adfærdsforsøg med omhyggeligt kontrollerede stimuli, hvilket gør det muligt at adskille bidragene fra forskellige sensoriske elementer til rumlig navigation.

Kompleksiteten ved at bygge brugerdefinerede VR-opsætninger kræver ofte en omfattende baggrund inden for teknik og computerprogrammering, hvilket kan øge opsætningstiden og begrænse antallet af apparater, der kan konstrueres til at træne mus til eksperimentering. VR-opsætninger er også tilgængelige fra kommercielle leverandører; Disse løsninger kan dog være dyre og begrænsede, hvis brugeren ønsker at implementere nye funktioner eller udvide trænings-/optagelseskapaciteten til mere end én opsætning. Det anslåede prisklasse for open source VR-opsætningen, der præsenteres her, er <$ 1,000 (USD); dog kan en forenklet version til træning (f.eks. Manglende goniometre til hovedvinkeljustering) produceres for < $ 500 (USD), hvilket tillader konstruktion af flere opsætninger til træning af mus i større skala. Det modulære arrangement af komponenter tillader også integration af VR med andre systemer til adfærdskontrol, såsom løbebåndssystemet med rumlige olfaktoriske og taktile stimuli, vi tidligere har brugt20, og VR og andre stimulusmodaliteter udelukker således ikke hinanden.

Dette open source VR-system med tilhørende hardware (løbehjul, projektionsskærm og hovedfikseringsapparat), elektronikopsætning (enkeltkortcomputer og ESP32-mikrocontrollere) og software (VR GUI og adfærdskode) giver en billig, kompakt og brugervenlig opsætning til levering af parameteriserede fordybende VR-miljøer til mus under hovedbehersket rumlig navigation. Denne adfærd kan derefter synkroniseres med neural billeddannelse eller elektrofysiologisk optagelse for at undersøge neural aktivitet under rumlig læring (trin 2.3.7). Spektret af eksperimentelle teknikker, der er kompatible med VR, er bredt, lige fra rumlig læringsadfærd alene til kombination med fiberfotometri, miniskopbilleddannelse, enkeltfoton- og multifotonbilleddannelse og elektrofysiologiske teknikker (f.eks. Neuropixels eller intracellulær optagelse). Mens nakkestøtte er nødvendig for nogle af disse optagelsesteknikker, kan den ekstremt præcise karakter af stimuluspræsentation og den stereotype karakter af adfærden også være nyttig for andre teknikker, der ikke kræver hovedfiksering, såsom miniskopbilleddannelse og fiberfotometri. Det skal dog bemærkes, at vores kapacitive sensorbaserede løsning til detektering af slik kan medføre betydelig støj på elektrofysiologiske spor. For at undgå sådanne artefakter, optiske eller andre (f.eks. mekaniske), sensorbaserede løsninger bør implementeres til lick detektion.

Fremtidige forbedringer af VR-systemet vil blive uploadet til projektets GitHub-side (https://github.com/GergelyTuri/HallPassVR), så brugerne bør tjekke denne side regelmæssigt for opdateringer. For eksempel er vi i færd med at erstatte de hardwired serielle forbindelser mellem mikrocontrollerne og single-board computeren med Bluetooth-funktionalitet, som er hjemmehørende i ESP32-mikrocontrollerne, der allerede er brugt i dette design. Derudover planlægger vi at opgradere HallPassVR GUI for at gøre det muligt at specificere forskellige stier i hver adfærdssession for at indeholde forskellige positioner for vigtige skelsættende visuelle stimuli på forskellige omgange. Dette vil give større fleksibilitet til at adskille virkningen af specifikke visuelle og kontekstuelle træk på den neurale kodning af rummet under rumlig læring.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Clay Lacefield er grundlægger og vedligeholder af OpenMaze.org, som giver design til OMwSmall PCB, der bruges i denne protokol gratis til download.

Acknowledgments

Vi vil gerne takke Noah Pettit fra Harvey-laboratoriet for diskussionen og forslagene, mens vi udviklede protokollen i dette manuskript. Dette arbejde blev støttet af en BBRF Young Investigator Award og NIMH 1R21MH122965 (G.F.T.) ud over NINDS R56NS128177 (R.H., C.L.) og NIMH R01MH068542 (R.H.).

Materials

Name Company Catalog Number Comments
1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

DOWNLOAD MATERIALS LIST

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. Pettit, N., et al. Harvey Lab Mouse VR. , Available from: https://github.com/Harvey/Lab/mouseVR (2021).
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Tags

Neurovidenskab udgave 193
Et open source virtual reality-system til måling af rumlig læring i hovedfastholdte mus
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Lacefield, C., Cai, H., Ho, H.,More

Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter