Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Et open-source virtuelt virkelighetssystem for måling av romlig læring i hodebeherskede mus

Published: March 3, 2023 doi: 10.3791/64863

Summary

Her presenterer vi et forenklet maskinvare- og programvareoppsett med åpen kildekode for å undersøke romlig læring med mus ved hjelp av virtuell virkelighet (VR). Dette systemet viser et virtuelt lineært spor til en hodebehersket mus som kjører på et hjul ved å bruke et nettverk av mikrokontrollere og en enkeltkortsdatamaskin som kjører en brukervennlig grafisk Python-programvarepakke.

Abstract

Hodebeherskede atferdseksperimenter hos mus tillater nevrologer å observere nevral kretsaktivitet med høyoppløselige elektrofysiologiske og optiske bildebehandlingsverktøy samtidig som de leverer presise sensoriske stimuli til et oppførende dyr. Nylig har menneskelige og gnagerstudier ved hjelp av virtuelle virkelighetsmiljøer (VR) vist at VR er et viktig verktøy for å avdekke de nevrale mekanismene som ligger til grunn for romlig læring i hippocampus og cortex, på grunn av den ekstremt presise kontrollen over parametere som romlige og kontekstuelle tegn. Sette opp virtuelle miljøer for gnagere romlig atferd kan imidlertid være kostbart og krever en omfattende bakgrunn i engineering og dataprogrammering. Her presenterer vi et enkelt, men kraftig system basert på billig, modulær maskinvare og programvare med åpen kildekode som gjør det mulig for forskere å studere romlig læring i hodebeherskede mus ved hjelp av et VR-miljø. Dette systemet bruker koblede mikrokontrollere for å måle bevegelse og levere atferdsstimuli mens hodebeherskede mus kjører på et hjul i samspill med et virtuelt lineært spormiljø gjengitt av en grafisk programvarepakke som kjører på en enkeltkortsdatamaskin. Vektleggingen av distribuert prosessering gjør det mulig for forskere å designe fleksible, modulære systemer for å fremkalle og måle komplekse romlige atferd hos mus for å bestemme sammenhengen mellom nevral kretsaktivitet og romlig læring i pattedyrhjernen.

Introduction

Romlig navigasjon er en etologisk viktig oppførsel der dyr koder funksjonene til nye steder i et kognitivt kart, som brukes til å finne områder med mulig belønning og unngå områder med potensiell fare. Uløselig knyttet til minne deler de kognitive prosessene som ligger til grunn for romlig navigasjon et nevralt substrat i hippocampus1 og cortex, hvor nevrale kretser i disse områdene integrerer innkommende informasjon og danner kognitive kart over miljøer og hendelser for senere tilbakekalling2. Mens oppdagelsen av stedceller i hippocampus3,4 og gitterceller i entorhinal cortex5 har kastet lys over hvordan det kognitive kartet i hippocampus dannes, gjenstår mange spørsmål om hvordan spesifikke nevrale subtyper, mikrokretser og individuelle underregioner av hippocampus (dentate gyrus og cornu ammonis-områdene, CA3-1) samhandler og deltar i romlig minnedannelse og tilbakekalling.

In vivo to-foton avbildning har vært et nyttig verktøy for å avdekke cellulær og populasjonsdynamikk i sensorisk nevrofysiologi 6,7; Den typiske nødvendigheten av hodestøtte begrenser imidlertid nytten av denne metoden for å undersøke pattedyrs romlige oppførsel. Fremkomsten av virtuell virkelighet (VR)8 har adressert denne mangelen ved å presentere oppslukende og realistiske visuospatiale miljøer mens hodebeherskede mus løper på en ball eller tredemølle for å studere romlig og kontekstuell koding i hippocampus 8,9,10 og cortex 11. Videre har bruken av VR-miljøer med oppførende mus gjort det mulig for nevrovitenskapsforskere å dissekere komponentene i romlig oppførsel ved nøyaktig å kontrollere elementene i VR-miljøet12 (f.eks. Visuell flyt, kontekstuell modulasjon) på måter som ikke er mulig i virkelige eksperimenter med romlig læring, for eksempel Morris-vannlabyrinten, Barnes-labyrinten eller hullbrettoppgaver.

Visuelle VR-miljøer gjengis vanligvis på den grafiske prosesseringsenheten (GPU) på en datamaskin, som håndterer belastningen ved rask databehandling av tusenvis av polygoner som er nødvendige for å modellere et bevegelig 3D-miljø på en skjerm i sanntid. De store behandlingskravene krever vanligvis bruk av en separat PC med en GPU som gjengir det visuelle miljøet til en skjerm, flere skjermer13 eller en projektor14 når bevegelsen registreres fra en tredemølle, hjul eller skumkule under dyret. Det resulterende apparatet for å kontrollere, gjengi og projisere VR-miljøet er derfor relativt dyrt, klumpete og tungvint. Videre har mange slike miljøer i litteraturen blitt implementert ved hjelp av proprietær programvare som både er kostbar og bare kan kjøres på en dedikert PC.

Av disse grunnene har vi designet et VR-system med åpen kildekode for å studere romlig læringsatferd hos hodebeherskede mus ved hjelp av en Raspberry Pi-enkeltkortsdatamaskin. Denne Linux-datamaskinen er både liten og billig, men inneholder en GPU-chip for 3D-gjengivelse, noe som gjør det mulig å integrere VR-miljøer med skjermen eller atferdsapparatet i varierte individuelle oppsett. Videre har vi utviklet en grafisk programvarepakke skrevet i Python, "HallPassVR", som bruker single-board datamaskinen til å gjengi et enkelt visuospatialt miljø, et virtuelt lineært spor eller gang, ved å kombinere tilpassede visuelle funksjoner valgt ved hjelp av et grafisk brukergrensesnitt (GUI). Dette kombineres med mikrokontrollerdelsystemer (f.eks. ESP32 eller Arduino) for å måle bevegelse og koordinere oppførsel, for eksempel ved levering av andre modaliteter av sensoriske stimuli eller belønninger for å lette forsterkningslæring. Dette systemet gir en billig, fleksibel og brukervennlig alternativ metode for å levere visuospatiale VR-miljøer til hodebeherskede mus under to-foton avbildning (eller andre teknikker som krever hodefiksering) for å studere nevrale kretser som ligger til grunn for romlig læringsadferd.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle prosedyrene i denne protokollen ble godkjent av Institutional Animal Care and Use Committee ved New York State Psychiatric Institute.

MERK: En datamaskin med ett kort brukes til å vise et VR-visuelt miljø koordinert med kjøring av en hodebehersket mus på et hjul. Bevegelsesinformasjon mottas som seriell input fra en ESP32-mikrokontroller som leser en roterende koder koblet til hjulakselen. VR-miljøet gjengis ved hjelp av OpenGL-maskinvareakselerasjon på Raspberry Pi GPU, som bruker pi3d Python 3D-pakken for Raspberry Pi. Det gjengitte miljøet sendes deretter ut via en projektor på en kompakt omsluttende parabolsk skjerm sentrert på den hodebeherskede musens synsfelt15,16, mens oppførselen (f.eks. slikking som svar på romlige belønninger) måles av en andre oppførsel ESP32 mikrokontroller. Den grafiske programvarepakken gjør det mulig å skape virtuelle lineære spormiljøer som består av gjentatte mønstre av visuelle stimuli langs en virtuell korridor eller gang med et grafisk brukergrensesnitt (GUI). Denne utformingen er lett parameterisert, og tillater dermed opprettelse av komplekse eksperimenter som tar sikte på å forstå hvordan hjernen koder for steder og visuelle signaler under romlig læring (se avsnitt 4). Design for de tilpassede maskinvarekomponentene som er nødvendige for dette systemet (dvs. løpehjulet, projeksjonsskjermen og hodestøtteapparatet) deponeres i et offentlig GitHub-depot (https://github.com/GergelyTuri/HallPassVR). Det anbefales å lese dokumentasjonen til depotet sammen med denne protokollen, da nettstedet vil bli oppdatert med fremtidige forbedringer av systemet.

1. Maskinvareoppsett: Konstruksjon av løpehjulet, projeksjonsskjermen og hodefikseringsapparatet

MERK: De tilpassede komponentene for disse oppsettene kan enkelt produseres hvis brukeren har tilgang til 3D-utskrift og laserskjæringsutstyr eller kan settes ut til profesjonell produksjon eller 3D-prototypingstjenester (f.eks. eMachinehop). Alle designfilene leveres som . STL 3D-filer eller . DXF AutoCAD-filer.

  1. Løpehjul og atferdsoppsett (figur 1)
    MERK: Hjulet består av en klar akrylsylinder (6 i diameter, 3 i bredde, 1/8 i tykkelse) sentrert på en aksel suspendert fra laserskårne akrylfester via kulelager. Hjulenheten monteres deretter på en lett aluminiumsramme (t-slisset) og festes sikkert til en optisk brødplate (figur 1C-E).
    1. Laserkutt sidene av hjul- og akselfestene fra en 1/4 i akrylplate, og fest hjulsidene til akrylsylinderen med akrylsement. Skru akselflensen inn i midten av hjulets sidestykke.
    2. Sett akselen inn i hjulsenterflensen, klikk kulelagrene inn i akselfestene og fest dem til den vertikale støttestangen i aluminium.
    3. Sett hjulakselen inn i de monterte kulelagrene, og la 0,5-1 tomme av akselen passere lagrene for festing av rotasjonskoderen.
    4. Fest det roterende koderfestet til enden av akselen motsatt hjulet, og sett inn den roterende koderen; Bruk deretter akselkoblingen til å koble hjulakselen til den roterende koderakselen.
    5. Fest slikkeporten til bøyearmen, og fest den deretter til aluminiumshjulrammen med t-spormuttere. Bruk 1/16 tommers slange for å koble slikkeporten til magnetventilen og ventilen til vannbeholderen.
      MERK: Lick-porten må være laget av metall med en ledning loddet for å feste den til de kapasitive berøringspinnene til oppførselen ESP32.
  2. Projeksjonsskjerm
    MERK: VR-skjermen er en liten parabolsk bakprojeksjonsskjerm (lerretstørrelse: 54 cm x 21,5 cm) basert på et design utviklet i Christopher Harveys laboratorium15,16. Projeksjonsvinkelen (keystone) til LED-projektoren som brukes, er forskjellig fra laserprojektoren som ble brukt tidligere; Dermed er den opprinnelige designen litt modifisert ved å montere enheten under skjermen og forenkle speilsystemet (figur 1A, B). Å lese Harvey-laboratoriets dokumentasjon sammen med vår anbefales på det sterkeste for å skreddersy VR-miljøet til brukerens behov15.
    1. Laserkutt projeksjonsskjermsidene fra 1/4 i svarte matte akrylplater. Laserkutt bakprojeksjonsspeilet fra 1/4 i speilet akryl.
    2. Monter projeksjonsskjermrammen med aluminiumsstengene, og laserkutt akrylpanelene.
    3. Sett det gjennomsiktige projeksjonsskjermmaterialet inn i det parabolske sporet i rammen. Sett det bakre projeksjonsspeilet inn i sporet på baksiden av projeksjonsskjermrammen.
    4. Plasser en LED-projektor på den nederste monteringsplaten inne i projeksjonsskjermrammen. Juster projektoren med monteringsbolter for å optimalisere plasseringen av det projiserte bildet på den parabolske bakprojeksjonsskjermen.
    5. Forsegl projektorboksenheten for å forhindre lyskontaminering av de optiske sensorene om nødvendig.
  3. Hodestøtteapparat
    MERK: Denne hodestøtteapparatkonstruksjonen består av to sammenlåsende 3D-printede manifolder for å sikre en metallhodestolpe (figur 1E, F).
    1. Ved hjelp av en høyoppløselig SLM 3D-skriver, 3D-print hodet stolpen holder armene.
      MERK: Harpikstrykt plast er i stand til å gi stabil hodefiksering for atferdseksperimenter; For å oppnå maksimal stabilitet for sensitive applikasjoner som enkeltcelleopptak eller to-foton bildebehandling, anbefales det imidlertid å bruke maskinerte metalldeler (f.eks. eMachineShop).
    2. Monter den 3D-printede hodestolpeholderen på et goniometer med dobbel akse med optiske monteringsstolper, slik at dyrets hode kan vippes for å utjevne preparatet.
      MERK: Denne funksjonen er uunnværlig for langsiktige in vivo bildeeksperimenter når det er nødvendig å finne den samme cellepopulasjonen i etterfølgende bildebehandlingsøkter. Ellers kan denne funksjonen utelates for å redusere kostnadene ved oppsettet.
    3. Fabrikker hodestolpene.
      MERK: To typer hodestolper med forskjellig kompleksitet (og pris) er deponert i lenken i materialfortegnelsen sammen med disse instruksjonene.
      1. Avhengig av eksperimenttypen kan du bestemme hvilken hovedstolpe som skal implementeres. Hodestengene er laget av rustfritt stål og er generelt outsourcet til et lokalt maskinverksted eller online tjeneste (f.eks. eMachineShop) for produksjon.

2. Oppsett av elektronikkens maskinvare/programvare (enkeltkortsdatamaskin, ESP32-mikrokontrollere, figur 2)

  1. Konfigurer datamaskinen med ett kort.
    MERK: Enkeltkortdatamaskinen som er inkludert i materialfortegnelsen (Raspberry Pi 4B), er optimal for dette oppsettet fordi den har en innebygd GPU for å lette VR-miljøgjengivelse og to HDMI-porter for eksperimentkontroll / overvåking og VR-projeksjon. Andre datamaskiner med ett kort med disse egenskapene kan potensielt erstattes, men noen av følgende instruksjoner kan være spesifikke for Raspberry Pi.
    1. Last ned bildeprogrammet med ett kort til PC-en, og installer operativsystemet (for øyeblikket Raspberry Pi OS r.2021-05-07) på microSD-kortet (16+ GB). Sett inn kortet, og start datamaskinen med ett kort.
    2. Konfigurer datamaskinen med ett kort for pi3d Python 3D-biblioteket: (menylinje) Innstillinger > Raspberry Pi-konfigurasjon.
      1. Klikk på Skjerm > Blanking > Deaktiver.
      2. Klikk på Grensesnitt > seriell port > aktiver.
      3. Klikk på Ytelse > GPU-minne > 256 (MB).
    3. Oppgrader Python-bildebibliotekpakken for pi3d: (terminal)> sudo pip3 installere pute --oppgradering.
    4. Installer pi3d Python 3D-pakken for enkeltkortdatamaskinen: (terminal)> sudo pip3 installer pi3d.
    5. Øk HDMI-utgangsnivået for projektoren: (terminal)> sudo nano / boot / config.txt, uncomment config_hdmi_boost = 4, lagre og starte på nytt.
    6. Last ned og installer det integrerte utviklingsmiljøet (IDE) fra arduino.cc/en/software (f.eks. arduino-1.8.19-linuxarm.tar.gz), som er nødvendig for å laste koden på den roterende koderen og oppførselen ESP32 mikrokontrollere.
    7. Installer ESP32 mikrokontrollerstøtte på IDE:
      1. Klikk på Fil > Innstillinger > flere nettadresser til Board Manager = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Klikk på Verktøy > tavler > Boards Manager > ESP32 (av Espressif). Installer v.2.0.0 (opplastingen mislykkes for øyeblikket på v2.0.4).
    8. Last ned og installer behandlings-IDE fra https://github.com/processing/processing4/releases (f.eks. prosessering-4.0.1-linux-arm32.tgz), som er nødvendig for opptak og online plotting av musens oppførsel under VR.
      MERK: Arduino- og Processing-miljøene kan kjøres på en separat PC fra VR-enkeltkortdatamaskinen hvis ønskelig.
  2. Sett opp den roterende koderen ESP32-tilkoblinger.
    MERK: Den roterende koderen koblet til hjulakselen måler hjulets rotasjon med musebevegelse, som telles med en ESP32 mikrokontroller. Posisjonsendringene sendes deretter til GPIO-serieporten på enkeltkortdatamaskinen for å kontrollere bevegelsen gjennom det virtuelle miljøet ved hjelp av den grafiske programvarepakken, samt til oppførselen ESP32 for å kontrollere belønningssonene (figur 2).
    1. Koble ledningene mellom den roterende koderkomponenten og den roterende ESP32. Roterende kodere har vanligvis fire ledninger: +, GND, A og B (to digitale linjer for kvadraturkodere). Koble disse via startledninger til ESP32 3.3 V, GND, 25, 26 (i tilfelle den vedlagte koden).
    2. Koble de serielle RX/TX-ledningene mellom den roterende ESP32 og oppførselen ESP32. Opprett en enkel totrådsforbindelse mellom den roterende ESP32 Serial0 RX/TX (motta/sende) og Serial2-porten på oppførselen ESP32 (TX/RX, pinnene 17, 16; se Serial2-porten til høyre for OMwSmall PCB). Dette vil bære bevegelsesinformasjon fra den roterende koderen til atferdsoppsettet for romlige soner som belønningssoner.
    3. Koble de serielle RX/TX-ledningene mellom den roterende ESP32 og GPIO-en på enkeltkortsdatamaskinen (eller direkte USB-tilkobling). Opprett en totrådsforbindelse mellom GPIO-pinnene 14, 15 (RX / TX) og den roterende ESP32 Serial2 (TX / RX, pinnene 17, 16). Dette vil bære bevegelsesinformasjon fra den roterende koderen til den grafiske programvarepakken som kjører på enkeltkortdatamaskinen.
      MERK: Dette trinnet er bare nødvendig hvis den roterende ESP32 ikke er koblet til via en USB (dvs. det er en GPIO seriell tilkobling på "/dev/ttyS0"), men HallPassVR_wired.py-koden må ellers endres til å bruke "/dev/ttyUSB0". Denne kablede tilkoblingen vil bli erstattet med en trådløs Bluetooth-tilkobling i fremtidige versjoner.
    4. Koble den roterende ESP32 USB-en til USB-en på enkeltkortdatamaskinen (eller en annen PC som kjører IDE) for å laste opp den første roterende koderkoden.
  3. Sett opp oppførselen ESP32-tilkoblinger med atferdsmaskinvaren (via OpenMaze PCB).
    MERK: Oppførselen ESP32 mikrokontroller vil kontrollere alle ikke-VR-dyreinteraksjoner (levere ikke-VR-stimuli og belønninger, oppdage muselicks), som er koblet til via et generelt PCB "breakout board" for ESP32, "OMwSmall", hvis design er tilgjengelig via OpenMaze-nettstedet (www.openmaze.org). PCB inneholder de elektroniske komponentene som er nødvendige for å drive de elektromekaniske komponentene, for eksempel magnetventilene som brukes til å levere væskebelønninger.
    1. Koble 12 V flytende magnetventil til ULN2803 IC-utgangen helt til venstre på OMwSmall PCB (pinne 12 i eksempeloppsettet og koden). Denne IC porter 12 V strøm til belønningsmagnetventilen, styrt av en GPIO-utgang på oppførselen ESP32 mikrokontroller.
    2. Koble lick-porten til ESP32-berøringsinndata (f.eks. T0, GPIO4 i eksempelkoden). ESP32 har innebygd kapasitiv berøringsføling på spesifikke pinner, som oppførselen ESP32-koden bruker for å oppdage musens slikking av den vedlagte metallslikkeporten under VR-oppførselen.
    3. Koble de serielle RX/TX-ledningene mellom oppførselen ESP32 Serial2 (pinnene 16, 17) og den roterende koderen ESP32 Serial0 (se trinn 2.2.2).
    4. Koble USB-en til datamaskinens USB-port (eller annen PC) for å laste opp nye programmer til oppførselen ESP32 for forskjellige eksperimentelle paradigmer (f.eks. antall/plassering av belønningssoner) og for å fange atferdsdata ved hjelp av den medfølgende behandlingsskissen.
    5. Koble 12 V DC-veggadapteren til 2,1 mm fatkontakten på oppførselen ESP32 OMwSmall PCB for å gi strøm til magnetventilen for belønning.
    6. Koble datamaskinens HDMI #2-utgang på enkeltkortet til HDMI-porten for projektoren. dette vil bære VR-miljøet som gjengis av enkeltkortdatamaskinens GPU til projeksjonsskjermen.
    7. (valgfritt) Koble synkroniseringsledningen (pinne 26) til et oppsett for nevral avbildning eller elektrofysiologisk opptak. Et 3,3 V transistor-transistor-logikk (TTL) signal vil bli sendt hver 5. s for å justere systemene med nesten millisekund presisjon.
  4. Sett opp programvaren: Last inn fastvaren/programvaren på den roterende koderen ESP32 (figur 2B) og oppførsel ESP32 (figur 2E) ved hjelp av IDE, og last ned VR Python-programvaren til datamaskinen med ett kort. Se https://github.com/GergelyTuri/HallPassVR/software.
    1. Koble den roterende koderen ESP32 til datamaskinens USB-port først - dette vil automatisk bli kalt "/ dev / ttyUSB0 " av operativsystemet.
    2. Legg i den roterende koderkoden: Åpne filen RotaryEncoder_Esp32_VR.ino i IDE, og velg deretter ESP32 under Tools > Boards > ESP32 Dev Module. Velg ESP32-porten ved å klikke på Verktøy > port > /dev/ttyUSB0, og klikk deretter på Last opp.
    3. Koble oppførselen ESP32 til enkeltkortdatamaskinens USB-port neste - dette vil bli kalt "/ dev / ttyUSB1" av operativsystemet.
    4. Last oppførselssekvenskoden på oppførselen ESP32 (IDE, ESP32 Dev Module allerede valgt), klikk deretter på Verktøy > Port > / dev / ttyUSB1, og klikk på Last opp: wheel_VR_behavior.ino.
    5. Test de serielle tilkoblingene ved å velge serieporten for hver ESP32 i IDE (Tools > Port > /dev/ttyUSB0, eller /dev/ttyUSB1) og deretter klikke på Tools > Serial Monitor (overføringshastighet: 115 200) for å observere serieutgangen fra det roterende kortet (USB0) eller oppførselskortet (USB1). Drei hjulet for å se en rå bevegelse utgang fra den roterende ESP32 på USB0 eller formatert bevegelse utgang fra oppførsel ESP32 på USB1.
    6. Last ned den grafiske programvarepakken Python-kode fra https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR (til /home/pi/Documents). Denne mappen inneholder alle filene som er nødvendige for å kjøre den grafiske programvarepakken hvis pi3d Python3-pakken ble installert riktig tidligere (trinn 2.1).

3. Kjøre og teste den grafiske programvarepakken

MERK: Kjør den grafiske programvarepakken GUI for å starte et VR-lineært spormiljø, kalibrer avstandene på VR-programvaren og oppførselen ESP32-koden, og test oppkjøpet og online plotting av musens løpende og slikkeatferd med den medfølgende Processing language-skissen.

  1. Åpne terminalvinduet i datamaskinen med ett kort, og naviger til HallPassVR-mappen (terminal:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)
  2. Kjør VR GUI: (terminal)> python3 HallPassVR_GUI.py (GUI-vinduet åpnes, figur 3A).
  3. Grafisk programvare GUI
    1. Velg og legg til fire elementer (bilder) fra listeboksen (eller velg det forhåndslagrede mønsteret nedenfor, og klikk deretter på Last opp) for hvert av de tre mønstrene langs sporet, og klikk deretter på Generer.
      MERK: Nye bildefiler (.jpeg) kan plasseres i mappen HallPassVR/HallPassVR_wired/images/ELEMENTS før GUI-en kjøres.
    2. Velg gulv- og takbilder fra rullegardinmenyene, og angi lengden på sporet som 2 m for denne eksempelkoden (den må være lik trackLength i millimeter [mm] i oppførselen ESP32-koden og behandlingskoden).
    3. Navngi dette mønsteret hvis ønskelig (det vil bli lagret i HallPassVR_wired / bilder / PATH_HIST).
    4. Klikk på Start-knappen (vent til VR-vinduet starter før du klikker et annet sted). VR-miljøet vises på skjerm #2 (projeksjonsskjerm, figur 3B, C).
  4. Kjør Processing-skissen for å innhente og plotte atferdsdataene/bevegelsen.
    1. Åpne VRwheel_RecGraphSerialTxt.pde i IDE-en som behandler.
    2. Endre dyret = "yourMouseNumber"; variabel, og angi sessionMinutes lik lengden på atferdsøkten i minutter.
    3. Klikk på Kjør-knappen Processing IDE.
    4. Sjekk Processing plot-vinduet, som skal vise gjeldende museposisjon på det virtuelle lineære sporet når hjulet roterer, sammen med belønningssonene og løpehistogrammene for licks, laps og belønninger som oppdateres hver 30. s (figur 3D). Gå forbi løpehjulet for hånd for å simulere musen som kjører for testing, eller bruk en testmus for det første oppsettet.
    5. Klikk på plottvinduet, og trykk på q-tasten på tastaturet for å slutte å hente atferdsdata. En tekstfil med atferdshendelser og -tider (vanligvis <2 MB i størrelse per økt) og et bilde av det endelige plottvinduet (.png) lagres når sessionMinutes har gått eller brukeren trykker på q-tasten for å avslutte.
      MERK: På grunn av den lille størrelsen på utdataene .txt filene, er det anslått at minst flere tusen atferdsopptak kan lagres på datamaskinens SD-kort med ett kort. Datafiler kan lagres på en minnepinne for senere analyse, eller hvis de er koblet til et lokalt nettverk, kan dataene administreres eksternt.
  5. Kalibrer lengden på atferdssporet med VR-sporlengden.
    1. Flytt hjulet for hånd mens du observerer VR-korridoren og museposisjonen (på behandlingsplottet). Hvis VR-korridoren slutter før/etter at musen når slutten av atferdsplottet, øker/reduserer du VR-sporlengden trinnvis (HallPassVR_wired.py, corridor_length_default, i centimeter [cm]) til sporet tilbakestilles samtidig i de to systemene.
      MERK: Koden er for øyeblikket kalibrert for et 6-tommers løpehjul med diameter ved hjelp av en 256-posisjons kvadratur roterende koder, så brukeren må kanskje endre VR (HallPassVR_wired.py, corridor_length_default, i centimeter [cm]) og atferdskode (wheel_VR_behavior.ino, trackLength, i millimeter [mm]) for å ta hensyn til andre konfigurasjoner. Atferdsposisjonen tilbakestilles imidlertid på hver VR-runde for å opprettholde korrespondanse mellom systemene.

4. Musetrening og romlig læringsadferd

MERK: Musene er implantert for hodefiksering, habituated til hodestøtte, og deretter trent til å løpe på hjulet og slikke konsekvent for væskebelønninger gradvis ("random foraging"). Mus som oppnår konsekvent løping og slikking blir deretter trent på en romlig skjult belønningsoppgave ved hjelp av VR-miljøet, der en enkelt belønningssone presenteres etter et visuelt signal på det virtuelle lineære sporet. Romlig læring måles deretter som økt slikkingsselektivitet for posisjoner umiddelbart før belønningssonen.

  1. Hode etter implantasjonskirurgi: Denne prosedyren er beskrevet i detalj andre steder i denne journalen og i andre, så se denne litteraturen for spesifikke instruksjoner 7,17,18,19,20,21.
  2. Vann tidsplan
    1. Utfør vannbegrensning 24 timer før første håndtering (se nedenfor), og tillat ad libitum vannforbruk etter hver økt med tilvenning eller hodebehersket oppførsel. Reduser tiden for vanntilgjengelighet gradvis over tre dager under tilvenning til rundt 5 minutter, og juster mengden for individuelle mus slik at kroppsvekten ikke faller under 80% av vekten før begrensningen. Overvåk vekten av hvert dyr daglig og observer også tilstanden til hver mus for tegn på dehydrering22. Mus som ikke er i stand til å opprettholde 80% av kroppsvekten før begrensning eller virker dehydrert, bør fjernes fra studien og gis gratis vanntilgjengelighet.
      MERK: Vannbegrensning er nødvendig for å motivere musene til å løpe på hjulet ved hjelp av væskebelønninger, samt å bruke romlig slikking som en indikasjon på lærte steder langs sporet. Institusjonelle retningslinjer kan variere med hensyn til spesifikke instruksjoner for denne prosedyren, så brukeren må konsultere sine individuelle institusjonelle dyrepleiekomiteer for å sikre dyrehelse og velferd under vannbegrensninger.
  3. Håndtering: Håndter de implanterte musene daglig for å venne dem til menneskelig kontakt, hvoretter begrenset ad libitumvann kan administreres som en forsterkning (1-5 minutter / dag, 2 dager til 1 uke).
  4. Tilvenning til hodestøtten
    1. Habituate musene til hodestøtten i økende mengder tid ved å plassere dem i hodestøtteapparatet mens du belønner dem med sporadiske dråper vann for å redusere stresset av hodefiksering.
    2. Start med 5 min hodefiksering, og øk varigheten med 5 min trinn daglig til musene tåler fiksering i opptil 30 min. Fjern musene fra fikseringsapparatet hvis de ser ut til å slite eller bevege seg veldig lite. Imidlertid begynner mus vanligvis å løpe på hjulet spontant i løpet av flere økter, noe som betyr at de er klare for neste treningsstadium.
      MERK: Mus som gjentatte ganger sliter under hodestøtte eller ikke løper og slikker for belønning, bør regresseres til tidligere stadier av trening og fjernes fra studien hvis de ikke klarer å utvikle seg i tre slike utbedringssykluser (se tabell 1).
  5. Løpe/slikke trening (tilfeldig sanking)
    MERK: For å utføre den romlige læringsoppgaven i VR-miljøet, må musene først lære å løpe på hjulet og slikke konsekvent for sporadiske belønninger. Progresjonen i de operative atferdsparametrene styres via oppførselen ESP32 mikrokontroller.
    1. Tilfeldig foraging med ikke-operant belønninger
      1. Kjør det grafiske programvare-GUI-programmet med en bane av vilkårlige visuelle elementer (brukervalg, se trinn 3.3).
      2. Last opp atferdsprogrammet til oppførselen ESP32 med flere ikke-operant belønninger (kodevariabler: isOperant = 0, numRew = 4, isRandRew = 1) for å kondisjonere musene til å løpe og slikke. Kjør musene i økter på 20-30 minutter til musene løper i minst 20 runder per økt og slikker for belønninger presentert på tilfeldige steder (en til fire økter).
    2. Tilfeldig foraging med operant belønninger på alternative runder
      1. Last opp atferdsprogrammet med altOpt=1 (vekslende operant/ikke-operant runder), og tren musene til de slikker for både ikke-operant og operant belønningssoner (en til fire økter).
    3. Fullt operant tilfeldig foraging
      1. Last opp atferdsprogrammet med fire operant tilfeldige belønningssoner (atferd ESP32 kodevariabler: isOperant = 1, numRew = 4, isRandRew = 1). Ved slutten av dette treningstrinnet skal musene løpe konsekvent og utføre testlicks over hele sporlengden (en til fire økter; Figur 4A).
  6. Romlig læring
    MERK: Utfør et romlig læringseksperiment med en enkelt skjult belønningssone et stykke unna et enkelt visuelt signal ved å velge en 2 m lang gang med mørke paneler langs sporet og et enkelt visuelt stimuluspanel med høy kontrast i midten som et visuelt signal (0,9-1,1 m posisjon), analogt med nylige eksperimenter med romlige olfaktoriske signaler20 . Mus må slikke i en belønningssone (i en 1,5-1,8 m stilling) som ligger et stykke unna det visuelle signalet i det virtuelle lineære spormiljøet.
    1. Kjør det grafiske programmet med en bane i en mørk gang med et enkelt visuelt signal i midten (f.eks. sjakkbrett, se trinn 3.3, figur 3A).
    2. Last opp atferdsprogrammet med en enkelt skjult belønningssone til oppførselen ESP32 (oppførsel ESP32 kodevariabler: isOperant = 1, isRandRew = 0, numRew = 1, rewPosArr [] = {1500}).
    3. Plasser musen forsiktig i hodefikseringsapparatet, juster slikketuten til et sted like foran musens munn, og plasser musehjulet i midten av projeksjonsskjermsonen. Forsikre deg om at musens hode er ~ 12-15 cm unna skjermen etter de endelige justeringene.
    4. Angi dyrets navn i Processing-skissen, og trykk deretter kjør i Processing IDE for å begynne å hente og plotte atferdsdataene (se trinn 3.4).
    5. Kjør musen i 30 minutter økter med en enkelt skjult belønningssone og enkelt visuell signal VR-gangen.
    6. Frakoblet: Last ned .txt-datafilen fra Processing-skissemappen og analyser den romlige slikkeatferden (f.eks. i Matlab med de inkluderte filene procVRbehav.m og vrLickByLap.m).
      MERK: Musene skal først utføre testlicks over hele det virtuelle sporet ("random foraging") og deretter begynne å slikke selektivt bare nær belønningsstedet etter VR-visuelle signalet (figur 4).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Dette virtuelle virkelighetsoppsettet med åpen kildekode tillot oss å kvantifisere slikkeatferd som en avlesning av romlig læring da hodebeherskede mus navigerte i et virtuelt lineært spormiljø. Syv C57BL/6-mus av begge kjønn ved 4 måneders alder ble plassert på en begrenset vannplan og først trent til å slikke kontinuerlig på lave nivåer mens de løp på hjulet for tilfeldige romlige belønninger ("tilfeldig foraging") uten VR. Selv om ytelsen deres opprinnelig ble påvirket da de ble flyttet til VR-projeksjonsskjermoppsettet med et 2 m tilfeldig gangmønster, returnerte det til tidligere nivåer i flere VR-økter (figur 4A). Musene som utviklet den tilfeldige foraging-strategien med VR (seks av de syv musene, 86%; en mus klarte ikke å løpe konsekvent og ble ekskludert) ble deretter pålagt å slikke på en uncued operant belønningssone på 0,5 m etter en enkelt visuell plasseringskø midt i et ellers funksjonløst 2 m virtuelt spor for å motta vannbelønninger ("skjult belønningsoppgave"). I følge de nåværende pilotdataene med dette systemet var fire av de syv (57%) musene i stand til å lære den skjulte belønningsoppgaven med et enkelt visuelt signal i to til fire økter, som vist ved å slikke nær belønningssonen med økende selektivitet (tabell 1, figur 4B, C), som ligner på våre tidligere resultater med en ikke-VR tredemølle17 . Dette faktum er viktig i studiet av romlig læring, da det muliggjør overvåking og / eller manipulering av nevral aktivitet i kritiske læringsperioder uten omfattende trening. Videre viste musene både betydelig læring i økten og mellom øktene (figur 4C), noe som gir en mulighet til å observere både kortsiktige og langsiktige nevrale kretstilpasninger som følger med romlig læring. Vi testet ikke læringshastigheten til en ekvivalent ikke-VR-oppgave, men mange klassiske virkelige hippocampus-avhengige romlige oppgaver, som Morris-vannlabyrinten, krever enda mer omfattende trening og presenterer dramatisk færre atferdsforsøk og er dermed mindre egnet for overvåking av læringsadferd sammen med nevrale aktivitetsendringer.

Mens et flertall av musene i denne pilotgruppen (57%) var i stand til å lære den skjulte belønningsoppgaven i et lite antall økter, kan flere mus utvise romlig læring over lengre tidsskalaer, og individuell trening bør øke denne brøkdelen av mus. Faktisk kan variasjoner i læringshastigheter være nyttige for å dissociere de spesifikke forholdene mellom nevral aktivitet i hjerneområder som hippocampus og atferdslæring. Imidlertid observerte vi at en liten prosentandel av musene ikke lærte å løpe på hjulet eller slikke for enten ikke-operant eller operant belønning (en av de syv musene, 14%) og dermed ikke kunne brukes til påfølgende eksperimenter. Ytterligere håndtering og tilvenning og en reduksjon i dyrets generelle stresstilstand gjennom ytterligere forsterkning, for eksempel ved å bruke ønskelige matgodbiter, kan være nyttig for å hjelpe disse dyrene til å vedta aktiv løping og slikking under hodebehersket oppførsel på hjulet.

Ved å manipulere tilstedeværelsen og posisjonen til kø- og belønningssonene på periodiske runder på det virtuelle sporet, kan en eksperimentør videre skille avhengigheten av romlig selektiv slikking på bestemte informasjonskanaler i VR for å bestemme for eksempel hvordan mus er avhengige av lokale eller fjerne signaler eller selvbevegelsesinformasjon for å etablere sin plassering i et miljø. Slikkingsselektiviteten til mus som har lært den skjulte belønningsplasseringen, bør påvirkes av skiftet eller utelatelsen av det visuelle signalet langs sporet hvis de aktivt bruker dette romlige signalet som et landemerke, som vi har vist i et nylig arbeid med romlige olfaktoriske signaler20. Men selv med det enkle eksemplet vi har presentert her, indikerer den svært selektive slikkingen oppnådd av musene (figur 4C, høyre) at de koder VR-det visuelle miljøet for å informere sine beslutninger om hvor de er og derfor når de skal slikke, da belønningssonen bare er tydelig i forhold til visuelle signaler i VR-miljøet. Dette VR-systemet tillater også presentasjon av andre modaliteter av romlige og kontekstuelle signaler i tillegg til det visuelle VR-miljøet, for eksempel olfaktoriske, taktile og auditive signaler, som kan brukes til å teste selektiviteten til nevral aktivitet og oppførsel for komplekse kombinasjoner av forskjellige sensoriske signaler. I tillegg, selv om vi ikke testet for avhengigheten av oppgaveytelse på hippocampusaktivitet, viste en nylig studie med en lignende oppgave, men med taktile signaler, en forstyrrelse av romlig læring med hippocampus-inaktivering23, som bør bekreftes for VR-skjult belønningsoppgave utført i denne studien.

Figure 1
Figur 1: Hodebehersket VR-maskinvareoppsett: Projeksjonsskjerm, løpehjul og hodefikseringsapparat. (A) Et 3D-designskjema av løpehjulet og projeksjonsskjermen. (B) Fullført VR-atferdsoppsett. VR-miljøet gjengis på (1) en enkeltkortsdatamaskin og projiseres på en parabolsk (2) bakprojeksjonsskjerm (basert på Chris Harveys laboratoriedesign15,16). (3) Hjulmontering. (4) Hovedpostholder. (5) Vannreservoar for belønningslevering. (C) Toppvisning av projeksjonsskjermen og atferdsoppsett. (1) LED-projektor. (2) Speil for bakprojisering av VR-korridoren på den buede skjermen. (3) Løpehjul. (D) Sett bakfra av hjulenheten. Hjulrotasjoner oversettes av (1) roterende koder og overføres til enkeltkortdatamaskinen via en (2) ESP32 mikrokontroller. (3) Et goniometer med to akser brukes til å finjustere hodeposisjonen for optisk avbildning. (E) Oppsett på museinnsettingsnivå, som viser (1) hodefikseringsapparatet og (2) slikkeportplassering over (3) løpehjulets overflate. (F) Fotografi av (1) slikkeporten festet til (2) bøyearmen for presis plassering av belønningstuten nær munnen på musen. Belønninger gis via en (3) magnetventil styrt av oppførselen ESP32 (via OpenMaze OMwSmall PCB). Også synlig er den roterende koderen koblet til (4) hjulakselen og (5) goniometeret for justering av hodevinkel. Klikk her for å se en større versjon av denne figuren.

Figure 2
Figur 2: Skjematisk oppsett av VR-elektronikk. Dette skjemaet viser de mest relevante forbindelsene mellom de elektroniske komponentene i open source virtual reality-systemet for mus. (A) Mus er hodefestet på et tilpasset 3D-trykt hodefikseringsapparat over et akrylløpehjul. (B) Hjulakselens rotasjon når musen kjører, oppdages av en høyoppløselig roterende koder koblet til en mikrokontroller (Roterende dekoder ESP32). (C) Bevegelsesinformasjon formidles via en seriell tilkobling til en enkeltkortsdatamaskin som kjører HallPassVR GUI-programvaren og 3D-miljøet, som oppdaterer posisjonen i VRs virtuelle lineære spormiljø basert på musens bevegelse. (D) Det gjengitte VR-miljøet sendes til projektoren/skjermen via HDMI #2-videoutgangen på enkeltkortsdatamaskinen (VR-video, HDMI). (E) Bevegelsesinformasjon fra den roterende koderen ESP32 sendes også til en annen mikrokontroller (Behavior ESP32 with the OpenMaze OMwSmall PCB), som bruker musens posisjon til å kontrollere romlige, ikke-VR-atferdshendelser (for eksempel belønningssoner eller romlige olfaktoriske, taktile eller auditive stimuli) i samspill med VR-miljøet og måler musens slikking av belønningstuten via kapasitiv berøringsføling. Klikk her for å se en større versjon av denne figuren.

Figure 3
Figur 3: grafisk programvare-GUI og virkemåte. (A) HallPassVR GUI: Fire bilder velges for å flislegge over hvert romlige mønster som dekker en tredjedel av sporlengden (eller det tidligere lagrede kombinasjonsmønsteret er lastet) for tre mønstre i hver bane som tilsvarer sporlengden. Tak- og gulvbilder velges, og deretter trykkes Start for å initialisere VR-miljøet på datamaskinens HDMI-utgang (projeksjonsskjerm). (B) Eksempel på virtuell korridor opprettet med GUI-parametrene vist i A og brukt til et skjult belønningseksperiment for å teste romlig læring. (C) Fotografi av en hodebehersket mus som løper på hjulet i det virtuelle miljøet vist i B. (D) Det øverste panelet viser den elektroniske plottet av dyreadferd i et VR-miljø fra den medfølgende behandlingsskissen for å registrere og plotte atferdsdataene. Licks, runder og belønninger er plottet per 30 s tidsbeholdere for 30 minutters økt under skjult belønning romlig læring. Det nederste panelet viser gjeldende museposisjon (svart) og plasseringen av eventuelle belønningssoner (grå) under oppførsel. Klikk her for å se en større versjon av denne figuren.

Figure 4
Figur 4: Romlig læring ved hjelp av det grafiske programvaremiljøet. Representative romlige slikkedata fra ett dyr (A) under tilfeldig foraging med tilfeldige signaler langs det virtuelle lineære sporet og (B-C) 2 dagers trening med en statisk skjult belønningssone på 1,5 m med et enkelt visuelt signal midt på banen. (A) Dag 0 Tilfeldig sanking for fire belønningssoner per runde, valgt tilfeldig fra åtte posisjoner fordelt jevnt langs 2 m virtuell lineær bane. (Venstre) Gjennomsnittlig antall slikk per romlig søppelkasse (5 cm) i løpet av den 30 minutter lange økten (øverst: VR-gangen med tilfeldige visuelle stimuluspaneler). (Høyre) Antall slikk i hver 5 cm romlige søppelbøtte per runde i løpet av denne økten, representert ved et varmekart. (B) Dag 1, første treningsdag med en enkelt belønningssone på 1,5 m (rød boks på spordiagrammet, øverst) ved bruk av et virtuelt spor som inneholder en enkelt høykontraststimulus i posisjon 0,8-1,2 m. (Venstre) Gjennomsnittlig romlig slikk teller over økten, og viser økende slikk når dyret nærmer seg belønningssonen. (Høyre) Romlige slikker per runde, som viser økt selektivitet av slikking i pre-belønningsregionen. (C) Dag 2, fra samme skjulte belønningsoppgave og virtuelle gang som dag 1 og fra samme mus. (Venstre) Totalt antall slikker per romlig binge, som viser en nedgang i slikk utenfor pre-belønningssonen. (Høyre) Romlige slikk per runde på dag 2, som viser økt slikking før belønningssonen og redusert slikking andre steder, noe som indikerer utvikling av romlig spesifikk forventningsslikking. Dette viser at dette dyret har lært den (uncued) skjulte belønningsplasseringen og utviklet en strategi for å minimere innsats (slikking) i regioner der de ikke forventer at en belønning skal være til stede. Klikk her for å se en større versjon av denne figuren.

Atferdsmessig utfall Antall mus Prosentandel av mus
Musen løp ikke/slikket 1 14%
Bare tilfeldig sanking 2 29%
Lærte skjult belønning 4 57%
Totalt (N) 7

Tabell 1: VR-romlig læring atferdspilotresultater. Syv C57BL/6-mus av begge kjønn ved 4 måneders alder ble gradvis trent til å utføre en romlig skjult belønningsoppgave i VR. Av disse musene løp / slikket en mus ikke etter innledende trening (en av de syv musene, 14%), mens seks av de gjenværende musene lærte å løpe på hjulet og slikke for tilfeldige romlige belønninger i det tilfeldige foraging-trinnet med trening (seks av de syv musene, 86%). Fire av de seks musene som var i stand til å utføre den tilfeldige foraging-oppførselen, lærte deretter å slikke selektivt i påvente av den ikke-cued belønningen i den skjulte belønningsoppgaven (fire av de syv musene, 57% av musene totalt, fire av de seks musene, 66% av tilfeldige foraging mus), mens to ikke gjorde det (to av de syv musene, 29%).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Dette VR-systemet med åpen kildekode for mus vil bare fungere hvis de serielle tilkoblingene er gjort riktig mellom de roterende og oppførselsmikrokontrollerne ESP32 og enkeltkortsdatamaskinen (trinn 2), som kan bekreftes ved hjelp av IDE-seriell skjerm (trinn 2.4.5). For vellykkede atferdsresultater fra denne protokollen (trinn 4), må musene være vant til apparatet og være komfortable med å løpe på hjulet for flytende belønninger (trinn 4.3-4.5). Dette krever tilstrekkelig (men ikke overdreven) vannbegrensning, da mus som får ad libitum-vann i hjemmeburet ikke vil løpe og slikke for belønninger (dvs. for å indikere deres oppfattede plassering), og dehydrerte mus kan være sløv og ikke løpe på hjulet. Det er også verdt å merke seg at det finnes alternative metoder for å motivere museadferd uten vannbegrensning24; Vi testet imidlertid ikke disse metodene her. For treningsprosedyren kan dyr som ikke løper i utgangspunktet gis ad hoc (dvs. ikke-romlige) vannbelønninger av eksperimentøren via et vedlagt valgfritt knappetrykk, eller hjulet kan flyttes forsiktig for å oppmuntre til bevegelse. For å utvikle tilfeldig foraging atferd, mus som løper, men ikke slikker bør kjøres med ikke-operant belønninger (atferd ESP32 kode: isOperant = 0;, trinn 4.5.1) til de løper og slikker for belønninger, og de kan deretter kjøres med vekslende runder av ikke-operant og operant belønningssoner (altOpt = 1; Trinn 4.5.2) til de begynner å slikke på operant runder før de beveger seg til fullt operant tilfeldige belønningssoner (trinn 4.5.3).

Selv om vi har gitt fullstendige instruksjoner og eksempelresultater for et grunnleggende sett med eksperimenter som tar sikte på å fremkalle en form for romlig læring (betinget slikking på et skjult belønningssted i det virtuelle lineære spormiljøet), kan det samme grunnleggende maskinvare- og programvareoppsettet også endres for levering av mer komplekse visuospatiale miljøer ved hjelp av pi3d Python-pakken for Raspberry Pi. For eksempel kan dette systemet innlemme mer komplekse labyrinter som korridorer med variable lengder, flere mønstre og 3D-objekter, og naturalistiske 3D VR-landskap. Videre kan atferdsprogramvaren for levering av vannbelønninger og andre ikke-visuelle stimuli modifiseres for andre treningsparadigmer ved å endre nøkkelvariabler (presentert i begynnelsen av oppførselen ESP32-koden) eller ved å sette inn nye typer romlige hendelser i samme kode. Vi er glade for å gi brukerne råd om metoder for å implementere andre typer atferdseksperimenter med dette VR-oppsettet eller i feilsøking.

Oppslukende VR-miljøer har vist seg å være et allsidig verktøy for å studere de underliggende nevrale mekanismene for romlig navigasjon 6,7,8, belønningslæringsatferd9 og visuell oppfatning25 både i kliniske og dyreforsøk. Den største fordelen med denne tilnærmingen er at eksperimentøren har tett kontroll over kontekstuelle elementer som visuelle signaler og spesifikke romlige stimuli (f.eks. Belønninger og olfaktoriske, auditive eller taktile stimuli), som ikke er praktisk i virkelige miljøer med fritt bevegelige dyr. Det skal imidlertid bemerkes at forskjeller kan eksistere i måten VR-miljøer er kodet av hjerneområder som hippocampus sammenlignet med bruk av virkelige miljøer26,27. Med denne advarselen tillater bruken av VR-miljøer eksperimenter å utføre et stort antall atferdsforsøk med nøye kontrollerte stimuli, noe som tillater dissosiasjon av bidragene fra forskjellige sensoriske elementer til romlig navigasjon.

Kompleksiteten ved å bygge tilpassede VR-oppsett krever ofte en omfattende bakgrunn innen ingeniørfag og dataprogrammering, noe som kan øke oppsettstiden og begrense antall apparater som kan konstrueres for å trene mus til eksperimentering. VR-oppsett er også tilgjengelig fra kommersielle leverandører; Disse løsningene kan imidlertid være dyre og begrensede hvis brukeren ønsker å implementere nye funksjoner eller utvide opplærings-/opptakskapasiteten til mer enn ett oppsett. Den estimerte prisklassen for open source VR-oppsettet som presenteres her er <$ 1,000 (USD); Imidlertid kan en forenklet versjon for trening (f.eks. Manglende goniometre for justering av hodevinkel) produseres for < $ 500 (USD), og dermed tillate konstruksjon av flere oppsett for trening av mus i større skala. Det modulære arrangementet av komponenter tillater også integrering av VR med andre systemer for atferdskontroll, for eksempel tredemøllesystemet med romlige olfaktoriske og taktile stimuli vi har brukt tidligere20, og dermed er VR og andre stimulusmodaliteter ikke gjensidig utelukkende.

Dette VR-systemet med åpen kildekode med tilhørende maskinvare (løpehjul, projeksjonsskjerm og hodefikseringsapparat), elektronikkoppsett (enkeltkortsdatamaskin og ESP32-mikrokontrollere) og programvare (VR-GUI og atferdskode) gir et billig, kompakt og brukervennlig oppsett for å levere parametriserte oppslukende VR-miljøer til mus under hodebehersket romlig navigering. Denne oppførselen kan deretter synkroniseres med nevral avbildning eller elektrofysiologisk opptak for å undersøke nevral aktivitet under romlig læring (trinn 2.3.7). Spekteret av eksperimentelle teknikker som er kompatible med VR er bredt, alt fra romlig læringsadferd alene til kombinasjon med fiberfotometri, miniskopbilder, enkeltfoton og multi-foton avbildning og elektrofysiologiske teknikker (f.eks. Neuropixels eller intracellulær opptak). Mens hodestøtte er nødvendig for noen av disse opptaksteknikkene, kan den ekstremt presise naturen til stimuluspresentasjon og den stereotype naturen til oppførselen også være nyttig for andre teknikker som ikke krever hodefiksering, for eksempel miniskopavbildning og fiberfotometri. Det skal imidlertid bemerkes at vår kapasitive sensorbaserte løsning for å oppdage slikk kan introdusere betydelig støy på elektrofysiologiske spor. For å unngå slike artefakter, optiske eller andre (f.eks. mekaniske), bør sensorbaserte løsninger implementeres for slikkedeteksjon.

Fremtidige forbedringer av VR-systemet vil bli lastet opp til prosjektets GitHub-side (https://github.com/GergelyTuri/HallPassVR), så brukere bør sjekke denne siden regelmessig for oppdateringer. For eksempel er vi i ferd med å erstatte de fastkoblede serielle forbindelsene mellom mikrokontrollerne og enkeltkortdatamaskinen med Bluetooth-funksjonalitet, som er hjemmehørende i ESP32-mikrokontrollerne som allerede brukes i dette designet. I tillegg planlegger vi å oppgradere HallPassVR GUI for å tillate spesifikasjonen av forskjellige baner i hver atferdsøkt for å inneholde forskjellige posisjoner for viktige landemerke visuelle stimuli på forskjellige runder. Dette vil gi større fleksibilitet for å dissosiere virkningen av spesifikke visuelle og kontekstuelle funksjoner på nevral koding av rom under romlig læring.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Clay Lacefield er grunnlegger og vedlikeholder av OpenMaze.org, som gir design for OMwSmall PCB som brukes i denne protokollen gratis for nedlasting.

Acknowledgments

Vi vil gjerne takke Noah Pettit fra Harvey-laboratoriet for diskusjonen og forslagene under utviklingen av protokollen i dette manuskriptet. Dette arbeidet ble støttet av en BBRF Young Investigator Award og NIMH 1R21MH122965 (G.F.T.), i tillegg til NINDS R56NS128177 (R.H., C.L.) og NIMH R01MH068542 (R.H.).

Materials

Name Company Catalog Number Comments
1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

DOWNLOAD MATERIALS LIST

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. Pettit, N., et al. Harvey Lab Mouse VR. , Available from: https://github.com/Harvey/Lab/mouseVR (2021).
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Tags

Nevrovitenskap utgave 193
Et open-source virtuelt virkelighetssystem for måling av romlig læring i hodebeherskede mus
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Lacefield, C., Cai, H., Ho, H.,More

Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter