Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Ett virtual reality-system med öppen källkod för mätning av rumsligt lärande hos huvudbegränsade möss

Published: March 3, 2023 doi: 10.3791/64863

Summary

Här presenterar vi en förenklad hårdvaru- och mjukvaruinstallation med öppen källkod för att undersöka musrumslig inlärning med virtuell verklighet (VR). Detta system visar ett virtuellt linjärt spår till en huvudhållen mus som körs på ett hjul genom att använda ett nätverk av mikrokontroller och en enkortsdator som kör ett lättanvänt Python grafiskt mjukvarupaket.

Abstract

Huvudbegränsade beteendeexperiment hos möss gör det möjligt för neuroforskare att observera neural kretsaktivitet med högupplösta elektrofysiologiska och optiska avbildningsverktyg samtidigt som de levererar exakta sensoriska stimuli till ett uppträdande djur. Nyligen har mänskliga och gnagarestudier med hjälp av virtuella verklighetsmiljöer (VR) visat att VR är ett viktigt verktyg för att avslöja de neurala mekanismerna som ligger till grund för rumslig inlärning i hippocampus och cortex, på grund av den extremt exakta kontrollen över parametrar som rumsliga och kontextuella signaler. Att skapa virtuella miljöer för gnagarbeteenden kan dock vara kostsamt och kräva en omfattande bakgrund inom teknik och datorprogrammering. Här presenterar vi ett enkelt men kraftfullt system baserat på billig, modulär hårdvara och mjukvara med öppen källkod som gör det möjligt för forskare att studera rumsligt lärande i huvudbegränsade möss med hjälp av en VR-miljö. Detta system använder kopplade mikrokontroller för att mäta rörelse och leverera beteendestimuli medan huvudhållna möss kör på ett hjul i samförstånd med en virtuell linjär spårmiljö som återges av ett grafiskt mjukvarupaket som körs på en enkortsdator. Betoningen på distribuerad bearbetning gör det möjligt för forskare att utforma flexibla, modulära system för att framkalla och mäta komplexa rumsliga beteenden hos möss för att bestämma sambandet mellan neural kretsaktivitet och rumslig inlärning i däggdjurshjärnan.

Introduction

Rumslig navigering är ett etologiskt viktigt beteende genom vilket djur kodar funktionerna på nya platser till en kognitiv karta, som används för att hitta områden med möjlig belöning och undvika områden med potentiell fara. Oupplösligt kopplade till minnet delar de kognitiva processerna som ligger till grund för rumslig navigering ett neuralt substrat i hippocampus1 och cortex, där neurala kretsar i dessa områden integrerar inkommande information och bildar kognitiva kartor över miljöer och händelser för senare återkallelse2. Medan upptäckten av platsceller i hippocampus3,4 och rutnätceller i entorhinal cortex5 har belyst hur den kognitiva kartan inom hippocampus bildas, kvarstår många frågor om hur specifika neurala subtyper, mikrokretsar och enskilda delregioner i hippocampus (dentate gyrus och cornu ammonis-områdena, CA3-1) interagerar och deltar i rumslig minnesbildning och återkallande.

In vivo tvåfotonavbildning har varit ett användbart verktyg för att avslöja cellulär och populationsdynamik i sensorisk neurofysiologi 6,7; Den typiska nödvändigheten av nackstöd begränsar emellertid användbarheten av denna metod för att undersöka däggdjurs rumsliga beteende. Tillkomsten av virtuell verklighet (VR)8 har åtgärdat denna brist genom att presentera uppslukande och realistiska visuospatiala miljöer medan huvudbegränsade möss springer på en boll eller löpband för att studera rumslig och kontextuell kodning i hippocampus 8,9,10 och cortex 11. Dessutom har användningen av VR-miljöer med betande möss gjort det möjligt för neurovetenskapsforskare att dissekera komponenterna i rumsligt beteende genom att exakt kontrollera elementen i VR-miljön12 (t.ex. visuellt flöde, kontextuell modulering) på sätt som inte är möjliga i verkliga experiment av rumsligt lärande, såsom Morris vattenlabyrint, Barnes labyrint eller hålbräda uppgifter.

Visuella VR-miljöer återges vanligtvis på en dators grafiska bearbetningsenhet (GPU), som hanterar belastningen av att snabbt beräkna de tusentals polygoner som behövs för att modellera en rörlig 3D-miljö på en skärm i realtid. De stora bearbetningskraven kräver i allmänhet användning av en separat dator med en GPU som gör den visuella miljön till en bildskärm, flera skärmar13 eller en projektor14 när rörelsen spelas in från ett löpband, hjul eller skumboll under djuret. Den resulterande apparaten för att styra, rendera och projicera VR-miljön är därför relativt dyr, skrymmande och besvärlig. Dessutom har många sådana miljöer i litteraturen implementerats med proprietär programvara som är både kostsam och endast kan köras på en dedikerad dator.

Av dessa skäl har vi utformat ett VR-system med öppen källkod för att studera rumsliga inlärningsbeteenden hos huvudbegränsade möss med hjälp av en Raspberry Pi-enkortsdator. Denna Linux-dator är både liten och billig men innehåller ändå ett GPU-chip för 3D-rendering, vilket möjliggör integration av VR-miljöer med skärmen eller beteendeapparaten i olika individuella inställningar. Dessutom har vi utvecklat ett grafiskt mjukvarupaket skrivet i Python, "HallPassVR", som använder enkortsdatorn för att återge en enkel visuospatial miljö, ett virtuellt linjärt spår eller hall, genom att kombinera anpassade visuella funktioner som valts med hjälp av ett grafiskt användargränssnitt (GUI). Detta kombineras med mikrokontroller-delsystem (t.ex. ESP32 eller Arduino) för att mäta rörelse och samordna beteende, till exempel genom leverans av andra modaliteter av sensoriska stimuli eller belöningar för att underlätta förstärkningsinlärning. Detta system ger en billig, flexibel och lättanvänd alternativ metod för att leverera visuospatiala VR-miljöer till huvudbegränsade möss under tvåfotonavbildning (eller andra tekniker som kräver huvudfixering) för att studera de neurala kretsarna som ligger till grund för rumsligt inlärningsbeteende.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alla procedurer i detta protokoll godkändes av Institutional Animal Care and Use Committee vid New York State Psychiatric Institute.

OBS: En enkortsdator används för att visa en VR-visuell miljö samordnad med körningen av en huvudhållen mus på ett hjul. Rörelseinformation tas emot som seriell inmatning från en ESP32-mikrokontroller som läser en roterande kodare kopplad till hjulaxeln. VR-miljön återges med OpenGL-hårdvaruacceleration på Raspberry Pi GPU, som använder pi3d Python 3D-paketet för Raspberry Pi. Den renderade miljön matas sedan ut via en projektor på en kompakt omslutande parabolisk skärm centrerad på den huvudhållna musens synfält15,16, medan beteendet (t.ex. slickar som svar på rumsliga belöningar) mäts med en andra beteende ESP32-mikrokontroller. Det grafiska mjukvarupaketet möjliggör skapandet av virtuella linjära spårmiljöer som består av upprepade mönster av visuella stimuli längs en virtuell korridor eller hall med ett grafiskt användargränssnitt (GUI). Denna design parametreras enkelt, vilket möjliggör skapandet av komplexa experiment som syftar till att förstå hur hjärnan kodar platser och visuella signaler under rumslig inlärning (se avsnitt 4). Design för de anpassade maskinvarukomponenter som krävs för det här systemet (dvs. löphjulet, projektionsskärmen och nackstödsapparaten) deponeras i en offentlig GitHub-lagringsplats (https://github.com/GergelyTuri/HallPassVR). Vi rekommenderar att du läser dokumentationen för det arkivet tillsammans med detta protokoll, eftersom webbplatsen kommer att uppdateras med framtida förbättringar av systemet.

1. Hårdvaruinställning: Konstruktion av löphjulet, projektionsskärmen och huvudfixeringsapparaten

OBS: De anpassade komponenterna för dessa inställningar kan enkelt tillverkas om användaren har tillgång till 3D-utskrifts- och laserskärningsutrustning eller kan läggas ut på professionell tillverkning eller 3D-prototyptjänster (t.ex. eMachinehop). Alla designfiler tillhandahålls som . STL 3D-filer eller . DXF AutoCAD-filer.

  1. Löphjul och beteendeinställning (figur 1)
    OBS: Hjulet består av en klar akrylcylinder (6 i diameter, 3 i bredd, 1/8 i tjocklek) centrerad på en axel upphängd från laserskurna akrylfästen via kullager. Hjulenheten monteras sedan på en lätt aluminiumram (t-slits) och fästs säkert på en optisk brödbräda (figur 1C-E).
    1. Laserskär sidorna på hjulet och axelfästena från en 1/4 i akrylplåt och fäst hjulsidorna på akrylcylindern med akrylcement. Skruva fast axelflänsen i mitten av hjulets sidostycke.
    2. Sätt in axeln i hjulets mittfläns, snäpp kullagren i axelfästena och fäst dem på den vertikala aluminiumstödstången.
    3. Sätt in hjulaxeln i de monterade kullagren och lämna 0,5-1 tum av axeln förbi lagren för fastsättning av rotationskodaren.
    4. Fäst det roterande kodarfästet i slutet av axeln mittemot hjulet och sätt in den roterande kodaren; Använd sedan axelfästet för att koppla hjulaxeln till den roterande pulsgivaraxeln.
    5. Fäst slickporten på flexarmen och fäst sedan på aluminiumhjulramen med t-spårmuttrar. Använd 1/16 tums slang för att ansluta lickporten till magnetventilen och ventilen till vattenbehållaren.
      OBS: Lickporten måste vara gjord av metall med en tråd lödd för att fästa den på de kapacitiva beröringsavkänningsstiften i beteendet ESP32.
  2. Projektionsduk
    VR-skärmen är en liten parabolisk bakprojektionsskärm (dukstorlek: 54 cm x 21,5 cm) baserad på en design utvecklad i Christopher Harveys laboratorium15,16. Projektionsvinkeln (keystone) för den använda LED-projektorn skiljer sig från den för laserprojektorn som användes tidigare; Således modifieras den ursprungliga konstruktionen något genom att montera enheten under skärmen och förenkla spegelsystemet (figur 1A, B). Att läsa Harvey-labbets dokumentation tillsammans med vår rekommenderas starkt för att skräddarsy VR-miljön efter användarens behov15.
    1. Laserklipp projektionsdukens sidor från 1/4 i svarta matta akrylskivor. Laserklipp den bakre projektionsspegeln från 1/4 i speglad akryl.
    2. Montera projektionsskärmens ram med aluminiumstängerna och laserklipp akrylpanelerna.
    3. Sätt in det genomskinliga projektionsskärmmaterialet i det paraboliska spåret i ramen. Sätt i den bakre projektionsspegeln i spåret på baksidan av projektionsskärmens ram.
    4. Placera en LED-projektor på den nedre monteringsplattan inuti projektionsskärmens ram. Rikta in projektorn mot monteringsbultar för att optimera placeringen av den projicerade bilden på den paraboliska bakre projektionsduken.
    5. Försegla projektorboxenheten för att förhindra ljuskontaminering av de optiska sensorerna vid behov.
  3. Apparat för nackstöd
    Anmärkning: Denna huvudstödsapparat består av två förreglade 3D-utskrivna grenrör för att fästa en metallhuvudstolpe (figur 1E, F).
    1. Med hjälp av en högupplöst SLM 3D-skrivare 3D-skriver du ut huvudstolpens hållarmar.
      OBS: Hartstryckt plast kan ge stabil huvudfixering för beteendeexperiment; För att uppnå maximal stabilitet för känsliga applikationer som encellsinspelning eller tvåfotonavbildning rekommenderas det dock att använda bearbetade metalldelar (t.ex. eMachineShop).
    2. Montera den 3D-utskrivna huvudstolphållaren på en dubbelaxlig goniometer med optiska monteringsstolpar så att djurets huvud kan lutas för att jämna ut preparatet.
      OBS: Denna funktion är oumbärlig för långsiktiga in vivo-avbildningsexperiment när det krävs att samma cellpopulation hittas i efterföljande avbildningssessioner. Annars kan den här funktionen utelämnas för att minska kostnaden för installationen.
    3. Tillverka huvudstolparna.
      OBS: Två typer av huvudstolpar med olika komplexitet (och pris) deponeras i länken i materialförteckningen tillsammans med dessa instruktioner.
      1. Beroende på experimenttypen bestämmer du vilken huvudpost som ska implementeras. Huvudstängerna är tillverkade av rostfritt stål och är i allmänhet outsourcade till någon lokal maskinverkstad eller onlinetjänst (t.ex. eMachineShop) för tillverkning.

2. Inställning av maskinvara/programvara för elektronik (enkortsdator, ESP32-mikrokontroller, figur 2)

  1. Konfigurera enkortsdatorn.
    OBS: Enkortsdatorn som ingår i materialtabellen (Raspberry Pi 4B) är optimal för denna installation eftersom den har en inbyggd GPU för att underlätta VR-miljöåtergivning och två HDMI-portar för experimentkontroll / övervakning och VR-projektion. Andra enkortsdatorer med dessa egenskaper kan eventuellt ersättas, men vissa av följande instruktioner kan vara specifika för Raspberry Pi.
    1. Ladda ner enkorts datoravbildningsprogrammet till datorn och installera operativsystemet (för närvarande Raspberry Pi OS r.2021-05-07) på microSD-kortet (16+ GB). Sätt i kortet och starta enkortsdatorn.
    2. Konfigurera enkortsdatorn för pi3d Python 3D-biblioteket: (menyrad) Inställningar > Raspberry Pi-konfiguration.
      1. Klicka på Visa > skärmtömning > inaktivera.
      2. Klicka på Gränssnitt > seriell port > aktivera.
      3. Klicka på Prestanda > GPU-minne > 256 (MB).
    3. Uppgradera Python-avbildningsbibliotekspaketet för pi3d: (terminal)> sudo pip3 install pillow --upgrade.
    4. Installera pi3d Python 3D-paketet för enkortsdatorn: (terminal)> sudo pip3 install pi3d.
    5. Öka HDMI-utgångsnivån för projektorn: (terminal)> sudo nano /boot/config.txt, uncomment config_hdmi_boost=4, spara och starta om.
    6. Ladda ner och installera den integrerade utvecklingsmiljön (IDE) från arduino.cc/en/software (t.ex. arduino-1.8.19-linuxarm.tar.gz), som behövs för att ladda koden på rotationskodaren och beteendet ESP32-mikrokontroller.
    7. Installera stöd för ESP32-mikrokontroller på IDE:
      1. Klicka på Arkiv > Inställningar > Ytterligare webbadresser för styrelsehanteraren = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Klicka på Tools > Boards > Boards Manager > ESP32 (av Espressif). Installera v.2.0.0 (uppladdningen misslyckas för närvarande på v2.0.4).
    8. Ladda ner och installera Processing IDE från https://github.com/processing/processing4/releases (t.ex. processing-4.0.1-linux-arm32.tgz), vilket är nödvändigt för inspelning och onlineplottning av musbeteendet under VR.
      OBS: Arduino- och bearbetningsmiljöerna kan köras på en separat dator från VR-enkortsdatorn om så önskas.
  2. Ställ in ESP32-anslutningarna för rotationsenkodaren.
    OBS: Den roterande kodaren kopplad till hjulaxeln mäter hjulrotationen med musrörelse, som räknas med en ESP32-mikrokontroller. Positionsändringarna skickas sedan till den enkortiga GPIO-serieporten för att styra rörelsen genom den virtuella miljön med hjälp av det grafiska programvarupaketet, samt till beteendet ESP32 för att styra belöningszonerna (figur 2).
    1. Anslut ledningarna mellan den roterande kodarkomponenten och den roterande ESP32. Roterande pulsgivare har i allmänhet fyra ledningar: +, GND, A och B (två digitala linjer för kvadraturkodare). Anslut dessa via bygelkablar till ESP32 3.3 V, GND, 25, 26 (i fallet med bifogad kod).
    2. Anslut de seriella RX/TX-kablarna mellan den roterande ESP32 och beteendet ESP32. Gör en enkel tvåtrådsanslutning mellan den roterande ESP32 Serial0 RX / TX (ta emot / sända) och Serial2-porten på beteendet ESP32 (TX / RX, stift 17, 16; se Serial2-port till höger om OMwSmall PCB). Detta kommer att överföra rörelseinformation från rotationskodaren till beteendeinställningen för rumsliga zoner som belöningszoner.
    3. Anslut de seriella RX/TX-kablarna mellan den roterande ESP32 och enkortsdatorns GPIO (eller direkt USB-anslutning). Gör en tvåtrådsanslutning mellan enkortsdatorns GPIO-stift 14, 15 (RX/TX) och den roterande ESP32 Serial2 (TX/RX, stift 17, 16). Detta kommer att överföra rörelseinformation från rotationsenkodaren till det grafiska programvarupaketet som körs på enkortsdatorn.
      OBS: Detta steg är endast nödvändigt om den roterande ESP32 inte är ansluten via en USB (dvs. det är en seriell GPIO-anslutning vid "/ dev / ttyS0"), men den HallPassVR_wired.py koden måste annars modifieras för att använda "/ dev / ttyUSB0". Denna trådbundna anslutning kommer att ersättas med en trådlös Bluetooth-anslutning i framtida versioner.
    4. Anslut den roterande ESP32 USB till enkortsdatorns USB (eller annan dator som kör IDE) för att ladda upp den ursprungliga rotationsenkodarkoden.
  3. Ställ in beteendet ESP32-anslutningar med beteendehårdvaran (via OpenMaze PCB).
    OBS: Beteendet ESP32 mikrokontroller kommer att styra alla icke-VR-djurinteraktioner (leverera icke-VR-stimuli och belöningar, upptäcka muslickar), som är anslutna via ett allmänt PCB-"breakout-kort" för ESP32, "OMwSmall", vars design är tillgänglig via OpenMaze-webbplatsen (www.openmaze.org). PCB innehåller de elektroniska komponenter som är nödvändiga för att driva de elektromekaniska komponenterna, såsom magnetventilerna som används för att leverera flytande belöningar.
    1. Anslut 12 V vätskemagnetventilen till ULN2803 IC-utgången längst till vänster om OMwSmall PCB (stift 12 i exempelinställningen och koden). Denna IC grindar 12 V ström till belöningsmagnetventilen, styrd av en GPIO-utgång på beteendet ESP32 mikrokontroller.
    2. Anslut lickporten till ESP32-pekingången (t.ex. T0, GPIO4 i exempelkoden). ESP32 har inbyggd kapacitiv beröringsavkänning på specifika stift, vilket beteendet ESP32-koden använder för att upptäcka musens slickning av den bifogade metalllickporten under VR-beteendet.
    3. Anslut de seriella RX/TX-kablarna mellan beteendet ESP32 Serial2 (stift 16, 17) och rotationsencoder ESP32 Serial0 (se steg 2.2.2).
    4. Anslut USB-enheten till enkortsdatorns USB-port (eller annan dator) för att ladda upp nya program till beteendet ESP32 för olika experimentella paradigm (t.ex. antal/plats för belöningszoner) och för att samla in beteendedata med hjälp av den medföljande bearbetningsskissen.
    5. Anslut 12 V DC-väggadaptern till 2,1 mm fatjackkontakten på beteendet ESP32 OMwSmall PCB för att ge ström till belöningsmagnetventilen.
    6. Anslut enkortsdatorns HDMI #2-utgång till projektorns HDMI-port; detta kommer att bära VR-miljön som återges av enkortsdatorns GPU till projektionsskärmen.
    7. (valfritt) Anslut synkroniseringskabeln (stift 26) till en neural avbildning eller elektrofysiologisk inspelningsinställning. En 3,3 V transistor-transistor-logik (TTL) signal kommer att skickas var 5: e sekund för att rikta in systemen med nästan millisekund precision.
  4. Ställ in programvaran: Ladda firmware/programvaran på rotationskodaren ESP32 (bild 2B) och beteende ESP32 (bild 2E) med IDE och ladda ner VR Python-programvaran till enkortsdatorn. Se https://github.com/GergelyTuri/HallPassVR/software.
    1. Anslut den roterande kodaren ESP32 till enkortsdatorns USB-port först - detta kommer automatiskt att namnges "/ dev / ttyUSB0 " av operativsystemet.
    2. Läs in rotationsencoderkoden: Öppna filen RotaryEncoder_Esp32_VR.ino i IDE:n och välj sedan ESP32 under Tools > Boards > ESP32 Dev Module. Välj ESP32-porten genom att klicka på Verktyg > port > /dev/ttyUSB0 och klicka sedan på Ladda upp.
    3. Anslut beteendet ESP32 till enkortsdatorns USB-port, nästa kommer detta att namnges "/ dev / ttyUSB1" av operativsystemet.
    4. Ladda beteendesekvenskoden på beteendet ESP32 (IDE, ESP32 Dev Module redan vald), klicka sedan på Tools > Port > / dev / ttyUSB1 och klicka på Ladda upp: wheel_VR_behavior.ino.
    5. Testa de seriella anslutningarna genom att välja serieporten för varje ESP32 i IDE (Tools > Port > /dev/ttyUSB0 eller /dev/ttyUSB1) och sedan klicka på Tools > Serial Monitor (överföringshastighet: 115 200) för att observera seriell utgång från roterkortet (USB0) eller beteendekortet (USB1). Vrid hjulet för att se en rå rörelseutgång från den roterande ESP32 på USB0 eller formaterad rörelseutgång från beteendet ESP32 på USB1.
    6. Ladda ner det grafiska programvarupaketet Python-kod från https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR (till /home/pi/Documents). Den här mappen innehåller alla filer som behövs för att köra det grafiska programvarupaketet om pi3d Python3-paketet installerades korrekt tidigare (steg 2.1).

3. Kör och testa det grafiska programvarupaketet

Kör det grafiska programvarupaketet GUI för att initiera en VR-linjär spårmiljö, kalibrera avstånden på VR-programvaran och beteendet ESP32-kod och testa förvärv och onlineplottning av musens kör- och slickbeteende med den medföljande bearbetningsspråkskissen.

  1. Öppna terminalfönstret i enkortsdatorn och navigera till mappen HallPassVR (terminal:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)
  2. Kör VR GUI: (terminal)> python3 HallPassVR_GUI.py (GUI-fönstret öppnas, bild 3A).
  3. Grafiskt programvarugränssnitt
    1. Välj och lägg till fyra element (bilder) från listrutan (eller välj det förlagrade mönstret nedan och klicka sedan på Ladda upp) för vart och ett av de tre mönstren längs spåret och klicka sedan på Generera.
      Nya bildfiler (.jpeg) kan placeras i mappen HallPassVR/HallPassVR_wired/images/ELEMENTS innan GUI körs.
    2. Välj golv- och takbilder i listrutorna och ange spårets längd till 2 m för den här exempelkoden (den måste vara lika med trackLength i millimeter [mm] i beteendet ESP32-kod och bearbetningskod).
    3. Namnge detta mönster om så önskas (det kommer att lagras i HallPassVR_wired / bilder / PATH_HIST).
    4. Klicka på Start-knappen (vänta tills VR-fönstret startar innan du klickar någon annanstans). VR-miljön visas på skärm #2 (projektionsduk, figur 3B, C).
  4. Kör bearbetningsskissen för att hämta och plotta beteendedata/rörelse.
    1. Öppna VRwheel_RecGraphSerialTxt.pde i Processing IDE.
    2. Ändra djuret = "yourMouseNumber"; variabel och ange sessionMinutes lika med beteendesessionens längd i minuter.
    3. Klicka på knappen Kör Processing IDE.
    4. Kontrollera fönstret Bearbetningsdiagram, som ska visa den aktuella muspositionen på det virtuella linjära spåret när hjulet roterar, tillsammans med belöningszonerna och körhistogrammen för licks, varv och belöningar som uppdateras var 30: e sekund (figur 3D). För löphjulet framåt för hand för att simulera musen som körs för testning, eller använd en testmus för den första installationen.
    5. Klicka på plotfönstret och tryck på q-tangenten på tangentbordet för att sluta förvärva beteendedata. En textfil med beteendehändelser och tider (vanligtvis <2 MB i storlek per session) och en bild av det slutliga ritfönstret (.png) sparas när sessionMinutes har förflutit eller användaren trycker på q-tangenten för att avsluta.
      På grund av den lilla storleken på utdata .txt filer uppskattas det att minst flera tusen beteendeinspelningar kan lagras på enkortsdatorns SD-kort. Datafiler kan sparas på ett USB-minne för efterföljande analys, eller om de är anslutna till ett lokalt nätverk kan data fjärrhanteras.
  5. Kalibrera beteendespårlängden med VR-spårlängden.
    1. För hjulet för hand medan du observerar VR-korridoren och muspositionen (på bearbetningsdiagrammet). Om VR-korridoren slutar före/efter att musen når slutet av beteendediagrammet, öka/minska VR-spårlängden stegvis (HallPassVR_wired.py, corridor_length_default, i centimeter [cm]) tills spåret återställs samtidigt i de två systemen.
      OBS: Koden är för närvarande kalibrerad för ett löphjul med en 6 tums diameter med en 256-läges kvadraturrotationskodare, så användaren kan behöva ändra VR (HallPassVR_wired.py, corridor_length_default, i centimeter [cm]) och beteendekod (wheel_VR_behavior.ino, trackLength, i millimeter [mm]) för att ta hänsyn till andra konfigurationer. Beteendepositionen återställs dock på varje VR-varv för att upprätthålla korrespondens mellan systemen.

4. Musträning och rumsligt inlärningsbeteende

OBS: Mössen implanteras för huvudfixering, vänjer sig vid nackstöd och tränas sedan att springa på ratten och slicka konsekvent för flytande belöningar gradvis ("slumpmässig födosökning"). Möss som uppnår konsekvent löpning och slickning tränas sedan på en rumslig dold belöningsuppgift med hjälp av VR-miljön, där en enda belöningszon presenteras efter en visuell ledtråd på det virtuella linjära spåret. Rumslig inlärning mäts sedan som ökad slickselektivitet för positioner omedelbart före belöningszonen.

  1. Huvud efter implantationskirurgi: Denna procedur beskrivs i detalj någon annanstans i denna tidskrift och i andra, så se denna litteratur för specifika instruktioner 7,17,18,19,20,21.
  2. Vatten schema
    1. Utför vattenrestriktion 24 timmar före första hanteringen (se nedan) och tillåt ad libitum vattenförbrukning efter varje session av tillvänjning eller huvudbegränsat beteende. Minska tiden för vattentillgänglighet gradvis under tre dagar under tillvänjning till cirka 5 minuter och justera mängden för enskilda möss så att deras kroppsvikt inte faller under 80% av deras vikt före begränsningen. Övervaka vikten av varje djur dagligen och observera även tillståndet för varje mus för tecken på uttorkning22. Möss som inte kan bibehålla 80 % av sin pre-restriktion kroppsvikt eller verkar uttorkade bör tas bort från studien och ges fri tillgång till vatten.
      OBS: Vattenbegränsning är nödvändig för att motivera mössen att springa på hjulet med flytande belöningar, samt att använda rumslig slickning som en indikation på inlärda platser längs banan. Institutionella riktlinjer kan skilja sig åt om specifika instruktioner för denna procedur, så användaren måste konsultera sina individuella institutionella djurvårdskommittéer för att säkerställa djurens hälsa och välbefinnande under vattenbegränsning.
  3. Hantering: Hantera de implanterade mössen dagligen för att vänja dem vid mänsklig kontakt, varefter begränsat ad libitum-vatten kan administreras som förstärkning (1-5 min / dag, 2 dagar till 1 vecka).
  4. Habituation till nackstödet
    1. Vänja mössen vid nackstödet under allt längre tid genom att placera dem i nackstödsapparaten samtidigt som du belönar dem med enstaka droppar vatten för att minska stressen vid huvudfixering.
    2. Börja med 5 minuters huvudfixering och öka varaktigheten med 5 minuters steg dagligen tills mössen kan tolerera fixering i upp till 30 minuter. Ta bort mössen från fixeringsapparaten om de verkar kämpa eller röra sig väldigt lite. Möss börjar dock i allmänhet springa på ratten spontant inom flera sessioner, vilket innebär att de är redo för nästa steg i träningen.
      OBS: Möss som upprepade gånger kämpar under huvudstöd eller inte springer och slickar för belöningar bör gå tillbaka till tidigare stadier av träning och tas bort från studien om de inte utvecklas under tre sådana korrigerande cykler (se tabell 1).
  5. Spring/slicka träning (slumpmässig födosök)
    OBS: För att utföra den rumsliga inlärningsuppgiften i VR-miljön måste mössen först lära sig att springa på ratten och slicka konsekvent för tillfälliga belöningar. Progressionen i de operanta beteendeparametrarna styrs via beteendet ESP32 mikrokontroller.
    1. Slumpmässig födosök med icke-operanta belöningar
      1. Kör det grafiska programvaru-GUI-programmet med en sökväg med godtyckliga visuella element (användarval, se steg 3.3).
      2. Ladda upp beteendeprogrammet till beteendet ESP32 med flera icke-operanta belöningar (kodvariabler: isOperant = 0, numRew = 4, isRandRew = 1) för att konditionera mössen att springa och slicka. Kör mössen i 20-30 minuters sessioner tills mössen springer i minst 20 varv per session och slickar efter belöningar som presenteras på slumpmässiga platser (en till fyra sessioner).
    2. Slumpmässig födosök med operanta belöningar på varannan varvtid
      1. Ladda upp beteendeprogrammet med altOpt=1 (alternerande operanta/icke-operanta varvtider) och träna mössen tills de slickar för både icke-operanta och operanta belöningszoner (en till fyra sessioner).
    3. Helt operant slumpmässig födosökning
      1. Ladda upp beteendeprogrammet med fyra operanta slumpmässiga belöningszoner (beteende ESP32-kodvariabler: isOperant = 1, numRew = 4, isRandRew = 1). I slutet av detta träningssteg bör mössen springa konsekvent och utföra testlickar över hela spårlängden (en till fyra sessioner; Figur 4A).
  6. Rumsligt lärande
    OBS: Utför ett rumsligt inlärningsexperiment med en enda dold belöningszon en bit bort från en enda visuell signal genom att välja en 2 m lång hall med mörka paneler längs banan och en enda visuell stimulanspanel med hög kontrast i mitten som en visuell ledtråd (0,9-1,1 m position), analogt med de senaste experimenten med rumsliga luktsignaler20 . Möss måste slicka i en belöningszon (vid en position på 1,5-1,8 m) som ligger ett avstånd från den visuella signalen i den virtuella linjära spårmiljön.
    1. Kör det grafiska programmet med en bana i en mörk korridor med en enda visuell ledtråd i mitten (t.ex. schackbräde, se steg 3.3, figur 3A).
    2. Ladda upp beteendeprogrammet med en enda dold belöningszon till beteendet ESP32 (beteende ESP32-kodvariabler: isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500}).
    3. Placera försiktigt musen i huvudfixeringsapparaten, justera slickpipen till en plats precis framför musens mun och placera mushjulet i mitten av projektionsskärmzonen. Se till att mushuvudet är ~ 12-15 cm från skärmen efter de sista justeringarna.
    4. Ange djurets namn i bearbetningsskissen och tryck sedan på kör i Processing IDE för att börja hämta och plotta beteendedata (se steg 3.4).
    5. Kör musen i 30 minuters sessioner med en enda dold belöningszon och en enda visuell cue VR-hall.
    6. Offline: ladda ner .txt-datafilen från mappen Processing sketch och analysera det rumsliga slickningsbeteendet (t.ex. i Matlab med de inkluderade filerna procVRbehav.m och vrLickByLap.m).
      OBS: Mössen bör initialt utföra testslickar över hela det virtuella spåret ("slumpmässig födosök") och sedan börja slicka selektivt endast nära belöningsplatsen efter VR-visuell signal (figur 4).

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Denna virtuella verklighetsbeteendeinställning med öppen källkod gjorde det möjligt för oss att kvantifiera slickbeteende som en avläsning av rumslig inlärning när huvudbegränsade möss navigerade i en virtuell linjär spårmiljö. Sju C57BL / 6-möss av båda könen vid 4 månaders ålder placerades på ett begränsat vattenschema och tränades först att slicka kontinuerligt på låga nivåer medan de sprang på ratten för slumpmässiga rumsliga belöningar ("slumpmässig födosök") utan VR. Även om deras prestanda initialt påverkades när de flyttades till VR-projektionsskärminställningen med ett 2 m slumpmässigt hallmönster, återvände det till tidigare nivåer inom flera VR-sessioner (figur 4A). Mössen som utvecklade den slumpmässiga födosöksstrategin med VR (sex av de sju mössen, 86%; en mus misslyckades med att springa konsekvent och uteslöts) var sedan tvungna att slicka i en ocued operant belöningszon på 0,5 m efter en enda visuell platskö mitt i ett annars funktionslöst 2 m virtuellt spår för att få vattenbelöningar ("dold belöningsuppgift"). Enligt nuvarande pilotdata med detta system kunde fyra av de sju (57%) mössen lära sig den dolda belöningsuppgiften med en enda visuell signal i två till fyra sessioner, vilket visas genom att slicka nära belöningszonen med ökande selektivitet (tabell 1, figur 4B, C), vilket liknar våra tidigare resultat med ett löpband som inte är VR17 . Detta faktum är viktigt i studien av rumsligt lärande, eftersom det möjliggör övervakning och / eller manipulation av neural aktivitet under kritiska perioder av lärande utan omfattande träning. Dessutom uppvisade mössen både betydande inom sessionen och mellan sessionerna (figur 4C), vilket gav möjlighet att observera både kortsiktiga och långsiktiga neurala kretsanpassningar som åtföljer rumslig inlärning. Vi testade inte inlärningshastigheten för en motsvarande icke-VR-uppgift, men många klassiska verkliga hippocampusberoende rumsliga uppgifter, såsom Morris-vattenlabyrinten, kräver ännu mer omfattande träning och presenterar dramatiskt färre beteendeförsök och är därför mindre lämpliga för övervakning av inlärningsbeteende tillsammans med neurala aktivitetsförändringar.

Medan en majoritet av mössen i denna pilotgrupp (57%) kunde lära sig den dolda belöningsuppgiften i ett litet antal sessioner, kan ytterligare möss uppvisa rumslig inlärning över längre tidsskalor, och individualiserad träning bör öka denna andel möss. Faktum är att variationer i inlärningshastigheter kan vara användbara för att dissociera de specifika relationerna mellan neural aktivitet i hjärnområden som hippocampus och beteendeinlärning. Vi observerade emellertid att en liten andel möss inte lärde sig att springa på hjulet eller slicka för antingen icke-operanta eller operanta belöningar (en av de sju mössen, 14%) och kunde därför inte användas för efterföljande experiment. Ytterligare hantering och tillvänjning och en minskning av djurets allmänna stresstillstånd genom ytterligare förstärkning, till exempel genom att använda önskvärda matgodis, kan vara användbara för att hjälpa dessa djur att anta aktiv löpning och slickning under huvudfasthållet beteende på hjulet.

Genom att manipulera närvaron och positionen av kö- och belöningszonerna på intermittenta varv på det virtuella spåret kan en experimentator ytterligare urskilja beroendet av rumsligt selektiv slickning på specifika informationskanaler i VR för att bestämma till exempel hur möss förlitar sig på lokala eller avlägsna signaler eller självrörelseinformation för att fastställa sin plats i en miljö. Den slickande selektiviteten hos möss som har lärt sig den dolda belöningsplatsen bör påverkas av förskjutningen eller utelämnandet av den visuella signalen längs banan om de aktivt använder denna rumsliga signal som ett landmärke, som vi har visat i ett nyligen utfört arbete med rumsliga luktsignaler20. Men även med det enkla exemplet vi har presenterat här indikerar den mycket selektiva slickningen som mössen uppnår (figur 4C, till höger) att de kodar VR-visuell miljö för att informera sina beslut om var de är och därför när de ska slicka, eftersom belöningszonen bara är uppenbar i förhållande till visuella signaler i VR-miljön. Detta VR-system möjliggör också presentation av andra modaliteter för rumsliga och kontextuella signaler utöver den visuella VR-miljön, såsom olfaktoriska, taktila och auditiva signaler, som kan användas för att testa selektiviteten hos neural aktivitet och beteende för komplexa kombinationer av distinkta sensoriska signaler. Dessutom, även om vi inte testade för beroende av uppgiftsprestanda på hippocampus aktivitet, visade en nyligen genomförd studie med en liknande uppgift men med taktila signaler en störning av rumslig inlärning med hippocampus inaktivering23, vilket bör bekräftas för VR-dold belöningsuppgift som utfördes i denna studie.

Figure 1
Figur 1: Huvudbegränsad VR-hårdvaruinställning: Projektionsskärm, löphjul och huvudfixeringsapparat. (A) En 3D-designschema över löphjulet och projektionsskärmen. (B) Slutförd VR-beteendeinställning. VR-miljön återges på (1) en enkortsdator och projiceras på en parabolisk (2) bakprojektionsskärm (baserat på Chris Harveys labbs design15,16). (3) Hjulmontering. (4) Huvudpostinnehavare. (5) Vattenreservoar för belöningsleverans. (C) Ovanifrån av projektionsskärmen och beteendeinställningen. (1) LED-projektor. (2) Spegel för bakprojicering av VR-korridoren på den böjda skärmen. (3) Löphjul. (D) Bakifrån av hjulenheten. Hjulrotationer översätts av (1) rotationsenkodaren och överförs till enkortsdatorn via en (2) ESP32-mikrokontroller. (3) En tvåaxlig goniometer används för att finjustera huvudpositionen för optisk avbildning. (E) Inställning på nivån för musinsättning, som visar (1) huvudfixeringsapparaten och (2) slickportens placering över (3) löphjulets yta. (F) Fotografi av (1) slickporten fäst vid (2) flexarmen för exakt placering av belöningspipen nära musens mynning. Belöningar ges via en (3) magnetventil som styrs av beteendet ESP32 (via OpenMaze OMwSmall PCB). Också synlig är den roterande kodaren kopplad till (4) hjulaxeln och (5) goniometern för justering av huvudvinkeln. Klicka här för att se en större version av denna figur.

Figure 2
Figur 2: Schematisk inställning av VR-elektronik. Detta schema visar de mest relevanta kopplingarna mellan de elektroniska komponenterna i virtual reality-systemet med öppen källkod för möss. (A) Möss är fastspända på huvudet på en anpassad 3D-tryckt huvudfixeringsapparat ovanför ett löphjul av akryl. (B) Hjulaxelns rotation när musen är igång detekteras av en högupplöst roterande kodare ansluten till en mikrokontroller (Rotary decoder ESP32). (C) Rörelseinformation förmedlas via en seriell anslutning till en enkortsdator som kör HallPassVR GUI-programvaran och 3D-miljön, som uppdaterar positionen i VR:s virtuella linjära spårmiljö baserat på musens rörelse. (D) Den renderade VR-miljön skickas till projektorn/skärmen via HDMI #2-videoutgången på enkortsdatorn (VR-video HDMI). (E) Rörelseinformation från rotationskodaren ESP32 skickas också till en annan mikrokontroller (Behavior ESP32 med OpenMaze OMwSmall PCB), som använder musens position för att styra rumsliga, icke-VR-beteendehändelser (t.ex. belöningszoner eller rumslig lukt, taktil eller auditiv stimuli) i samklang med VR-miljön och mäter musens slickning av belöningspipen via kapacitiv beröringsavkänning. Klicka här för att se en större version av denna figur.

Figure 3
Figur 3: Grafiskt programvarugränssnitt och beteende. (A) HallPassVR GUI: Fyra bilder väljs för att dela upp över varje rumsligt mönster som täcker en tredjedel av spårlängden (eller det tidigare sparade kombinationsmönstret laddas) för tre mönster i varje bana som är lika med spårlängden. Tak- och golvbilder väljs och sedan trycks Start ned för att initiera VR-miljön på enkortsdatorns HDMI-utgång (projektionsskärm). (B) Exempel på virtuell korridor skapad med GUI-parametrarna som visas i A och används för ett dolt belöningsexperiment för att testa rumslig inlärning. (C) Fotografi av en huvudfasthållen mus som körs på ratten i den virtuella miljö som visas i B. (D) Den övre panelen visar online-diagrammet för djurbeteende i en VR-miljö från den medföljande bearbetningsskissen för att spela in och plotta beteendedata. Licks, varv och belöningar plottas per 30 s tidsfack för 30 minuters session under dold belöning rumslig inlärning. Den nedre panelen visar musens aktuella position (svart) och platsen för eventuella belöningszoner (grå) under beteendet. Klicka här för att se en större version av denna figur.

Figure 4
Figur 4: Rumsligt lärande med hjälp av den grafiska programvarumiljön. Representativa rumsliga slickdata från ett djur (A) under slumpmässig födosökning med slumpmässiga signaler längs det virtuella linjära spåret och (B-C) 2 dagars träning med en statisk dold belöningszon på 1,5 m med en enda visuell signal i mitten av banan. (A) Slumpmässig födosökning dag 0 för fyra belöningszoner per varv, slumpmässigt utvalda från åtta positioner jämnt fördelade längs den 2 m virtuella linjära banan. (Vänster) Det genomsnittliga antalet slickar per rumslig behållare (5 cm) under 30-minuterssessionen (överst: VR-korridor med slumpmässiga visuella stimulanspaneler). (Höger) Antal slickar i varje 5 cm rumslig behållare per varv under denna session, representerad av en värmekarta. (B) Dag 1, den första träningsdagen med en enda belöningszon på 1,5 m (röd ruta i spårdiagrammet, överst) med hjälp av ett virtuellt spår som innehåller en enda högkontraststimulus vid position 0,8-1,2 m. (vänster) Genomsnittligt rumsligt slickantal under sessionen, vilket visar ökande slickningar när djuret närmar sig belöningszonen. (Höger) Rumsliga slickar per varv, vilket visar ökad selektivitet för slickning i pre-reward-regionen. (C) Dag 2, från samma dolda belöningsuppgift och virtuella korridor som dag 1 och från samma mus. (Vänster) Totalt antal slickar per rumslig soptunna, vilket visar en minskning av slickar utanför zonen före belöningen. (Höger) Rumsliga slickningar per varv på dag 2, vilket visar ökad slickning före belöningszonen och minskad slickning någon annanstans, vilket indikerar utvecklingen av rumsligt specifik förväntad slickning. Detta visar att detta djur har lärt sig den (ocued) dolda belöningsplatsen och utvecklat en strategi för att minimera ansträngning (slickning) i regioner där de inte förväntar sig att en belöning ska vara närvarande. Klicka här för att se en större version av denna figur.

Beteendemässigt resultat Antal möss Andel möss
Musen sprang inte/slickade 1 14%
Endast slumpmässig födosök 2 29%
Lärd dold belöning 4 57%
Totalt (N) 7

Tabell 1: Resultat av VR-beteendebeteende. Sju C57BL / 6-möss av båda könen vid 4 månaders ålder tränades gradvis för att utföra en rumslig dold belöningsuppgift i VR. Av dessa möss sprang / slickade en mus inte efter inledande träning (en av de sju mössen, 14%), medan sex av de återstående mössen lärde sig att springa på hjulet och slicka för slumpmässiga rumsliga belöningar i det slumpmässiga fodersteget av träning (sex av de sju mössen, 86%). Fyra av de sex möss som kunde utföra det slumpmässiga födosöksbeteendet lärde sig därefter att slicka selektivt i väntan på den icke-cued belöningen i den dolda belöningsuppgiften (fyra av de sju mössen, 57% av mössen totalt, fyra av de sex mössen, 66% av slumpmässiga födosökande möss), medan två inte gjorde det (två av de sju mössen, 29%).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Detta VR-system med öppen källkod för möss fungerar endast om de seriella anslutningarna görs korrekt mellan rotations- och beteende-ESP32-mikrokontrollerna och enkortsdatorn (steg 2), vilket kan bekräftas med hjälp av IDE-seriemonitorn (steg 2.4.5). För framgångsrika beteenderesultat från detta protokoll (steg 4) måste mössen vara vana vid apparaten och vara bekväma att springa på hjulet för flytande belöningar (steg 4.3-4.5). Detta kräver tillräcklig (men inte överdriven) vattenbegränsning, eftersom möss som ges ad libitum vatten i hemburet inte kommer att springa och slicka för belöningar (dvs för att ange deras upplevda plats), och uttorkade möss kan vara slöa och inte springa på hjulet. Det är också värt att notera att det finns alternativa metoder för att motivera musbeteende utan vattenbegränsning24; Vi testade dock inte dessa metoder här. För träningsförfarandet kan djur som inte springer från början få ad hoc (dvs. icke-rumsliga) vattenbelöningar av försöksledaren via en bifogad valfri knapptryckning, eller så kan hjulet flyttas försiktigt för att uppmuntra rörelse. För att utveckla slumpmässigt födosöksbeteende bör möss som springer men inte slickar köras med icke-operanta belöningar (beteende ESP32-kod: isOperant = 0;, steg 4.5.1) tills de springer och slickar efter belöningar, och de kan sedan köras med alternerande varv av icke-operanta och operanta belöningszoner (altOpt = 1; Steg 4.5.2) tills de börjar slicka på operanta varv innan de flyttas till helt operanta slumpmässiga belöningszoner (steg 4.5.3).

Medan vi har tillhandahållit fullständiga instruktioner och exempelresultat för en grundläggande uppsättning experiment som syftar till att framkalla en form av rumslig inlärning (konditionerad slickning på en dold belöningsplats i den virtuella linjära spårmiljön), kan samma grundläggande hårdvaru- och mjukvaruinställning också modifieras för leverans av mer komplexa visuospatiala miljöer med pi3d Python-paketet för Raspberry Pi. Till exempel kan detta system innehålla mer komplexa labyrinter som korridorer med varierande längder, flera mönster och 3D-objekt och naturalistiska 3D VR-landskap. Vidare kan beteendeprogramvaran för leverans av vattenbelöningar och andra icke-visuella stimuli modifieras för andra träningsparadigmer genom att ändra nyckelvariabler (presenteras i början av beteendet ESP32-koden) eller genom att infoga nya typer av rumsliga händelser i samma kod. Vi ger gärna råd till användare om metoder för att implementera andra typer av beteendeexperiment med denna VR-installation eller vid felsökning.

Uppslukande VR-miljöer har visat sig vara ett mångsidigt verktyg för att studera de underliggande neurala mekanismerna för rumslig navigering 6,7,8, belöningsinlärningsbeteenden9 och visuell uppfattning25 både i kliniska och djurstudier. Den största fördelen med detta tillvägagångssätt är att experimenten har tät kontroll över kontextuella element som visuella signaler och specifika rumsliga stimuli (t.ex. belöningar och olfaktoriska, auditiva eller taktila stimuli), vilket inte är praktiskt i verkliga miljöer med fritt rörliga djur. Det bör dock noteras att skillnader kan finnas i det sätt på vilket VR-miljöer kodas av hjärnområden som hippocampus jämfört med användningen av verkliga miljöer26,27. Med denna varning tillåter användningen av VR-miljöer experimenter att utföra ett stort antal beteendeförsök med noggrant kontrollerade stimuli, vilket möjliggör dissociation av bidragen från distinkta sensoriska element till rumslig navigering.

Komplexiteten i att bygga anpassade VR-inställningar kräver ofta en omfattande bakgrund inom teknik och datorprogrammering, vilket kan öka installationstiden och begränsa antalet apparater som kan konstrueras för att träna möss för experiment. VR-inställningar är också tillgängliga från kommersiella leverantörer; Dessa lösningar kan dock vara dyra och begränsade om användaren vill implementera nya funktioner eller utöka tränings-/inspelningskapaciteten till mer än en installation. Det uppskattade prisintervallet för VR-installationen med öppen källkod som presenteras här är < $ 1,000 (USD); En förenklad version för träning (t.ex. saknar goniometrar för justering av huvudvinkeln) kan dock produceras för < $ 500 (USD), vilket möjliggör konstruktion av flera inställningar för träning av möss i större skala. Det modulära arrangemanget av komponenter möjliggör också integration av VR med andra system för beteendekontroll, såsom löpbandssystemet med rumsliga lukt- och taktila stimuli som vi tidigare har använt20, och därmed är VR och andra stimulansmodaliteter inte ömsesidigt uteslutande.

Detta VR-system med öppen källkod med tillhörande hårdvara (löphjul, projektionsskärm och huvudfixeringsapparat), elektronikinstallation (enkortsdator och ESP32-mikrokontroller) och programvara (VR GUI och beteendekod) ger en billig, kompakt och lättanvänd installation för att leverera parametriserade uppslukande VR-miljöer till möss under huvudbegränsad rumslig navigering. Detta beteende kan sedan synkroniseras med neural avbildning eller elektrofysiologisk inspelning för att undersöka neural aktivitet under rumslig inlärning (steg 2.3.7). Spektrumet av experimentella tekniker som är kompatibla med VR är brett, allt från rumsligt inlärningsbeteende ensamt till kombination med fiberfotometri, miniskopavbildning, enfoton- och multifotonavbildning och elektrofysiologiska tekniker (t.ex. neuropixlar eller intracellulär inspelning). Medan nackstöd är nödvändigt för vissa av dessa inspelningstekniker, kan den extremt exakta karaktären av stimulanspresentation och beteendets stereotypa natur också vara användbar för andra tekniker som inte kräver huvudfixering, såsom miniskopavbildning och fiberfotometri. Det bör dock noteras att vår kapacitiva sensorbaserade lösning för detektering av slickar kan införa betydande brus på elektrofysiologiska spår. För att undvika sådana artefakter bör optiska eller andra (t.ex. mekaniska) sensorbaserade lösningar implementeras för slickdetektering.

Framtida förbättringar av VR-systemet kommer att laddas upp till projektets GitHub-sida (https://github.com/GergelyTuri/HallPassVR), så användarna bör kontrollera den här sidan regelbundet för uppdateringar. Till exempel håller vi på att ersätta de trådbundna seriella anslutningarna mellan mikrokontrollerna och enkortsdatorn med Bluetooth-funktionalitet, som är inbyggd i ESP32-mikrokontrollerna som redan används i denna design. Dessutom planerar vi att uppgradera HallPassVR GUI för att möjliggöra specifikationen av olika vägar i varje beteendesession för att innehålla olika positioner för viktiga landmärke visuella stimuli på olika varv. Detta kommer att möjliggöra större flexibilitet för att dissociera effekten av specifika visuella och kontextuella funktioner på den neurala kodningen av rymden under rumslig inlärning.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Clay Lacefield är grundare och underhållare av OpenMaze.org, som tillhandahåller design för OMwSmall PCB som används i detta protokoll gratis för nedladdning.

Acknowledgments

Vi vill tacka Noah Pettit från Harvey-labbet för diskussionen och förslagen under utvecklingen av protokollet i detta manuskript. Detta arbete stöddes av en BBRF Young Investigator Award och NIMH 1R21MH122965 (G.F.T.), förutom NINDS R56NS128177 (R.H., C.L.) och NIMH R01MH068542 (R.H.).

Materials

Name Company Catalog Number Comments
1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

DOWNLOAD MATERIALS LIST

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. Pettit, N., et al. Harvey Lab Mouse VR. , Available from: https://github.com/Harvey/Lab/mouseVR (2021).
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Tags

Neurovetenskap nummer 193
Ett virtual reality-system med öppen källkod för mätning av rumsligt lärande hos huvudbegränsade möss
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Lacefield, C., Cai, H., Ho, H.,More

Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter