Waiting
Login-Verarbeitung ...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Eine flexible Plattform zur Überwachung des kleinhirnabhängigen sensorischen assoziativen Lernens

Published: January 19, 2022 doi: 10.3791/63205

Summary

Wir haben eine einzige Plattform entwickelt, um das Verhalten von Tieren während zweier kletterfaserabhängiger assoziativer Lernaufgaben zu verfolgen. Das kostengünstige Design ermöglicht die Integration mit optogenetischen oder bildgebenden Experimenten, die auf das Klettern der faserassoziierten Kleinhirnaktivität gerichtet sind.

Abstract

Kletterfasereingänge zu Purkinje-Zellen liefern lehrreiche Signale, die für das kleinhirnabhängige assoziative Lernen entscheidend sind. Die Untersuchung dieser Signale an kopffixierten Mäusen erleichtert den Einsatz von bildgebenden, elektrophysiologischen und optogenetischen Methoden. Hier wurde eine kostengünstige Verhaltensplattform (~ $ 1000) entwickelt, die die Verfolgung des assoziativen Lernens in kopffesten Mäusen ermöglicht, die sich frei auf einem laufenden Rad befinden. Die Plattform umfasst zwei gängige assoziative Lernparadigmen: Augenzwinkernkonditionierung und verzögerte taktile Schreckkonditionierung. Das Verhalten wird mit einer Kamera und die Radbewegung von einem Detektor verfolgt. Wir beschreiben die Komponenten und den Aufbau und stellen ein detailliertes Protokoll für Training und Datenanalyse zur Verfügung. Diese Plattform ermöglicht die Integration von optogenetischer Stimulation und Fluoreszenzbildgebung. Das Design ermöglicht es einem einzelnen Host-Computer, mehrere Plattformen für das gleichzeitige Training mehrerer Tiere zu steuern.

Introduction

Die pawlowsche Konditionierung der Subsekundenassoziation zwischen Reizen, um eine konditionierte Reaktion hervorzurufen, wird seit langem verwendet, um das kleinhirnabhängige Lernen zu untersuchen. Zum Beispiel lernen Tiere bei der klassischen verzögerten Augenblinzelung (DEC), als Reaktion auf einen neutralen bedingten Reiz (CS; z. B. ein Lichtblitz oder einen auditiven Ton) ein gut getimtes schützendes Blinzeln zu machen, wenn es wiederholt mit einem bedingungslosen Reiz (US; z. B. einem Luftstoß auf die Hornhaut) gepaart wird, der immer ein Reflexblinzeln hervorruft. und die am oder nahe dem Ende des CS kommt. Die erlernte Reaktion wird als konditionierte Reaktion (CR) bezeichnet, während die Reflexantwort als unkonditionierte Antwort (UR) bezeichnet wird. Bei Kaninchen stören kleinhirnspezifische Läsionen diese Form des Lernens 1,2,3,4. Darüber hinaus liefern Purkinje-Zellkomplexspitzen, angetrieben durch ihre Kletterfasereingänge5, ein notwendiges6,7- und ausreichendes 8,9-Signal für die Erfassung von richtig getimten CRs.

In jüngerer Zeit wurden klimmfaserabhängige assoziative Lernparadigmen für kopffixierte Mäuse entwickelt. DEC war das erste assoziative Lernparadigma, das an diese Konfiguration angepasstwurde 10,11. DEC in kopffixierten Mäusen wurde verwendet, um Kleinhirnregionen 11,12,13,14,15,16,17 und Schaltungselemente 11,1 2,13,14,15,18,19 zu identifizieren die für die Aufgabenerfassung und das Löschen erforderlich sind. Dieser Ansatz wurde auch verwendet, um zu demonstrieren, wie sich die physiologische Darstellung von Aufgabenparametern auf zellulärer Ebene mit dem Lernen von 13,15,16 entwickelt.

Zusätzlich zum Augenblinzeln wurde kürzlich das DTSC-Paradigma (Delayed Startle Tactile Conditioning) als neuartige assoziative Lernaufgabe für kopffeste Mäuse20 entwickelt. Konzeptionell ähnlich wie DEC, beinhaltet DTSC die Präsentation eines neutralen CS mit einem US, einem Klopfen auf das Gesicht, das in der Intensität ausreicht, um einen Schreckreflex21,22 als UR zu aktivieren. Im DTSC-Paradigma werden sowohl die UR als auch die CR als rückwärts gerichtete Fortbewegung auf einem Rad ausgelesen. DTSC wurde nun verwendet, um aufzudecken, wie assoziatives Lernen die Kleinhirnaktivität und die Muster der Genexpressionverändert 20.

In dieser Arbeit wurde eine Methode entwickelt, um DEC oder DTSC flexibel in einer einzigen Plattform anzuwenden. Die Stimulus- und Plattformattribute sind in Abbildung 1 schematisiert. Das Design umfasst die Fähigkeit, das Verhalten von Tieren mit einer Kamera zu verfolgen, sowie einen Drehgeber, um die Fortbewegung der Maus auf einem Rad zu verfolgen. Alle Aspekte der Datenprotokollierung und der Versuchsstruktur werden von gepaarten Mikrocontrollern (Arduino) und einem Einplatinencomputer (SBC; Raspberry Pi). Auf diese Geräte kann über eine bereitgestellte grafische Benutzeroberfläche zugegriffen werden. Hier stellen wir einen Workflow für den Aufbau, die Versuchsvorbereitung und -durchführung sowie eine maßgeschneiderte Analysepipeline für die Datenvisualisierung vor.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Die hier beschriebenen Tierprotokolle wurden von den Animal Care and Use Committees der Princeton University genehmigt.

1. Einrichtung des SBC

  1. Schließen Sie das CSI-Kabel (Serial Interface) der Kamera an die Raspberry NoIR V2-Kamera und den Kameraanschluss des SBC an.
  2. Laden Sie das Betriebssystem für den SBC auf den Hostcomputer herunter. Schreiben Sie das Betriebssystemabbild auf eine micro Secure Digital (microSD)-Karte.
    HINWEIS: Detaillierte Anweisungen zu diesen Verfahren für einen Raspberry Pi SBC finden Sie an anderer Stelle23. Das System wurde mit den folgenden Betriebssystemen getestet: Stretch, Buster, Bullseye.
  3. Um eine sichere Shell-Kommunikation zu ermöglichen, erstellen Sie eine erweiterungslose Datei namens "ssh" in der Boot-Partition der microSD-Karte. Sobald dies erledigt ist, werfen Sie die microSD-Karte aus dem Host-Computer aus und setzen Sie sie in den SBC microSD-Kartensteckplatz ein. Versorgen Sie den SBC mit Strom, indem Sie das Netzteil anschließen.
  4. Bereiten Sie den SBC so vor, dass er eine Kabelverbindung zum Host akzeptiert.
    1. Befestigen Sie einen Monitor mit einem geeigneten Kabel am SBC. Öffnen Sie ein Terminal, geben Sie den Befehl ifconfig ein und notieren Sie die Ethernet-IP-Adresse des SBC.
      HINWEIS: Raspberry Pi Modell 3B + hat einen HDMI-Display-Anschluss, während Modell 4B einen Micro-HDMI-Anschluss hat.
    2. Gehen Sie zur Registerkarte Schnittstelle der Raspberry Pi-Konfigurationseinstellung und aktivieren Sie die Optionen für Kamera, Secure Shell Network Protocol (SSH) und Virtual Network Computing (VNC).
  5. Stellen Sie eine Kabelverbindung zwischen dem Hostcomputer und dem SBC her.
    1. Schließen Sie ein Ethernet-Kabel an den Ethernet-Port des SBC und eines Host-Computers an. Schließen Sie das andere Ende dieser Kabel an einen Ethernet-Switch an.
    2. Verwenden Sie einen virtuellen Netzwerk-Computing-Client wie VNC Viewer24 und greifen Sie mit der SBC-IP-Adresse und der Standardauthentifizierung (Benutzer = "pi", Kennwort = "Raspberry") auf den Desktop zu.
  6. Laden Sie die erforderliche Software herunter, die in den Protokollschritten enthalten ist.
    ACHTUNG: Ändern Sie den Standardbenutzernamen und das Standardkennwort, um unbefugten Zugriff auf den SBC zu verhindern.
    1. Geben Sie den folgenden Befehl in das SBC-Terminal ein, um die Rig-Software herunterzuladen:
      Git-Klon --depth=1 https://github.com/gerardjb/assocLearnRig
    2. Geben Sie die folgenden Befehle ein, um die erforderlichen Python-Bibliotheken herunterzuladen.
      cd assocLearnRig
      python3 setup.py
    3. Um eine direkte Steuerung des Mikrocontrollers zu ermöglichen, stellen Sie eine Verbindung zum SBC her und laden Sie die integrierte Entwicklungsumgebung (IDE) des Mikrocontrollers herunter, indem Sie die Schritte 1.6.4-1.6.7 ausführen.
    4. Öffnen Sie den Webbrowser auf dem SBC-Desktop und navigieren Sie zu https://arduino.cc/en/software. Laden Sie die neueste Linux ARM 32-Bit-Version der IDE herunter.
    5. Öffnen Sie ein Terminalfenster auf dem SBC-Desktop und navigieren Sie zum Download-Verzeichnis, indem Sie cd Downloads/ eingeben
    6. Um die IDE zu installieren, geben Sie die folgenden Befehle in das Terminal ein:
      tar -xf arduino--linuxarm.tar.xz
      sudo mv arduino- /opt
      sudo /opt/arduino-/install.sh

      (hier ist die Version der heruntergeladenen IDE)
    7. Öffnen Sie eine Instanz der Mikrocontroller-IDE auf dem SBC-Desktop. Wählen Sie die Menüoption Extras > Bibliotheken verwalten. Installieren Sie die Bibliothek "Encoder" von Paul Stoffregen.
  7. Erweitern Sie den SBC-Onboard-Speicher mit einem USB-Stick.
    1. Schließen Sie einen USB-Stick an einen USB-Anschluss am SBC an. Verwenden Sie einen USB 3.0-Anschluss, falls verfügbar.
    2. Geben Sie das Terminal ls -l /dev/disk/by-uuid/ ein, um den USB-Stick und seine eindeutige Referenz (UUID) zu finden. Notieren Sie die UUID.
    3. Damit der pi-Benutzer auf das USB-Gerät schreiben kann, geben Sie nacheinander die folgenden Befehle in das Terminal ein:
      sudo mkdir /media/usb
      sudo chown -R pi:pi /media/usb
      sudo mount /dev/sda1 /media/usb -o uid=pi,gid=pi
      HINWEIS: Der USB-Stick kann als Gerät hinzugefügt werden, das beim Neustart des SBC automatisch eingehängt wird, indem die folgende Zeile am Ende der fstab-Datei unter /etc/fstab hinzugefügt wird:
      UUID= /media/usb vfat auto,nofail,noatime,users,rw,uid=pi,gid=pi 0 0

2. Verdrahtungs-Stimulus-Hardware und Montagestufe

  1. Schließen Sie Mikrocontroller an und bereiten Sie sie vor.
    1. Verbinden Sie den SBC mit einem USB2-Mikrokabel vom Typ A auf USB2 mit dem Programmieranschluss des Mikrocontrollers (Arduino Due).
      HINWEIS: Verwenden Sie ein hochwertiges Kabel wie das Produkt in der Materialtabelle , um einen ordnungsgemäßen Betrieb zu gewährleisten.
    2. Suchen Sie "dueAssocLearn.ino" im heruntergeladenen Projekt-Repository. Öffnen Sie die Skizze mit der Mikrocontroller-IDE und laden Sie sie auf den Mikrocontroller hoch, der mit dem SBC verbunden ist.
    3. Laden Sie die entsprechende Version der Arduino-IDE herunter und installieren Sie sie auf dem Host-Computer.
    4. Verbinden Sie den Host-Computer mit einem USB2-Typ-B-auf-USB2-Typ-A-Kabel mit dem Mikrocontroller (Arduino Uno).
    5. Gehen Sie zum GitHub-Repository (https://github.com/gerardjb/assocLearnRig) und laden Sie die Skizze "DTSC_US.ino" auf den Hostcomputer herunter.
    6. Führen Sie auf dem Hostcomputer die Mikrocontroller-IDE aus, öffnen Sie die Skizze "DTSC_US.ino" und laden Sie sie dann auf den Mikrocontroller hoch.
  2. Befestigen Sie Drähte an den Mikrocontrollern, der Steckplatine, den LEDs, dem Drehgeber, dem Schrittmotor mit Treiber und dem Magnetventil mit Treiber, wie im Fritzing-Diagramm in Abbildung 2 dargestellt.
  3. Versorgen Sie den Schrittmotor und das Magnetventil mit Strom.
    1. Verdrahten Sie einen Kanal eines Netzteils ordnungsgemäß mit den +V- und GND-Pins des Schrittmotortreibers.
    2. Schalten Sie das Netzteil ein und stellen Sie die angeschlossene Kanalspannung auf 25 V ein.
      HINWEIS: Wenn die Verbindungen zwischen Schrittmotor, Treiber und Netzteil korrekt konfiguriert sind, leuchtet eine grüne Anzeige-LED am Schrittmotortreiber auf.
    3. Verdrahten Sie die positive Leitung eines Netzteils ordnungsgemäß mit dem Magnetventiltreiber-Haltespannungsstift und die andere positive Leitung mit dem Spike-Voltage-Pin.
    4. Befestigen Sie die negativen Leitungen an einem Boden, der mit dem Steuersignal geteilt wird.
    5. Schalten Sie das Netzteil ein und stellen Sie den Kanal, der an die Haltespannung angeschlossen ist, auf ca. 2,5 V und den an die Spike-Spannung angeschlossenen Kanal auf ca. 12 V ein.
  4. Schließen Sie eine auf einen Druck von ~20 PSI geregelte Luftquelle mit dem Luer-Adapter an das Magnetventil an.
  5. Testen Sie, ob alle Stimuluskomponenten und die Kamera ordnungsgemäß funktionieren.
    1. Öffnen Sie ein Terminal auf dem SBC und geben Sie cd ~/assocLearnRig ein, um zum geklonten GitHub-Repository zu navigieren.
    2. Geben Sie im Terminal python3 assocLearnRig_app.py ein, um die grafische Benutzeroberfläche des Steuerelements zu starten.
    3. Starten Sie den Kamerastream, indem Sie auf die Schaltfläche Stream klicken.
    4. Wählen Sie das DEC-Optionsfeld aus, laden Sie es auf den Mikrocontroller hoch und starten Sie eine Sitzung mit Standardparametern, indem Sie auf die Schaltfläche Sitzung starten klicken.
      HINWEIS: Nach diesem Schritt sollte ein Ausdruck des Datenprotokolls im Terminal erscheinen, die Meldung im Kamerastream sollte verschwinden und die LED CS und das Magnetventil US sollten sich zu geeigneten Zeiten während jeder Testphase ein- und ausschalten.
    5. Wiederholen Sie nach Abschluss der Sitzung die vorherigen Schritte bei ausgewähltem Optionsfeld DTSC.
      HINWEIS: Skizzen im GitHub-Repository ("testStepper.ino", "testRotary.ino" und "testSolenoid.ino") können verwendet werden, um einzelne Komponenten zu testen, wenn die oben genannten Schritte keine zufriedenstellenden Ergebnisse liefern.
  6. Machen Sie das Laufrad.
    1. Schneiden Sie ein 3-Zoll-Rad aus einer Schaumstoffwalze. Bohren Sie ein 1/4 "-Loch in die genaue Radmitte, damit das Rad nicht wackelt, wenn es durch die Fortbewegung der Maus gedreht wird.
    2. Setzen Sie eine 1/4-Zoll-Welle in das Rad ein und befestigen Sie sie mit Klemmnaben auf jeder Seite des Rades.
  7. Befestigen Sie den Drehgeber mit einer M3-Schraube an einem 4,5-Zoll-Aluminiumkanal. Stabilisieren Sie den Aluminiumkanal auf dem Aluminium-Panierbrett mit einer rechten spitzen Halterung mit einer 1/4-Zoll-Schraube, einer Mutter und einer Unterlegscheibe, wie gezeigt.
  8. Befestigen Sie das Rad und den Drehgeber mit einer Wellenkupplungshülse.
  9. Stabilisieren Sie die freie Seite der Radwelle mit einem Lager, das in eine rechtwinklige Endklemme eingefügt ist, die auf einem an einer Steckplatine montierten optischen Pfosten installiert ist.
    HINWEIS: Stellen Sie sicher, dass sich das Rad frei dreht, ohne zu wackeln, wenn es von Hand gedreht wird.
  10. Positionieren Sie die Stimulus-Hardware, die Kopfstütze, das Infrarot-Licht-Array und die Picamera um das montierte Rad.
    1. Positionieren Sie die Kopfstützen mit optischen Pfosten und rechtwinkligen Pfostenklemmen so, dass sich die Kopfstützen 1,5 cm vor der Radachse und 2 cm über der Radoberfläche befinden. (Die Werte beziehen sich auf eine 20-g-Maus).
    2. Positionieren Sie die CS-LED und den Magnetventilausgang, die für den DEC US verwendet werden, weniger als 1 cm von dem für DEC verwendeten Auge.
    3. Montieren Sie den Schrittmotor, der für den DTSC US verwendet wird
    4. Montieren Sie die Pikamera auf einem optischen Pfosten ~ 10 cm von der Stelle entfernt, an der sich das Tier befinden wird.
      HINWEIS: Das Design für die Picamera-Halterung kann auf einem 3D-Drucker aus der Datei in "RaspPiCamMount1_1.stl" im GitHub-Repository erstellt werden.
    5. Platzieren Sie das Infrarotlicht-Array leicht über und direkt mit Blick auf die Position des Gesichts auf der gleichen Seite wie die Picamera.
    6. Machen Sie einen taktilen Stimulus für DTSC, indem Sie Schaum mit einer Klemmnabe an den Rand eines Akrylstücks kleben, das an einem 1/4-Zoll-Schaft montiert ist. Befestigen Sie den taktilen Stimulus an der Schrittmotorwelle.
      HINWEIS: Das Design für das Acrylstück kann nach dem Muster in "TactileStimDesign.pdf" im GitHub-Repository lasergeschnitten werden.

3. Vorbereiten und Ausführen von Verhaltensexperimenten

  1. Implantieren der Kopfplatte der Maus.
    1. Anästhesieren Sie eine Maus mit 2% Isofluran und Kopffixierung in einem stereotaktischen Rahmen.
    2. Tragen Sie eine Augensalbe auf die Augen auf.
    3. Rasieren Sie die Kopfhaut mit Seifenwasser und einem sterilen Skalpell. Injizieren Sie Lidocain direkt unter die Haut der Inzisionsstelle und reinigen Sie die Operationsstelle mit Povidon.
    4. Machen Sie einen Schnitt mit einem Skalpell entlang der Mittellinie der Kopfhaut vom hinteren Rand der Augen bis zum hinteren Rand des Schädels, wobei Sie darauf achten, nicht zu stark auf den Schädel zu drücken.
    5. Verteilen Sie den Schnitt und klemmen Sie beide Seiten mit sterilen Hämostaten fest, um ihn offen zu halten. Entfernen Sie das Periost vorsichtig mit einem Wattestäbchen, das mit Ethanol getaucht ist, und lassen Sie die Oberfläche des freiliegenden Schädels trocknen.
    6. Positionieren Sie die Kopfplatte auf Höhe des Schädels und stellen Sie sicher, dass die Vorderseite der Kopfplatte nach den Augen positioniert wird. Verwenden Sie Cyanacrylat-Kleber, um die Kopfplatte am Schädel zu befestigen und den Kleber vollständig trocknen zu lassen.
    7. Mischen Sie das Zahnzementpulver (1 Messlöffel), das Lösungsmittel (2 Tropfen) und den Katalysator (1 Tropfen) in einer Mischschale und tragen Sie es auf alle Bereiche des exponierten Knochens auf. Fügen Sie Schichten hinzu, bis die Oberfläche bündig mit der Oberkante der Kopfplatte ist, und stellen Sie sicher, dass die Kopfplatte sicher am Schädel befestigt ist.
    8. Nähen Sie die Haut bei Bedarf hinter und vor der Kopfplatte geschlossen.
    9. Injizieren Sie postoperative Analgesie wie Carprofen gemäß den institutionellen Richtlinien, während sich das Tier mindestens 5 Tage lang erholen kann.
  2. Vorbereiten von Verhaltenssitzungen.
    1. Erlauben Sie den Versuchstieren, sich an die Plattform zu gewöhnen, indem Sie sie 5 Tage vor den Experimenten für 30-minütige Sitzungen in der Kopfstütze montieren.
      HINWEIS: Am Ende der Gewöhnungssitzungen sollten die Tiere bequem auf dem Rad laufen.
    2. (Nur DEC) Stellen Sie vor den Sitzungen sicher, dass der Magnetventilauslass auf dem > 1 cm entfernten Zielauge zentriert ist.
    3. (Nur DEC) Betätigen Sie manuell einen Luftstoß mit dem Druckknopf. Stellen Sie sicher, dass die Maus sofort ein Blinzeln erzeugt, ohne offensichtliche Anzeichen von Stress zu zeigen, z. B. eine gebeugte Haltung einzunehmen oder die betroffene periokulare Region mit der ipsilateralen Vorderpfote zu greifen.
    4. (nur DTSC) Stellen Sie vor den Sitzungen sicher, dass der taktile Reiz auf der Nase des Tieres zentriert ist, die ~ 1,5 cm entfernt ist.
      HINWEIS: Wenn eine DTSC-Verhaltenssitzung nicht ausgeführt wird, wird der Schrittmotor automatisch deaktiviert, um eine manuelle Neupositionierung zu ermöglichen.
    5. (nur DTSC) Geben Sie im SBC-Terminal python3 assocLearnRig_app.py ein, um die GUI zu starten.
    6. (nur DTSC) Führen Sie eine Testsitzung mit drei Versuchen mit den Standardparametern durch, indem Sie auf die Schaltfläche Sitzung starten in der GUI klicken.
    7. (nur DTSC) Stellen Sie sicher, dass die protokollierten Daten, die auf das Terminal gedruckt werden, eine Ablenkung von mehr als 20, aber weniger als 100 Schritten aufweisen, die auf dem Drehgeber nach den USA bei jedem Versuch protokolliert wurden.
      VORSICHT: Um Schäden zu vermeiden und Stress für das Tier zu reduzieren, starten Sie den Reiz weiter vom Tier entfernt und bewegen Sie ihn näher, bis die erforderlichen Bedingungen erfüllt sind.
  3. Ausführen von Verhaltenssitzungen mit Datenprotokollierung.
    1. Montieren Sie eine Maus an der Kopfstütze.
    2. Geben Sie im Terminal des SBC python3 assocLearnRig_app.py ein, um die GUI zu starten.
    3. Um Kameraaufnahmen während der Verhaltensversuche zuzulassen, drücken Sie die Schaltfläche Stream .
      HINWEIS: Sitzungen können ohne Kamera ausgeführt werden. In diesem Fall werden nur Daten vom Drehgeber und den Zeitstempeln der Stimulusdarstellung protokolliert.
    4. Geben Sie identifizierende Informationen für das Tier in das Feld Tier-ID ein und drücken Sie die Schaltfläche Festlegen .
    5. Wählen Sie entweder das DEC oder DTSC aus dem Optionsfeld unter der Überschrift Sitzungstyp aus, je nachdem, welches Verhaltensparadigma gewünscht wird.
    6. Geben Sie die gewünschten Experimentparameter in die Felder unter dem Feld Tier-ID ein und klicken Sie auf die Schaltfläche Auf Arduino hochladen .
      HINWEIS: Details zu den Experimentparametern finden Sie im README-Abschnitt des GitHub-Repositorys.
    7. Klicken Sie auf die Schaltfläche Sitzung starten, um die Sitzung zu starten .
    8. Wenn eine Sitzung initialisiert wird, beginnen die Daten mit der Anmeldung in einem neuen Verzeichnis, das in "/media/usb" im Einhängepunkt des SBC-USB-Sticks erstellt wurde.

4. Exportieren und Analysieren von Daten

  1. Um alle aufgezeichneten Sitzungen auf den Hostcomputer zu exportieren, öffnen Sie eine Eingabeaufforderung und geben Sie den Befehl pscp -r pi@Pi_IP_address:/media/usb* host_computer_destination ein, und authentifizieren Sie sich dann mit dem SBC-Passwort.
    HINWEIS: Der obige Befehl gilt für einen Windows-Computer. Verwenden Sie auf Mac- und Linux-Computern Terminal und ersetzen Sie "pscp" durch "scp".
  2. Installieren Sie Anaconda25 oder einen anderen Python-Paketmanager (PPM) auf dem Hostcomputer.
  3. Gehen Sie zum GitHub-Repository und laden Sie "analyzeSession.py", "summarizeSessions.py", "session2mp4s.py" und "requirementsHost.txt" herunter.
  4. Öffnen Sie eine PPM-Eingabeaufforderung und geben Sie conda install --file directory_containing_requirementsHostrequirements Host.txt ein, um sicherzustellen, dass die Python-Paketinstallation über die erforderlichen Python-Bibliotheken verfügt.
  5. Geben Sie in der Eingabeaufforderung cd directory_containing_analyzeData ein, um zu dem Verzeichnis zu navigieren, das "analyzeData.py" und "session2mp4s.py" enthält. Führen Sie das Analyseprogramm aus, indem Sie python analyzeSession.py eingeben
    HINWEIS: Bei Verwendung einer Python 2-Version als Python wird eine Fehlermeldung generiert. Um die Version zu überprüfen, geben Sie python -V in die Eingabeaufforderung ein.
  6. Wählen Sie das Verzeichnis aus, das die Daten enthält, wenn Sie dazu aufgefordert werden. Verzeichnisse mit mehreren Unterverzeichnissen werden nacheinander analysiert.
  7. Wählen Sie für DEC-Sitzungen für jedes analysierte Sitzungsverzeichnis einen Bereich von Interesse (ROI) aus, der das Auge der Maus aus einem durchschnittlichen Testbild enthält.
    HINWEIS: Abschließende Analysedatendateien und Zusammenfassungsdiagramme werden in ein Unterverzeichnis jedes analysierten Sitzungsverzeichnisses gefüllt.
  8. Geben Sie python summarizeSessions.py ein, um Zusammenfassungsdaten über mehrere Sitzungen hinweg zu generieren.
  9. Geben Sie die Eingabeaufforderung python session2mp4s.py ein, um Imaging-Datendateien in anzeigbare .mp4 Dateien zu konvertieren.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Workflow für DEC-Experimente und -Analysen
Die richtige experimentelle Parameterauswahl ist wichtig für ein erfolgreiches DEC-Training (Delay Eyeblink Conditioning). Für die hier dargestellten Daten wurde die GUI verwendet, um eine CS-Dauer von 350 ms und eine US-Dauer von 50 ms zu wählen. Diese Paarung führt zu einem Inter-Stimulus-Intervall von300 ms: lang genug, um eine CR-Produktion mit niedriger Amplitudezu verhindern 10, und kurz genug, um zu vermeiden, in das Regime des schlechten Lernens oder der Spurenkonditionierung zu geraten, ein Prozess, der zusätzliche Gehirnregionen 11 einbezieht. Die Zeit zwischen den Versuchen wurde unter Verwendung der ITI-Felder niedrig und hoch festgelegt, um zufällig einheitlich aus einem Bereich von 5-15 s ausgewählt zu werden. Die Randomisierung der Inter-Trial-Intervalle macht es Tierprobanden unmöglich, andere Timing-Hinweise als die CS und US selbst für die Aufgabenerfüllung zu verwenden.

Die Einbeziehung von Versuchen, die entweder die CS oder US auslassen, ermöglicht die Beurteilung der CR- und UR-Kinematik auch bei trainierten Tieren. Der Benutzer kann den Anteil der Studien definieren, in denen CS und US gepaart oder isoliert dargestellt werden. In den hier vorgestellten Daten haben wir alle Sitzungen mit 10% CS-only-Studien durchgeführt, wobei gepaarte Studien den Rest und keine US-amerikanischen Studien ausmachen. Beachten Sie, dass sich die Aufnahme einer übermäßigen Anzahl ungepaarter Studien negativ auf das Training auswirken kann. Zum Beispiel werden Sitzungen mit mehr als 50% der ungepaarten Versuche häufig verwendet, um das Aussterben von CRs bei trainierten Tierenvoranzutreiben 19,26.

Kameravorbereitung und Lichtverhältnisse sind ebenfalls entscheidend für die Erfassung qualitativ hochwertiger Daten. Die Bildrate der Aufnahme kann in der Picamera-Erfassungssoftware angepasst werden. In den hier vorgestellten Daten haben wir eine Bildrate von 120 Hz für DEC-Experimente festgelegt. Das Picamera-Modul selbst erlaubt Bildraten von bis zu ~ 200 Hz, aber wir stellen fest, dass niedrigere Raten einen Bildverlust verhindern und eine angemessene zeitliche Auflösung für das Augenlid-Tracking bieten. Das Infrarotlicht muss platziert werden, um das periokuläre Fell gleichmäßig auszuleuchten, ohne übermäßige Reflexion von der Hornhaut zu erzeugen, wenn das Auge geöffnet ist. Abbildung 3A zeigt ein Beispielbild aus einer Aufzeichnungssitzung mit akzeptabler Beleuchtung. Die Picamera-Erfassungssoftware (picameraStream.py) wurde entwickelt, um konsistente Einstellungen während einer Sitzung bereitzustellen, indem der Weißabgleich und die Verstärkung der Kamera basierend auf den Beleuchtungsbedingungen beim Initialisieren der Kamera eingestellt und gehalten werden.

Sobald eine Verhaltenssitzung initialisiert wurde, werden Daten von der Kamera und anderen Hardwarekomponenten der Plattform automatisch protokolliert. Datenprotokolle werden in einem Verzeichnis erstellt, das durch die Datums- und Werteingabe in das Tier-ID-Feld in der GUI benannt wird. Kamerabilder und Zeitstempel für jeden Versuch werden in einzelnen Dateien gespeichert, die mit der Tier-ID, dem Versuchsdatum und der Versuchsnummer benannt werden. Plattformereignisse für jede Sitzung, einschließlich Radgeschwindigkeit, Teststarts, Teststopps sowie CS- und US-Timing, werden als einzelne .txt Datei gespeichert.

Daten, die an die Host-Maschine übertragen werden, können dann wie in Abschnitt 4 des Protokolls beschrieben analysiert werden. Wenn Sie analyzeData.py für ein Zielverzeichnis ausführen, wird ein .npy-Container für die Augenlidposition im Vergleich zur Zeit für alle Versuche in einem Array erstellt, der auf der Analyse der Kameradateien basiert. Diese Containerdatei wird in dem analysierten Verzeichnis erstellt. Sobald alle Sitzungen für ein bestimmtes Tier analysiert wurden, können alle Sitzungen mit summarizeSessions.py ausgerichtet und verkettet werden. Die Ergebnisse eines Tieres, das für 8 DEC-Sitzungen trainiert wurde, sind in Abbildung 3B dargestellt. Darüber hinaus können einzelne Testversionen mit dem Dienstprogramm session2mp4s.py als anzeigbare .mp4 Dateien gerendert werden. Dieses Dienstprogramm druckt ein Quadrat in die obere linke Ecke des Films ein, um anzuzeigen, wann CS und US angewendet werden. Auf diese Weise vorbereitete DEC-Beispielstudien werden nebeneinander als Ergänzendes Video 1 vorgestellt. Das linke Feld zeigt einen Versuch, bei dem das Tier erfolgreich sein Auge als Reaktion auf die LED CS schließt. Im rechten Bereich blinzelt das Tier erst, wenn die USA beginnen.

Tiere, die nach den Protokollen in Abschnitt 3 auf DEC trainiert und mit den vorstehenden Überlegungen aufgezeichnet wurden, sollten klare Hinweise auf zeitlich gut abgestimmte CRs zeigen, die schrittweise über mehrere Trainingstage erworben wurden. Beispiele für Verhaltensspuren ohne CRs bei einem untrainierten Tier und Spuren, die robuste CRs von einem trainierten Tier enthalten, sind in Abbildung 3B dargestellt. Wie diese Spuren zeigen, sollten naive Tiere keine Reaktion auf die CS zeigen, sondern eine robuste Reaktion auf die USA. CRs sollten sowohl in der Größe als auch in der Häufigkeit durch Tagesverhaltenssitzungen schrittweise zunehmen (Abbildung 3B-D). Im Gegensatz dazu schränken suboptimale Lichtverhältnisse die Qualität der erfassten Daten stark ein. Wenn der Kontrast zwischen dem Auge und dem umgebenden Fell gering ist (Abbildung 3E), können geringfügige Änderungen im Bild die aufgezeichnete Form des UR über eine einzelne Sitzung signifikant verändern und das Signal-Rausch-Verhältnis zur Erkennung der Augenlidposition verringern (Abbildung 3F-G).

Um High-Fidelity-Augenlidaufnahmen zu gewährleisten, ist eine optimale Platzierung der Lichtquelle von entscheidender Bedeutung. Die Beleuchtungs-LED sollte direkt auf das aufgenommene Auge trainiert werden. Wenn die Platzierung zu einer übermäßigen Blendung der Hornhautoberfläche führt, kann ein Diffusor über dem LED-Array platziert werden, um diesen Effekt zu reduzieren.

Workflow für DTSC-Experimente und -Analysen
Viele der Überlegungen zur experimentellen Parameterauswahl ähneln sich zwischen Delay Tactile Startle Conditioning (DTSC) und DEC. Hier werden wir auf diejenigen hinweisen, die sich unterscheiden. In den Beispieldaten wurde die DTSC CS-Dauer auf 250 ms mit einer US-Dauer von 50 ms festgelegt. Dieses kürzere Interstimulusintervall wurde so gewählt, dass es eng mit der kürzeren Dauer übereinstimmt, die als optimal für DTSC-Lernen20 beschrieben wird. Andere Plattformparameter, die über die GUI festgelegt wurden, waren identisch mit denen, die für DEC verwendet wurden.

Die richtige Platzierung des taktilen Reizes ist entscheidend für das Lernen in DTSC. Wir montieren den taktilen Reiz so, dass das Schaumstoffende in der neutralen Position in einem Abstand von ca. 1,5 cm leicht über der Nase des Tieres zentriert ist. Einmal montiert, kann der Stimulus von Hand gedreht werden, wenn eine Sitzung nicht läuft. Während der Sitzungen hält der Schrittmotor den Reiz an einer bestimmten Stelle, bis ein US ausgelöst wird. Um sicherzustellen, dass die Positionierung korrekt ist, führen wir eine Vorbereitungssitzung von etwa drei Studien durch. Ereignisse, die auf dem Drehgeber protokolliert werden, werden auf dem Klemmenbildschirm ausgegeben, und dieser Ausdruck kann verwendet werden, um die Amplitude von tierischen URs in Echtzeit zu überwachen. Während die maximale Amplitude von Versuch zu Versuch variiert, sollten Tiere mit einem durchschnittlichen Maximum von ~ 40 Zählungen auf dem Encoder während der kurzen Sitzung bei der DTSC-Aufgabe gut abschneiden. Basierend auf den Einstellungen der Drehgebersteuerung entspricht dieser Wert 24 cm/s, wobei ein negativer Wert anzeigt, dass sich das Tier auf dem Rad rückwärts bewegt.

Die Organisation und Benennung von Dateien, die im Laufe von DTSC-Sitzungen erstellt wurden, sind die gleichen wie in DEC. Beim Ausführen von analyzeSession.py wird ein .npy-Container für Radgeschwindigkeit im Vergleich zur Zeit für alle Versuche in einem Array aus der Analyse der in der .csv Datei protokollierten Daten erstellt. Sobald alle Sitzungen für ein bestimmtes Tier analysiert wurden, können alle Sitzungen mit summarizeSession.py ausgerichtet und verkettet werden. Die Ergebnisse eines Tieres, das für 5 DEC-Sitzungen trainiert wurde, sind in Abbildung 4A dargestellt. Was DEC betrifft, so können die Kameraaufnahmen von DTSC in sichtbare .mp4 Dateien konvertiert werden. Beispiel-DTSC-Studien werden nebeneinander in Supplementary Video 2 gezeigt. Das linke Feld zeigt einen Versuch, bei dem das Tier erfolgreich das Rad als Reaktion auf die LED CS unterstützt. Im rechten Bereich bewegt das Tier das Rad nicht, bis der taktile Reiz US angewendet wird.

Der Zeitverlauf und die Amplitude relativ zur UR der Reaktionen bei Tieren, die nach dem DTSC-Paradigma trainiert wurden, zeigen qualitative Ähnlichkeiten mit denen, die auf DEC trainiert wurden. Naive Tiere sollten keine Reaktion auf die CS zeigen und lernen, das Rad als Reaktion auf die CS erst nach wiederholter Exposition gegenüber dem gepaarten CS und US rückwärts zu bewegen. Die Häufigkeit und Amplitude von CRs nimmt mit fortschreitendem Training zu (Abbildung 4A,B). Im Fall von DTSC haben wir festgestellt, dass die UR-Amplitude früh im Training ein guter Prädiktor für den Lernerfolg ist. In einer Kohorte von Tieren, die mit einem US trainiert wurden, das URs mit niedriger Amplitude (<20 cm/s) produzierte, lernte kein Tier nach 4 Tagen Training, konsequent CRs zu produzieren (Abbildung 4C,D).

Unterschiede zwischen DEC- und DTSC-Schulungen
DEC und DTSC unterscheiden sich in wichtigen Punkten. Erstens erfolgt das DTSC-Lernen auf dieser Plattform schneller, wobei die meisten Tiere am dritten Trainingstag ein hohes Maß an Aufgabenkompetenz und am fünften Tag eine asymptotische Leistung erreichen. Das DEC-Lernen ist für die meisten Tiere um mindestens 3 Tage langsamer. Zweitens beinhaltet das DTSC-System eine automatische Erkennung erfolgreicher CRs, die als Rückkopplungssignal an die Vorrichtung dienen, um die Amplitude des taktilen Reizes zu verringern. Dieses Trainingsverfahren ahmt die Augenblinzelkonditionierung nach, bei der eine verbesserte CR-Leistung einen teilweisen Schutz vor einem aversiven Hornhautluftstoß bietet. Im Gegensatz dazu sind kopffixierte Tiere im DTSC-Paradigma nicht in der Lage, sich allein durch ihre motorische Reaktion vor dem taktilen Reiz zu schützen. Indem sie die US-Amplitude auf das Vorhandensein einer CR stützen, haben Tiere die Möglichkeit, sich vor dem aversiven Reiz zu schützen.

Figure 1
Abbildung 1: Plattformattribute und Design. (A) Plattformelemente zur Erfassung des Tierverhaltens unter kopffesten Bedingungen. Die Maus wurde aus einem Biorender-Bild adaptiert. (B) Timing und Stimuli für die DEC- und DTSC-Konditionierung. Ein benutzerdefiniertes Inter-Stimulus-Intervall (ISI) bestimmt, wie lange die CS-Nur-Epoche dauert. CS- und US-Epochen sind so konzipiert, dass sie gemeinsam enden. (C) Bild, das die Platzierung der wichtigsten Plattformelemente zeigt. 1) Schrittmotor zur Steuerung des DTSC US. 2) Laufrad für das Tier. 3) Drehgeber zur Verfolgung der Radbewegung. 4) Schaum über einen Acrylarm geklebt, der als taktiler DTSC-Reiz dient. 5) LED CS. 6) Magnetventil und Steckdose, die den DEC US bereitstellt. 7) Picamera zur Aufzeichnung des Verhaltens von Tieren. 8) Infrarot-LED für Bühnenbeleuchtung. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 2
Abbildung 2: Verdrahtung von Plattform-Hardwareelementen. (A) Fritzing-Schaltplan der Plattformhardware bei vollständiger Montage. Drähte werden durch Module mit orange = Kameramodul gefärbt; gelb = DEC US-Modul; blau = LED-CS-Modul; lila = DTSC US-Modul; grün = Drehgebermodul. Die Picamera ist ausgeschlossen, wird aber an die serielle Kameraschnittstelle angeschlossen, die sich auf der Oberfläche des Raspberry Pi befindet. Batterien zeigen Gleichstromversorgungen mit der angegebenen Spannung an. (B-F) Äquivalentes Verdrahtungsschema für isolierte Module. Die Drähte wurden neu eingefärbt, so dass Rot und Schwarz immer positive Versorgungsschiene bzw. Masse anzeigen, während andere Drähte farbig sind, um eine einfache Verfolgung der Schaltung zu ermöglichen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 3
Abbildung 3: Repräsentative Ergebnisse des DEC-Trainings . (A) Beispiel Kamerarahmen aus einer Sitzung mit akzeptablen Beleuchtungsbedingungen. Beachten Sie den hohen Kontrast zwischen dem Auge und dem periokularen Fell. (B) Leistung eines einzelnen Tieres während tageübergreifender Sitzungen im DEC-Paradigma. Horizontale Linien zeigen die Leistung bei jedem Versuch an, wobei warme Farben mehr Augenlidverschluss anzeigen. Die ganz links stehende rote schwarze vertikale Linie zeigt den Beginn des CS an, während die gepunktete Linie die Initiation der USA anzeigt. Die zweite durchgezogene Linie zeigt die Einstellung der CS und der US an. Beachten Sie, dass die Anzahl der Versuche mit erfolgreichen Antworten während der CS über die Trainingseinheiten hinweg zunimmt. (C) Tierleistung aus (B) mit individuellen Spuren, die sich aus dem Versuchsdurchschnitt für die Sitzung pro Tag ergeben. Die Farbtonsättigung zeigt die Sitzungsnummer mit einer höheren Sättigung für spätere Sitzungen an. (D) Leistung für alle Tiere der DEC-Gruppe (n = 7). Die dünnen Linien geben den Prozentsatz der Versuche mit einem nachweisbaren CR aus jeder Sitzung für jedes Tier an. Die dicken Linien zeigen die Sitzungsmittel über alle Tiere an. (E) Beispiel Kamerabild aus einer Sitzung mit suboptimalen Beleuchtungsbedingungen. (F) Quantifizierung einzelner Versuche, die mit schlechter Beleuchtung aufgezeichnet wurden. Die UR ist nachweisbar, aber mit geringerem Kontrast und höherer Variabilität als unter optimalen Lichtverhältnissen. (G) Durchschnittliche Sitzungsspuren aus den unter Buchstabe F dargestellten Studien. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 4
Abbildung 4: Repräsentative Ergebnisse des DTSC-Trainings. (A) Leistung eines einzelnen Tieres während tageübergreifender Sitzungen im DTSC-Paradigma. Horizontale Linien zeigen die Leistung bei jedem Versuch an, während warme Farben die Rückwärtsbewegung des Rades anzeigen. Die schwarze vertikale Linie ganz links zeigt den Beginn des CS an, während die gepunktete Linie die Initiation der USA anzeigt. Die zweite durchgezogene Linie zeigt die Einstellung der CS und der US an. (B) Tierleistung aus (A) mit individuellen Spuren, die aus dem Versuchsdurchschnitt für die Sitzung pro Tag abgeleitet werden. Die Farbtonsättigung zeigt die Sitzungsnummer mit einer höheren Sättigung für spätere Sitzungen an. (C) Leistung für alle Tiere der DTSC-Gruppe (n = 6). Die dünnen Linien geben den Prozentsatz der Versuche mit einem nachweisbaren CR aus jeder Sitzung für jedes Tier an. Die dicken Linien zeigen die Sitzungsmittel über alle Tiere an. (D) Einzelversuche wie in (A) aus einer Kohorte, in der die US-Intensität URs niedriger Amplitude hervorrief. (E) Durchschnittliche Spuren der Sitzung gemäß (B) für die Tiere, die den schwachen USA ausgesetzt sind. (F) Leistung für alle Tiere in DTSC mit schwachen US (n = 6). Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Ergänzendes Video 1: Beispiel für DEC-Hit-and-Miss-Trials. DEC-Studien werden in Video 1 verglichen. Jedes Video zeigt Versuche, in denen das Subjekt (Links) oder nicht (rechts) das Ziel-CR synchronisiert und zum Vergleich nebeneinander abgespielt wird. Die LED CS leuchtet auf, wenn das blaue Quadrat in der oberen linken Ecke jedes Videos erscheint. Das US-Steuersignal ist aktiv, wenn ein weißes Quadrat das blaue Quadrat ersetzt. CS- und US-Steuersignale enden mit, wenn das Quadrat verschwindet. Bitte klicken Sie hier, um dieses Video herunterzuladen.

Ergänzendes Video 2: Beispiel DTSC-Hit-and-Miss-Trials. Video 2 zeigt den Vergleich der DTSC-Studie. Jedes Video zeigt Versuche, in denen das Subjekt (Links) oder nicht (rechts) das Ziel-CR synchronisiert und zum Vergleich nebeneinander abgespielt wird. Die LED CS leuchtet auf, wenn das blaue Quadrat in der oberen linken Ecke jedes Videos erscheint. Das US-Steuersignal ist aktiv, wenn ein weißes Quadrat das blaue Quadrat ersetzt. CS- und US-Steuersignale enden mit, wenn das Quadrat verschwindet. Bitte klicken Sie hier, um dieses Video herunterzuladen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Die hier skizzierte Plattform mit zugehörigen Protokollen kann verwendet werden, um das Verhalten von Tieren in zwei sensorisch assoziativen Lernaufgaben zuverlässig zu verfolgen. Jede Aufgabe hängt von einer intakten Kommunikation über den Kletterfaserweg ab. In das hier beschriebene Design integrieren wir Elemente, die das Lernen und die Aufzeichnung / Störung der Kleinhirnreaktion erleichtern. Dazu gehört ein Rad, das eine freie Fortbewegung11,18 sowie eine Kopffixierung ermöglicht. Das Rad ermöglicht es den Mausprobanden, sich frei zu bewegen, was für die DEC-Erfassung18 als kritisch angesehen wurde. Die Kopffixierung bei Mäusen ermöglicht es Forschern, genetische, elektrophysiologische, bildgebende und optogenetische Ansätze zu nutzen, die bei anderen Modellspezies oder unter frei beweglichen Bedingungen schwieriger anzuwenden sind12. Wir haben unser Design für jede dieser Anwendungen verwendet. Die auf den Mikrocontrollern ausgeführte Software kann leicht angepasst werden, um Timing-Signale für die Multiphotonenerfassung oder die Synchronisation mit optogenetischer Stimulation zu steuern, beide mit einer Genauigkeit von unter einer Millisekunde. Es muss darauf geachtet werden, die Wahrnehmung von optogenetischen und bildgebenden Geräten durch Tiere zu minimieren, wenn diese mit Verhaltensexperimenten kombiniert werden. Zum Beispiel geben viele Multiphotonensysteme einen hörbaren Ton von ihren galvanometrischen Scannern oder Verschlüssen ab, wenn die Bilderfassung beginnt. Wenn die Akquisitionen durch Versuchsstarts ausgelöst werden, können solche Geräusche als unbeabsichtigter Hinweis für Tierprobanden dienen, dass ein Stimulus bevorsteht.

Die Steuerung des Verhaltensapparats basiert auf einem SBC, mit dem eine grafische Benutzeroberfläche für die Verwaltung des Experiments, der Kamera und des Datenexports generiert wird. Der SBC sendet auch Befehle an zwei Mikrocontroller, die das Timing von Versuchen übernehmen und Hardwarekomponenten wie die Stimuluspräsentation und den Drehgeber direkt steuern. Die hier beschriebenen Protokolle wurden entweder mit einem Raspberry Pi 3B + oder 4B getestet, der an einem Arduino Due to Control Experiment Timing und einem Arduino Uno zur Steuerung der Präsentation des DTSC US angebracht war. Andere Hardware-Design-Implementierungen sind möglich, wurden aber nicht mit der mitgelieferten Software getestet.

Um die parallele Nutzung mehrerer Rigs zu erleichtern, empfehlen wir, den SBC im "Headless"-Modus zu betreiben. In dieser Konfiguration wird ein Hostcomputer für die Interaktion mit dem SBC verwendet. Ein Ethernet-Switch ermöglicht eine gleichzeitige Internetverbindung sowohl zu einem Host-Computer als auch zu SBC. Der Switch ermöglicht auch eine direkte Kommunikation zwischen Host und SBC mit schneller Datenübertragung. Dadurch ermöglicht der Switch eine einfache Datenübertragung und SBC-Paketpflege.

Für den parallelen Betrieb mehrerer Rigs sollte jedes Rig in einem eigenen spezialisierten Gehäuse untergebracht werden. Diese Gehäuse müssen eine Schalldämmung aufweisen, wenn sie in unmittelbarer Nähe zueinander platziert werden. Die Unterdrückung von Geräuschen zwischen benachbarten Rigs kann dazu beitragen, unbeabsichtigte akustische Hinweise von Reizen zu vermeiden, die in benachbarten Gehäusen erzeugt werden.

Die Verwendung einer einzigen Plattform für DEC und DTSC ermöglicht es den Ermittlern, flexibel durch die Stärken und Schwächen jedes Paradigmas zu navigieren. DEC genießt Erkenntnisse aus jahrzehntelanger Forschung darüber, welche Gehirnregionen und spezifischen Kleinhirnschaltungselemente am Lernen und Ausführen von Aufgaben beteiligt sind 1,4,11,13,14,15,19. Bei Mäusen befindet sich die Region des Kleinhirnkortex, die am häufigsten mit der Augenblinzelkonditionierung 11,12 assoziiert ist, jedoch tief in der primären Kleinhirnfissur (siehejedoch 15,17,27, die eine DEC-assoziierte Region des oberflächlichen Läppchens VI zeigen). Ein tiefer Lernort erschwert den Zugang für optische Experimente, insbesondere für Multiphotonen-Bildgebung der Zellaktivität und optogenetische Störungsexperimente. Im Gegensatz dazu befinden sich die Kleinhirnsubstrate von DTSC teilweise im oberflächlichen Aspekt der Läppchen IV/V20. DTSC bietet daher einen optischen Zugang, der mit dem des dorsalen Neokortex vergleichbar ist, einem beliebten Ort für neurowissenschaftliche Untersuchungen von Systemen.

In unserem Design wird das Verhalten der Tiere mit einem am Rad befestigten Drehgeber und einer Kamera verfolgt. Wir haben diese Methoden für niedrige Kosten und einfache Implementierung ausgewählt. In einigen Fällen können andere Tracking-Methoden eine räumlichere und zeitliche Genauigkeit bieten. Zum Beispiel wurde die Augenlidposition in DEC üblicherweise mit Hall-Effekt-Sensoren28,29 oder Elektromyogrammaufzeichnungen der periorbitalen Region des Musculus orbicularisoculi 30,31 verfolgt. In ähnlicher Weise liefert die Verfolgung der Fortbewegung durch Erkennung von Radbewegungen ein weniger detailliertes Bild des Verhaltens von Tieren als bildbasierte Posenverfolgungsalgorithmen wie SLEAP32 undDeepLabCut 33. Kamerabasierte Aufnahmen ermöglichen das Hinzufügen solcher Ansätze.

Hier haben wir eine Plattform zur Verfolgung des Verhaltens von Tieren während zweier kletterfaserabhängiger assoziativer Lernparadigmen vorgestellt. Unsere Plattform soll die Zugänglichkeit dieser Methoden sowohl in Bezug auf die Kosten als auch auf die einfache Implementierung erhöhen.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren haben keine Interessenkonflikte offenzulegen.

Acknowledgments

Diese Arbeit wird durch Zuschüsse der National Institutes of Mental Health NRSA F32 MH120887-03 (an G.J.B.) und R01 NS045193 und R01 MH115750 (an S.S-H.W.) unterstützt. Wir danken Dr. Bas Koekkoek und Dr. Henk-Jan Boele für hilfreiche Gespräche zur Optimierung des DEC-Setups und Dr. Yue Wang und Dr. Xiaoying Chen für hilfreiche Gespräche zur Optimierung des DTSC-Setups.

Materials

Name Company Catalog Number Comments
"B" Quick Base For C&B METABOND - 10 mL bottle Parkell S398 Dental cement solvent
"C" Universal TBB Catalyst - 0.7 mL Parkell S371 Catalyst
#8 Washers Thorlabs W8S038 Washers
0.250" (1/4") x 8.00" Stainless Steel Precision Shafting Servocity 634172 1/4" shaft
0.250” (0.770") Clamping Hub Servocity 545588 Clamping hub
1/4" to 6 mm Set Screw Shaft Coupler- 5 pack Actobotics 625106 Shaft-coupling sleeve
1/4"-20 Cap Screws, 3/4" Long Thorlabs SH25S075 1/4" bolt
100 pcs 5 mm 395–400 nm UV Ultraviolet LED Light Emitting Diode Clear Round Lens 29 mm Long Lead (DC 3V) LEDs Lights +100 pcs Resistors EDGELEC ‎ED_YT05_U_100Pcs CS LEDs
2 m Micro HDMI to DVI-D Cable - M/M - 2 m Micro HDMI to DVI Cable - 19 pin HDMI (D) Male to DVI-D Male - 1920 x 1200 Video Star-tech ‎HDDDVIMM2M Raspberry Pi4B to monitor cable
256 GB Ultra Fit USB 3.1 Flash Drive SanDisk ‎SDCZ430-256G-G46 USB thumb drive
3.3 V–5 V 4 Channels Logic Level Converter Bi-Directional Shifter Module Amazon B00ZC6B8VM Logic level shifter
32 GB 95 MB/s (U1) microSDHC EVO Select Memory Card Samsung ‎MB-ME32GA/AM microSD card
4.50" Aluminum Channel Servocity 585444 4.5" aluminum channel
48-LED CCTV Ir Infrared Night Vision Illuminator Towallmark SODIAL Infrared light array
4PCS Breadboards Kit Include 2PCS 830 Point 2PCS 400 Point Solderless Breadboards for Proto Shield Distribution Connecting Blocks REXQualis B07DL13RZH Breadboard
5 Port Gigabit Unmanaged Ethernet Network Switch TP-Link ‎TL-SG105 Ethernet switch
5 V 2.5 A Raspberry Pi 3 B+ Power Supply/Adapter Canakit ‎DCAR-RSP-2A5 Power supply for Raspberry Pi 3B+
5-0 ETHILON BLACK 1 x 18" C-3 Ethicon 668G Sutures
6 mm Shaft Encoder 2000 PPR Pushpull Line Driver Universal Output Line Driver Output 5-26 V dc Supply Calt  B01EWER68I Rotary encoder
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 1", 5 Pack Thorlabs TR1-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 2", 5 Pack Thorlabs TR2-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 4", 5 Pack Thorlabs TR4-P5 Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 6", 5 Pack Thorlabs TR6-P5 Optical posts
Ø1/2" Post Holder, Spring-Loaded Hex-Locking Thumbscrew, L = 2" Thorlabs PH2 Optical post holder
Adapter-062-M X LUER LOCK-F The Lee Co. TMRA3201950Z Solenoid valve luer adapter
Aeromat Foam Roller Size: 36" Length Aeromat B002H3CMUE Foam roller
Aluminum Breadboard 10" x 12" x 1/2", 1/4"-20 Taps Thorlabs MB1012 Aluminum breadboard
Amazon Basics HDMI to DVI Adapter Cable, Black, 6 Feet, 1-Pack Amazon HL-007347 Raspberry Pi3B+ to monitor cable
Arduino  Uno R3 Arduino A000066 Arduino Uno (microcontroller board)
Arduino Due Arduino ‎A000062 Arduino Due (microcontroller board)
Bench Power Supply, Single, Adjustable, 3 Output, 0 V, 24 V, 0 A, 2 A Tenma 72-8335A Power supply
Clear Scratch- and UV-Resistant Cast Acrylic Sheet, 12" x 24" x 1/8" McMaster Carr 8560K257 Acrylic sheet
CNC Stepper Motor Driver 1.0–4.2 A 20–50 V DC 1/128 Micro-Step Resolutions for Nema 17 and 23 Stepper Motor Stepper Online B06Y5VPSFN Stepper motor driver
Compact Compressed Air Regulator, Inline Relieving, Brass Housing, 1/4 NPT McMaster Carr 6763K13 Air source regulator
Cotton Swab Puritan 806-WC Cotton swab
Dell 1908FP 19" Flat Panel Monitor - 1908FPC Dell 1908FPC Computer monitor
Flex Cable for Raspberry Pi Camera Adafruit 2144 camera serial interface cable
High Torque Nema 17 Bipolar Stepper Motor 92 oz·in/65 N·cm 2.1 A Extruder Motor Stepper Online 17HS24-2104S Stepper motor
Isoflurane Henry Schein 66794001725 Isoflurane
Krazy Maximum Bond Permanent Glue, 0.18 oz. Krazy Glue KG483 Cyanoacrylate glue
Lidocaine HCl VetOne 510212 Lidocaine
Low-Strength Steel Hex Nut, Grade 2, Zinc-Plated, 1/4"-20 Thread Size McMaster Carr 90473A029 Nuts
M3 x 50 mm Partially Threaded Hex Key Socket Cap Head Screws 10 pcs Uxcell A16040100ux1380 M3 bolt
NEMA 17 Stepper Motor Mount ACTOBOTICS 555152 Stepper motor mount
Official Raspberry Pi Power Supply 5.1 V 3 A with USB C - 1.5 m long Adafruit 4298 Power supply for Raspberry Pi 4B
Optixcare Dog & Cat Eye Lube Lubricating Gel, 0.70-oz tube Optixcare 142422 Opthalimic ointment
Precision Stainless Steel Ball Bearing, Shielded, Trade No. R188-2Z, 13000 rpm Maximum Speed McMaster-Carr 3759T57 Bearing
Premium Female/Female Jumper Wires - 40 x 6" Adafruit 266 Wires
Premium Female/Male 'Extension' Jumper Wires - 40 x 6" (150 mm) Adafruit 826 Wires
Premium Male/Male Jumper Wires - 40 x 6" Adafruit 758 Wires
Radiopaque L-Powder for C&B METABOND - 5 g Parkell S396 Dental cement powder
Raspberry Pi (3B+ or 4B) Adafruit 3775 or 4295 Raspberry Pi
Raspberry Pi NoIR Camera Module V2 - 8MP 1080P30 Raspberry Pi Foundation RPI3-NOIR-V2 Raspberry NoIR V2 camera
Right-Angle Bracket, 1/4" (M6) Counterbored Slot, 8-32 Taps Thorlabs AB90E Right-angle bracket
Right-Angle Clamp for Ø1/2" Posts, 3/16" Hex Thorlabs RA90 Right-angle optical post clamp
Right-Angle End Clamp for Ø1/2" Posts, 1/4"-20 Stud and 3/16" Hex Thorlabs RA180 Right-angle end clamp
RJ45 Cat-6 Ethernet Patch Internet Cable Amazon ‎CAT6-7FT-5P-BLUE Ethernet cable
Rotating Clamp for Ø1/2" Posts, 360° Continuously Adjustable, 3/16" Hex Thorlabs SWC Rotating optical post clamps
Spike & Hold Driver-0.1 TO 5 MS The Lee Co. IECX0501350A Solenoid valve driver
Swivel Base Adapter Thorlabs UPHA Post holder adapter
USB 2.0 A-Male to Micro B Cable, 6 feet Amazon ‎7T9MV4 USB2 type A to USB2 micro cable
USB 2.0 Printer Cable - A-Male to B-Male, 6 Feet (1.8 m) Amazon B072L34SZS USB2 type B to USB2 type A cable
VHS-M/SP-12 V The Lee Co. INKX0514900A Solenoid valve
Zinc-Plated Steel 1/4" washer, OD 1.000" McMaster Carr 91090A108 Washers

DOWNLOAD MATERIALS LIST

References

  1. McCormick, D. A., Lavond, D. G., Clark, G. A., Kettner, R. E., Rising, C. E., Thompson, R. F. The engram found? Role of the cerebellum in classical conditioning of nictitating membrane and eyelid responses. Bulletin of the Psychonomic Society. 18 (3), 103-105 (1981).
  2. McCormick, D. A., Clark, G. A., Lavond, D. G., Thompson, R. F. Initial localization of the memory trace for a basic form of learning. Proceedings of the National Academy of Sciences of the United States of America. 79 (8), 2731-2735 (1982).
  3. McCormick, D. A., Thompson, R. F. Cerebellum: essential involvement in the classically conditioned eyelid response. Science. 223 (4633), New York, N.Y. 296-299 (1984).
  4. Krupa, D. J., Thompson, J. K., Thompson, R. F. Localization of a memory trace in the mammalian brain. Science. 260 (5110), New York, N.Y. 989-991 (1993).
  5. Llinás, R., Sugimori, M. Electrophysiological properties of in vitro Purkinje cell dendrites in mammalian cerebellar slices. The Journal of Physiology. 305, 197-213 (1980).
  6. Mintz, M., Lavond, D. G., Zhang, A. A., Yun, Y., Thompson, R. F. Unilateral inferior olive NMDA lesion leads to unilateral deficit in acquisition and retention of eyelid classical conditioning. Behavioral and Neural Biology. 61 (3), 218-224 (1994).
  7. Welsh, J. P., Harvey, J. A. Cerebellar lesions and the nictitating membrane reflex: performance deficits of the conditioned and unconditioned response. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 9 (1), 299-311 (1989).
  8. Mauk, M. D., Steinmetz, J. E., Thompson, R. F. Classical conditioning using stimulation of the inferior olive as the unconditioned stimulus. Proceedings of the National Academy of Sciences of the United States of America. 83 (14), 5349-5353 (1986).
  9. Steinmetz, J. E., Lavond, D. G., Thompson, R. F. Classical conditioning in rabbits using pontine nucleus stimulation as a conditioned stimulus and inferior olive stimulation as an unconditioned stimulus. Synapse. 3 (3), New York, N.Y. 225-233 (1989).
  10. Chettih, S. N., McDougle, S. D., Ruffolo, L. I., Medina, J. F. Adaptive timing of motor output in the mouse: The role of movement oscillations in eyelid conditioning. Frontiers in Integrative Neuroscience. 5, 72 (2011).
  11. Heiney, S. A., Wohl, M. P., Chettih, S. N., Ruffolo, L. I., Medina, J. F. Cerebellar-dependent expression of motor learning during eyeblink conditioning in head-fixed mice. The Journal of Neuroscience. 34 (45), 14845-14853 (2014).
  12. Heiney, S. A., Kim, J., Augustine, G. J., Medina, J. F. Precise control of movement kinematics by optogenetic inhibition of purkinje cell activity. Journal of Neuroscience. 34 (6), 2321-2330 (2014).
  13. Ten Brinke, M. M., et al. Evolving models of pavlovian conditioning: Cerebellar cortical dynamics in awake behaving mice. Cell Reports. 13 (9), 1977-1988 (2015).
  14. Gao, Z., et al. Excitatory cerebellar nucleocortical circuit provides internal amplification during associative conditioning. Neuron. 89 (3), 645-657 (2016).
  15. Giovannucci, A., et al. Cerebellar granule cells acquire a widespread predictive feedback signal during motor learning. Nature Neuroscience. 20 (5), 727-734 (2017).
  16. Ten Brinke, M. M., et al. Dynamic modulation of activity in cerebellar nuclei neurons during pavlovian eyeblink conditioning in mice. eLife. 6, 28132 (2017).
  17. Wang, X., Yu, S., Ren, Z., De Zeeuw, C. I., Gao, Z. A FN-MdV pathway and its role in cerebellar multimodular control of sensorimotor behavior. Nature Communications. 11 (1), 6050 (2020).
  18. Albergaria, C., Silva, N. T., Pritchett, D. L., Carey, M. R. Locomotor activity modulates associative learning in mouse cerebellum. Nature Neuroscience. 21 (5), 725-735 (2018).
  19. Kim, O. A., Ohmae, S., Medina, J. F. A cerebello-olivary signal for negative prediction error is sufficient to cause extinction of associative motor learning. Nature Neuroscience. 23 (12), 1550-1554 (2020).
  20. Yamada, T., et al. Sensory experience remodels genome architecture in neural circuit to drive motor learning. Nature. 569 (7758), 708-713 (2019).
  21. Horlington, M. Startle response circadian rhythm in rats: lack of correlation with motor activity. Physiology & Behavior. 5 (1), 49-53 (1970).
  22. Yeomans, J. S., Li, L., Scott, B. W., Frankland, P. W. Tactile, acoustic and vestibular systems sum to elicit the startle reflex. Neuroscience and Biobehavioral Reviews. 26 (1), 1-11 (2002).
  23. Raspberry Pi Operating system images. , Available from: https://www.raspberrypi.com/software/operationg-systems/ (2021).
  24. VNC Server. VNC® Connect. , Available from: https://www.realvnc.com/en/connect/download/vnc/ (2021).
  25. Anaconda: The world's most popular data science platform. , Available from: https://xddebuganaconda.xdlab.co/ (2021).
  26. De Zeeuw, C. I., Ten Brinke, M. M. Motor learning and the cerebellum. Cold Spring Harbor Perspectives in Biology. 7 (9), 021683 (2015).
  27. Badura, A., et al. Normal cognitive and social development require posterior cerebellar activity. eLife. 7, 36401 (2018).
  28. Koekkoek, S. K. E., Den Ouden, W. L., Perry, G., Highstein, S. M., De Zeeuw, C. I. Monitoring kinetic and frequency-domain properties of eyelid responses in mice with magnetic distance measurement technique. Journal of Neurophysiology. 88 (4), 2124-2133 (2002).
  29. Kloth, A. D., et al. Cerebellar associative sensory learning defects in five mouse autism models. eLife. 4, 06085 (2015).
  30. Boele, H. -J., Koekkoek, S. K. E., De Zeeuw, C. I. Cerebellar and extracerebellar involvement in mouse eyeblink conditioning: the ACDC model. Frontiers in Cellular Neuroscience. 3, (2010).
  31. Lin, C., Disterhoft, J., Weiss, C. Whisker-signaled eyeblink classical conditioning in head-fixed Mice. Journal of Visualized Experiments: JoVE. (109), e53310 (2016).
  32. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  33. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).

Tags

Neurowissenschaften Ausgabe 179 Kleinhirn assoziatives motorisches Lernen Verzögerung der Augenblinzelkonditionierung Verzögerung der taktilen Reizkonditionierung
Eine flexible Plattform zur Überwachung des kleinhirnabhängigen sensorischen assoziativen Lernens
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Broussard, G. J., Kislin, M., Jung,More

Broussard, G. J., Kislin, M., Jung, C., Wang, S. S. H. A Flexible Platform for Monitoring Cerebellum-Dependent Sensory Associative Learning. J. Vis. Exp. (179), e63205, doi:10.3791/63205 (2022).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter