Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove

Behavior

Automatisierte Ratte Single-Pellet Erreichen mit 3-dimensionalen Rekonstruktion von Pfoten- und Digit-Trajektorien

doi: 10.3791/59979 Published: July 10, 2019

Summary

Nagetier qualifizierte sausen wird häufig verwendet, um geschickte Fähigkeiten zu studieren, erfordert aber viel Zeit und Mühe, um die Aufgabe zu implementieren und das Verhalten zu analysieren. Wir beschreiben eine automatisierte Version des geschickten Erreichens mit Bewegungsverfolgung und dreidimensionaler Rekonstruktion von Reichweitenbahnen.

Abstract

Nagetier qualifizierte sausen wird häufig verwendet, um geschickte Fähigkeiten zu studieren, erfordert aber viel Zeit und Mühe, um die Aufgabe zu implementieren und das Verhalten zu analysieren. In jüngster Zeit wurden mehrere automatisierte Versionen von Fachkräften entwickelt. Hier beschreiben wir eine Version, die Ratten automatisch Pellets präsentiert, während sie High-Definition-Videos aus mehreren Winkeln mit hohen Bildraten (300 fps) aufzeichnet. Die Pfote und einzelne Ziffern werden mit DeepLabCut nachverfolgt, einem maschinellen Lernalgorithmus für die markerlose Posenschätzung. Dieses System kann auch mit physiologischen Aufzeichnungen synchronisiert oder zur Auslösung physiologischer Eingriffe (z. B. elektrischer oder optischer Stimulation) verwendet werden.

Introduction

or Start trial to access full content. Learn more about your institution’s access to JoVE content here

Der Mensch ist stark von geschicktem Geschick abhängig, definiert als Bewegungen, die präzise aufeinander abgestimmte mehrgelenke und ziffernförmige Bewegungen erfordern. Diese Fähigkeiten werden durch eine Reihe von häufigen Erkrankungen des zentralen Nervensystems beeinflusst, einschließlich struktureller Läsionen (z. B. Schlaganfall, Tumor, demyelinisierende Läsionen), neurodegenerative Erkrankungen (z. B. Parkinson-Krankheit) und funktionelle Anomalien (z. B. Dystonie). Zu verstehen, wie geschickte Fähigkeiten von zentralen Motorkreisläufen erlernt und umgesetzt werden, hat daher das Potenzial, die Lebensqualität einer großen Bevölkerung zu verbessern. Darüber hinaus dürfte ein solches Verständnis die motorische Leistung bei gesunden Menschen verbessern, indem sie Trainings- und Rehabilitationsstrategien optimiert.

Die Sezieren der neuronalen Schaltkreise, die der Geschicklichkeit beim Menschen zugrunde liegen, wird durch technologische und ethische Überlegungen begrenzt, was die Verwendung von Tiermodellen erfordert. Nichtmenschliche Primaten werden häufig verwendet, um geschickte Gliedmaßenbewegungen zu studieren, da ihre motorischen Systeme und ihr Verhaltensrepertoire mit dem Menschen vergleichbar sind1. Nichtmenschliche Primaten sind jedoch mit langen Erzeugungszeiten teuer, was die Anzahl der Studienteilnehmer und genetische Interventionen begrenzt. Während die neurowissenschaftliche Toolbox für nichtmenschliche Primaten größer ist als für den Menschen, sind viele technologische Fortschritte in jüngster Zeit entweder nicht verfügbar oder bei Primaten erheblich begrenzt.

Nagetier-Fachkräfte erreichen ist ein komplementärer Ansatz, um geschickte Motorsteuerung zu studieren. Ratten und Mäuse können trainiert werden, um ein Zuckerpellet in einer stereotypen Abfolge von Bewegungen zu erreichen, zu greifen und zurückzuholen, die homologe zu menschlichen Reichweitemustern2sind. Aufgrund ihrer relativ kurzen Erzeugungszeit und niedrigeren Wohnkosten sowie ihrer Fähigkeit, über Tage bis Wochen qualifizierte Fachkräfte zu erwerben, ist es möglich, eine große Anzahl von Fächern sowohl in Lern- als auch in Qualifikationskonsolidierungsphasen zu studieren. Der Einsatz von Nagetieren, insbesondere Mäusen, erleichtert auch den Einsatz leistungsstarker moderner neurowissenschaftlicher Werkzeuge (z. B. Optogenetik, Kalziumbildgebung, genetische Modelle von Krankheiten), um geschickte Fähigkeiten zu studieren.

Nagetier-Fachkräfte erreichen wird seit Jahrzehnten verwendet, um normale motorische Kontrolle zu studieren und wie es von bestimmten Pathologien wie Schlaganfall und Parkinson-Krankheit betroffen ist3. Die meisten Versionen dieser Aufgabe sind jedoch arbeits- und zeitintensiv und mindern die Vorteile des Studiums von Nagetieren. Typische Umsetzungen beinhalten das Platzieren von Nagetieren in einer Durchgangskammer mit einem Regal vor einem schmalen Schlitz, durch den das Nagetier gelangen muss. Ein Forscher legt Zuckerpellets manuell ins Regal, wartet auf das Erreichen des Tieres und legt dann ein anderes. Erreicht wird als Erfolge oder Misserfolge entweder in Echtzeit oder per Video-Rezension4bewertet. Das einfache Scoring von Reichweiten als Erfolge oder Misserfolge ignoriert jedoch reiche kinematische Daten, die einen Einblick in das (im Gegensatz zu der bloßen Frage) des Erreichens geben können. Dieses Problem wurde durch die Implementierung einer detaillierten Überprüfung der Erreichen von Videos angegangen, um die Teilsätze5zu identifizieren und semiquantitativ zu bewerten. Während dies einige Daten über Die Kinematik hinzugefügt, es auch deutlich erhöht Experimentator Zeit und Aufwand. Darüber hinaus kann ein hohes Maß an Experimentierbeteiligung zu Inkonsistenzen bei der Methodik und Datenanalyse führen, selbst innerhalb desselben Labors.

In jüngerer Zeit wurden mehrere automatisierte Versionen von qualifizierten Erreichen entwickelt. Einige befestigen sich am hauseigenen Käfig6,7, wodurch die Notwendigkeit, Tiere zu übertragen, entfallen. Dies reduziert sowohl die Belastung der Tiere als auch die Notwendigkeit, sie an eine spezialisierte Zusendekammer zu akklimatisieren. Andere Versionen ermöglichen Pfotenverfolgung, so dass kinematische Veränderungen unter bestimmten Interventionen untersucht werden können8,9,10, oder haben Mechanismen, um automatisch zu bestimmen, ob Pellets aus dem Regal geworfen wurden11. Automatisierte qualifizierte Aufgaben sind besonders nützlich für hochintensives Training, wie es für die Rehabilitation nach einer Verletzung erforderlich sein kann12. Automatisierte Systeme ermöglichen es Tieren, eine große Anzahl von Reichweiten über lange Zeiträume durchzuführen, ohne dass eine intensive Beteiligung von Forschern erforderlich ist. Darüber hinaus reduzieren Systeme, die Pfotenverfolgung und automatisierte Ergebnisbewertung ermöglichen, die Zeit, die forscher für die Datenanalyse aufgewendet werden.

Wir haben ein automatisiertes Ratten-Fachkräfte-Greifsystem mit mehreren speziellen Funktionen entwickelt. Erstens erhalten wir mit einem beweglichen Sockel, um das Pellet von unten in "Erreichbare Position" zu bringen, einen nahezu ungehinderten Blick auf das Vorderglied. Zweitens ermöglicht ein System von Spiegeln mehrere gleichzeitige Ansichten der Reichweite mit einer einzigen Kamera, wodurch eine dreidimensionale (3-D) Rekonstruktion von Reichweitenbahnen mit einer hochauflösenden, hochschnellen (300 fps) Kamera ermöglicht wird. Mit der jüngsten Entwicklung robuster Machine Learning-Algorithmen für markerloses Bewegungstracking13verfolgen wir nun nicht nur die Pfote, sondern auch einzelne Knöchel, um detaillierte Reichweiten zu extrahieren und Kinematik zu erfassen. Drittens ermöglicht ein Framegrabber, der eine einfache Videoverarbeitung durchführt, die Echtzeit-Identifikation verschiedener Erreichensphasen. Diese Informationen werden verwendet, um die Videoaufnahme auszulösen (kontinuierliche Videoerfassung ist aufgrund der Dateigröße nicht praktikabel) und können auch verwendet werden, um Interventionen (z. B. Optogenetik) in genauen Momenten auszulösen. Schließlich werden einzelne Videoframes durch Transistor-Transistor-Logik(TTL)-Impulse ausgelöst, so dass das Video präzise mit neuronalen Aufnahmen (z.B. Elektrophysiologie oder Photometrie) synchronisiert werden kann. Hier beschreiben wir, wie man dieses System baut, Ratten trainiert, um die Aufgabe auszuführen, das Gerät mit externen Systemen zu synchronisieren und 3D-Reichweiten zu rekonstruieren.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

or Start trial to access full content. Learn more about your institution’s access to JoVE content here

Alle hier beschriebenen Methoden zur Verwendung von Tieren wurden vom Institutional Animal Care and Use Committee (IACUC) der University of Michigan genehmigt.

1. Einrichten der Zustellkammer

HINWEIS: Einzelheiten und Diagramme des Geräts finden Sie unter Ellens et al.14. Teilenummern beziehen sich auf Abbildung 1.

  1. Verkleben Sie klare Polycarbonatplatten mit Acrylzement, um die Zubruchkammer (15 cm breit und 40 cm lang und 40 cm hoch) (Teil #1) zu bilden. Eine Seitenwand (Teil #2) hat eine Aufklapptür (18 cm breit und 15 cm hoch) mit einem Schloss. Wenn die Ratte an ein Kabel gefesselt wird, schneiden Sie einen Schlitz (5 cm breit und 36 cm lang) in die Kammerdecke, um sie unterzubringen (Teil #12). Die Bodenplatte hat 18 Löcher (1,75 cm Durchmesser) (Teil #13) in sie geschnitten und ist nicht mit dem Rest der Kammer verbunden.
  2. Montieren und ausrichten Infrarotsensoren (Teil #3) in den Seitenwänden 4,5 cm von der Rückseite der Kammer und 3,8 cm vom Boden entfernt. Die Verhaltenssoftware hat einen Indikator ('IR Back'), der grün ist, wenn der Infrarotstrahl ungebrochen und rot ist, wenn der Strahl gebrochen ist. Sobald die Software eingerichtet ist, kann dies verwendet werden, um die Sensorausrichtung zu überprüfen.
  3. Montieren Sie einen Spiegel (15 cm x 5 cm, Teil #4) 10 cm über dem Schlitz (Teil #14). Winkeln Sie den Spiegel, so dass die Pellet-Förderstange für die Kamera sichtbar ist.
  4. Legen Sie die Kammer auf eine sanitizierbare Stützbox (59 cm breit und 67,3 cm lang und 30,5 cm hoch, Teil #5). Die Kammer ruht über einem Loch in der Stützbox (12 cm breit und 25 cm lang), so dass Der Einstreu durch die Bodenlöcher (Teil #13) und aus der Durchgangskammer fallen kann. Schneiden Sie ein zweites Loch (7 cm breit und 6 cm lang, Teil #15) in den Stützkasten vor dem Zuschlagsschlitz, wodurch eine Pellet-Förderstange Pellets zum Erreichen stellstelle.
  5. Montieren Sie zwei Spiegel (8,5 cm breit x 18,5 cm hoch, Teil #6) mit Magneten auf beiden Seiten der Kammer auf den Boden, so dass die lange Kante des Spiegels die Seitenwand 3 cm von der Vorderseite des Zubruchkastens berührt. Winkeln Sie die Spiegel, so dass die Kamera in die Box und den Bereich vor dem Zubruchschlitz sehen kann, wo das Pellet geliefert wird.
  6. Montieren Sie die High-Definition-Kamera (Teil #7) 17 cm vom Zubruchschlitz entfernt, mit Blick auf die Box.
  7. Montieren Sie schwarzes Papier (Teil #18) auf beiden Seiten der Kamera, so dass der Hintergrund in den Seitenspiegeln dunkel ist. Dies verbessert den Kontrast, um die Erkennung von Echtzeit- und Off-Line-Pfoten zu verbessern.
  8. Montieren Sie den Linearantrieb (Teil #16) auf einem sanitizierbaren Rahmen (25 cm breit und 55 cm lang und 24 cm hoch, Teil #8) mit Schrauben. Der Aktuator ist kopfüber montiert, um zu verhindern, dass sich Pelletstaub in seinem positionsempfindlichen Potentiometer ansammelt.
  9. Setzen Sie einen Schaum-O-Ring in den Hals des Pelletbehälters (Funnel) (Teil #9) ein, um zu verhindern, dass sich Staub in der Baugruppe ansammelt. Montieren Sie den Trichter unter einem Loch (ca. 6 cm Durchmesser, Teil #17) in der Oberseite des Rahmens, indem Sie die Kanten des Trichters über drei Schrauben, die in die Unterseite der Rahmenoberseite gebohrt werden, verrutschen. Setzen Sie das Führungsrohr (Teil #10) in den Hals des Trichters ein.
  10. Befestigen Sie den Kunststoff-T-Stecker am Ende der Stahlstange des Aktuators. Setzen Sie das verjüngte Ende des Pellet-Förderstabs in die Oberseite des Verbinders und das Gekuppelende durch das Führungsrohr in das Pelletreservoir ein.
  11. Stellen Sie die Linearantriebsbaugruppe unter die fachkundige Kontaktkammer, damit sich der Pelletförderstab durch das Loch (Teil #15) vor dem Halteschlitz ausdehnen kann.
  12. Legen Sie das gesamte Griffgerät in einen Radschrank (121 cm x 119 cm x 50 cm) mit Computerlüftern belüftet (der Innenraum wird warm, wenn es gut beleuchtet ist) und mit Akustikschaum ausgekleidet.
  13. Bauen Sie fünf Lichtpaneele (Teil #11) durch Anhaftung von LED-Lichtstreifen auf 20,3 cm x 25,4 cm Stützplatten. Montieren Sie Diffusorfolie über die Lichtstreifen. Montieren Sie eine Lichtplatte an der Decke über dem Pellet-Lieferstangenbereich. Montieren Sie die anderen vier an den Seiten der Schränke entlang der Erreichenskammer.
    HINWEIS: Es ist wichtig, den Bereich um den erreichenden Schlitz und Pellet-Lieferstab für die Echtzeit-Pfotenidentifikation zu beleuchten.

2. Einrichten des Computers und der Hardware

  1. Installieren Sie den FPGA-Rahmengrabber und die digitalen Erweiterungskarten gemäß den Anweisungen des Herstellers (siehe Tabelle der Materialien).
    HINWEIS: Wir empfehlen mindestens 16 GB RAM und eine interne Solid-State-Festplatte für die Datenspeicherung, da das Streaming des Hochgeschwindigkeitsvideos eine erhebliche Pufferkapazität erfordert.
  2. Installieren Sie Treiber für die High-Definition-Kamera und schließen Sie sie an den FPGA-Framegrabber an. Die Verhaltenssoftware muss ausgeführt werden und mit der Kamera verbunden sein, um die mit der Kamera verbundene Software verwenden zu können.
    HINWEIS: Der enthaltene Code (siehe Zusatzdateien) greift auf programmierbare Register in der Kamera zu und ist möglicherweise nicht mit anderen Marken kompatibel. Wir empfehlen die Aufnahme von mindestens 300 Bildern pro Sekunde (fps); bei 150 fps stellten wir fest, dass wichtige Änderungen in der Pfotenhaltung oft übersehen wurden.
  3. Kopieren Sie den mitgelieferten Code (Projekt) in "SR Automation_dig_ext_card_64bit" auf den Computer.

3. Verhaltenstraining

  1. Bereiten Sie Ratten vor dem Training vor.
    1. Haus Long-Evans Ratten (männlich oder weiblich, im Alter von 10 bis 20 Wochen) in Gruppen von 2–3 pro Käfig auf einem umgekehrten hellen/dunklen Zyklus. Legen Sie Ratten drei Tage vor dem Training auf Nahrungsbeschränkung, um das Körpergewicht 10–20% unter der Ausgangsbasis zu halten.
    2. Behandeln Sie Ratten für mehrere Minuten pro Tag für mindestens 5 Tage. Legen Sie nach der Handhabung 4–5 Zuckerpellets pro Ratte in jeden Käfig, um das neuartige Futter vorzustellen.
  2. Habituate die Ratte in die erreichende Kammer (1-3 Tage)
    1. Schalten Sie die LED-Leuchten ein und legen Sie 3 Zuckerpellets in die Vorder- und Rückseite der Kammer.
    2. Legen Sie die Ratte in die Kammer und lassen Sie die Ratte für 15 min zu erkunden. Überwachen, ob es die Pellets isst. Wiederholen Sie diese Phase, bis die Ratte alle Pellets vom Boden isst.
    3. Reinigen Sie die Kammer mit Ethanol zwischen Ratten.
      HINWEIS: Führen Sie Während der dunklen Phase Schulungen und Tests durch. Trainieren Sie täglich Ratten gleichzeitig.
  3. Trainieren Sie die Ratte zu erreichen und zu beobachten Pfote Präferenz (1-3 Tage).
    1. Schalten Sie die Lichter ein und legen Sie die Ratte in die qualifizierte Kontaktkammer.
    2. Halten Sie mit Zangen ein Pellet durch den Anlaufschlitz an der Vorderseite des Kastens (Abbildung1, Abbildung 2). Lassen Sie die Ratte 3 Pellets aus der Zange essen.
    3. Wenn die Ratte das nächste Mal versucht, das Pellet von den Zangen zu essen, ziehen Sie das Pellet zurück. Schließlich wird die Ratte versuchen, mit ihrer Pfote nach dem Pellet zu greifen.
    4. Wiederholen Sie dies 11 Mal. Die Pfote, die die Ratte am meisten von den 11 Versuchen verwendet, ist die "Pfotenpräferenz" der Ratte.
      HINWEIS: Ein Versuch ist definiert als die Pfote, die sich über den erreichenden Schlitz hinausstreckt. Die Ratte muss das Pellet nicht erfolgreich erhalten und essen.
  4. Trainieren Sie die Ratte, um bis zur Pellet-Lieferstange zu gelangen (1–3 Tage)
    1. Richten Sie den Pellet-Förderstab mit der Seite des Kontaktschlitzes kontralateral auf die bevorzugte Pfote der Ratte aus (verwenden Sie eine Führung, um eine gleichmäßige Platzierung 1,5 cm von der Vorderseite der Zulaufkammer zu gewährleisten). Die Oberseite des Förderstabs sollte mit der Unterseite des Zulaufschlitzes ausgerichtet werden (Abbildung 2B). Legen Sie ein Pellet auf die Förderstange.
      HINWEIS: Das Positionieren der Förderstange gegenüber der bevorzugten Pfote der Ratte macht es der Ratte schwer, das Pellet mit ihrer nicht bevorzugten Pfote zu erhalten. Wir hatten keine Probleme mit Ratten, die ihre nicht bevorzugte Pfote benutzten. Bei bestimmten Modellen (z.B. Schlaganfall) kann dies jedoch weiterhin vorkommen und eine Zurückhaltung an der nicht bevorzugten erreichenden Gliedmaße kann hinzugefügt werden.
    2. Ködern Sie die Ratte mit einem Pellet, das mit Zangen gehalten wird, aber richten Sie die Ratte in Richtung der Förderstange, so dass ihre Pfote das Pellet auf der Stange trifft. Wenn die Ratte das Pellet von der Stange abwirft, ersetzen Sie es. Einige Ratten greifen vielleicht anfangs nicht weit genug hinaus. In diesem Fall bewegen Sie die Pellet-Förderstange näher an den erreichenden Schlitz und bewegen Sie ihn dann langsam weiter weg, wenn sich die Ratte verbessert.
    3. Nach ca. 5-15 ködert erreicht die Ratte wird beginnen, für das Pellet auf der Förderstange spontan zu greifen. Sobald die Ratte versucht hat, 10 bis zur Förderstange zu erreichen, ohne geködert zu werden, kann sie in die nächste Phase vordringen.
  5. Trainieren Sie die Ratte, um ein Pellet anzufordern (2–8 Tage).
    HINWEIS: Obwohl wir 100% Erfolgstraining Ratten hatten, um nach Pellets zu greifen, können etwa 10% der Ratten nicht lernen, ein Pellet anzufordern, indem sie sich auf die Rückseite der Kammer bewegen.
    1. Positionieren Sie den Pellet-Förderstab basierend auf der Pfotenpräferenz der Ratte und stellen Sie sie auf Position 2 ein (Abbildung 2A). Stellen Sie die Höhenpositionen der Pellet-Förderstange mit der Aktuatorfernbedienung ein. Haltetasten 1 und 2 gleichzeitig bewegt die Förderstange nach oben, während halten Tasten 3 und 2 bewegt die Lieferstange nach unten. Wenn sich der Förderstab in der richtigen Höhe befindet, halten Sie die gewünschte Zahl gedrückt, bis das Licht rot blinkt, um ihn einzustellen.
    2. Legen Sie die Ratte in die Kammer und ködern Sie die Ratte mit einem Pellet nach hinten. Wenn sich die Ratte weit genug nach hinten bewegt, dass sie den Infrarotstrahl brechen würde, wenn die automatisierte Version läuft, bewegen Sie den Pellet-Förderstab auf Position 3 (Abbildung 2B).
    3. Warten Sie, bis die Ratte nach dem Pellet greift, und bewegen Sie dann den Pellet-Förderstab wieder auf Position 2 (Abbildung 2A). Legen Sie ein neues Pellet auf die Förderstange, wenn es abgeschlagen wurde.
    4. Wiederholen Sie diese Schritte, indem Sie die Ratte nach und nach immer weniger ködern, bis die Ratte beginnt, (i) nach hinten zu gehen, um ein Pellet anzufordern, ohne geködert zu werden, und (ii) sich sofort nach vorne bewegen, nachdem sie ein Pellet im Rücken angefordert hat. Sobald die Ratte dies 10 Mal getan hat, ist sie bereit für die Schulung über die automatisierte Aufgabe.

4. Schulung von Ratten mit dem automatisierten System

  1. Richten Sie das automatisierte System ein.
    1. Schalten Sie die Lichter in der Kammer ein und füllen Sie bei Bedarf das Pelletreservoir wieder auf.
    2. Positionieren Sie die Pellet-Förderstange entsprechend der Pfotenpräferenz der Ratte. Überprüfen Sie, ob die Aktuatorpositionen korrekt eingestellt sind (wie in Abbildung 2A).
    3. Schalten Sie den Computer ein und öffnen Sie das Skilled Reaching-Programm (SR_dig_extension_card_64bit_(HOST)_3.vi). Geben Sie die Ratten-ID-Nummer unter Betreff ein und wählen Sie die Pfotenpräferenz aus dem Dropdown-Menü Hand aus. Geben Sie den Speicherpfad für die Videos an.
    4. Legen Sie Sitzungszeit und Max Videos fest (Anzahl der Videos, an denen die Sitzung beendet werden soll). Das Programm wird nicht mehr mit dem Limit ausgeführt, das zuerst erreicht wird.
    5. Pellet Lift Dauer einstellen (Dauer, dass die Förderstange in Position "3" verbleibt, nachdem die Ratte ein Pellet anfordert). Aktivieren oder deaktivieren Sie Early Reach Penalty (Lieferstange wird auf Position "1" und dann wieder auf "2" zurückgesetzt, wenn die Ratte erreicht, bevor sie ein Pellet anfordert).
  2. Nehmen Sie Kalibrierungsbilder auf. Die 3D-Trajektorierekonstruktion verwendet eine Computer Vision Toolbox, um die geeigneten Transformationsmatrizen zu bestimmen, die das Identifizieren übereinstimmender Punkte in jeder Ansicht erfordert. Verwenden Sie dazu einen kleinen Würfel mit Schachbrettmustern auf jeder Seite (Abbildung 3).
    1. Legen Sie die helfende Hand in die Zulaufkammer und stechen Sie den Alligatorclip durch den erreichenden Schlitz. Halten Sie den Würfel mit dem Alligatorclip vor den Einzugsschlitz.
    2. Positionieren Sie den Würfel so, dass die rote Seite im oberen Spiegel, die grüne Seite im linken Spiegel und die blaue Seite im rechten Spiegel angezeigt wird. Die gesamte Fläche jeder der drei Seiten sollte in den Spiegeln sichtbar sein (Abbildung 3).
    3. Stellen Sie im Verhaltensprogramm sicher, dass der ROI-Schwellenwert auf einen sehr großen Wert (z. B. 60000) festgelegt ist. Klicken Sie auf die Schaltfläche "Ausführen" (weißer Pfeil). Sobald die Kamera initialisierte Taste grün wird, drücken Sie START. Beachten Sie, dass das Video erworben wird.
    4. Klicken Sie auf Cal-Modus. Nehmen Sie dann ein Bild auf, indem Sie auf Cal-Bild aufnehmenklicken. Der Bildverzeichnispfad wird nun unter ".png-Pfad" mit dem als "GridCalibration_YYYYMMDD_img.png" formatierten .png-Dateinamen angezeigt.
    5. Bewegen Sie den Würfel leicht, und nehmen Sie ein anderes Bild. Wiederholen Sie dies erneut für insgesamt 3 Bilder.
    6. Beenden Sie das Programm, indem Sie auf STOP und dann auf die Stoppzeichen-Schaltfläche klicken. Entfernen Sie die helfende Hand und den Würfel aus der Box.
    7. Achten Sie darauf, nichts in der Verhaltenskammer zu stoßen, nachdem an diesem Tag Kalibrierungsbilder aufgenommen wurden. Wenn sich etwas bewegt, müssen neue Kalibrierungsbilder aufgenommen werden.
  3. Führen Sie das automatisierte System aus.
    HINWEIS: Bestimmen Sie die "ROI-Schwellenwert"-Einstellungen (siehe unten) für jeden Spiegel, bevor Ratten für die tatsächliche Datenerfassung ausgeführt werden. Sobald diese Einstellungen festgelegt wurden, stellen Sie sie vor dem Start des Programms vor und passen Sie sie bei Bedarf während der Erfassung an.
    1. Legen Sie die Ratte in die qualifizierte Kontaktkammer. Klicken Sie auf den weißen Pfeil, um das Programm auszuführen.
    2. Bevor Sie auf STARTklicken, legen Sie die Position des ROI für die Pfotenerkennung fest, indem Sie x-Offset (x-Koordinate der oberen linken Ecke des ROI-Rechtecks), y-Offset (y-Koordinate der oberen linken Ecke des ROI), ROI-Breite und ROI-Höhe.
    3. Positionieren Sie den ROI im Seitenspiegel, der das Dorsum der Pfote zeigt, direkt vor dem erreichenden Schlitz (Abbildung 2C). Stellen Sie sicher, dass die Pellet-Förderstange nicht in den ROI eindringt und dass sich der ROI nicht in die Box erstreckt, um zu verhindern, dass das Pellet oder das Fell der Ratte ein Video auslöst, wenn die Ratte nicht erreicht.
    4. Klicken Sie auf START, um das Programm zu starten.
    5. Passen Sie den Wert "Low ROI Threshold" an, bis der "Live ROI Trigger Value" zwischen "0" und "1" oszilliert (wenn die Ratte nicht erreicht). Dieser Wert ist die Anzahl der Pixel innerhalb des ROI mit Intensitätswerten im Schwellenwertbereich.
    6. Legen Sie den ROI-Schwellenwertfest. Beobachten Sie den Live ROI Trigger Value, wenn die Ratte ihre Nase in den ROI stochert und wenn die Ratte nach dem Pellet greift. Legen Sie den ROI-Schwellenwert bei Nasenstochern deutlich höher als der "Live ROI Trigger Value" und niedriger als der "Live ROI Trigger Value" fest, wenn die Ratte erreicht. Anpassen, bis Videos konsequent ausgelöst werden, wenn die Ratte erreicht, aber nicht, wenn sie ihre Nase durch den Schlitz stochert
      HINWEIS: Dies setzt voraus, dass die Pfote heller gefärbt ist als die Nase; die Einstellungen würden umgekehrt, wenn die Pfote dunkler als die Nase ist.
    7. Überwachen Sie die ersten Versuche, um sicherzustellen, dass alles ordnungsgemäß funktioniert. Wenn eine Ratte erreicht, bevor sie ein Pellet anfordert (Lieferstab in Position "2"), erhöht sich die Zahl "Early Reaches". Wenn eine Ratte nach der Anforderung eines Pellets (Lieferstab in Position "3") erreicht, erhöht sich die "Videos"-Nummer und ein Video wird als .bin-Datei mit dem Namen "RXXXX_YYYYMMDD_HH_MM_SS_trial" gespeichert.
      HINWEIS: Standardmäßig enthalten Videos 300 Frames (d. h. 1 s) vor und 1000 Frames nach dem Triggerereignis (dies ist in der Software konfigurierbar), was lang genug ist, um die gesamte Reichweite-zu-Griff-Bewegung einschließlich Pfotenrückzieher zu enthalten.
    8. Sobald die Sitzungszeit oder max. Videos erreicht sind, wird das Programm beendet. Drücken Sie die Stopp-Zeichen-Taste.
    9. Reinigen Sie die Kammer mit Ethanol und wiederholen Sie mit einer anderen Ratte, oder wenn für den Tag getan, um Videos zu konvertieren.
  4. Konvertieren Sie .bin-Dateien in .avi-Dateien.
    HINWEIS: Das Komprimieren von Videos während der Erfassung verursacht verworfene Frames, sodass Binärdateien während der Erfassung auf die Festplatte gestreamt werden (verwenden Sie ein Solid-State-Laufwerk aufgrund hoher Datenübertragungsraten). Diese Binärdateien müssen offline komprimiert werden, oder die Speicheranforderungen sind unerschwinglich groß.
    1. Öffnen Sie das Programm "bin2avi-color_1473R_noEncode.vi".
    2. Klicken Sie unter "Dateipfadsteuerung" auf die Ordnerschaltfläche, um die Sitzung auszuwählen (z. B. R0235_20180119a), die Sie konvertieren möchten. Wiederholen Sie dies für jede Sitzung (bis zu sechs).
    3. Klicken Sie auf den weißen Pfeil (Laufen) und dann auf "START", um zu beginnen. Sie können die Videokomprimierung im "Gesamtfortschritt (%)" bar. Lassen Sie das Programm über Nacht laufen.
    4. Bevor Sie am nächsten Tag mit dem Training von Tieren beginnen, überprüfen Sie, ob die Videos konvertiert wurden, und löschen Sie die .bin-Dateien, damit genügend Platz zum Abrufen neuer Videos vorhanden ist.

5. Analysieren von Videos mit DeepLabCut

HINWEIS: Für jede Pfotenpräferenz (rechte Pfote und linke Pfote) und für jede Ansicht (direkte Ansicht und linke Spiegelansicht für rechte Ratten, direkte Ansicht und rechte Spiegelansicht für linke Pfotenratten) werden verschiedene Netzwerke trainiert. Die obere Spiegelansicht wird nicht für die 3D-Rekonstruktion verwendet – nur um zu erkennen, wann die Nase den Schlitz betritt, was nützlich sein kann, um Interventionen auszulösen (z. B. Optogenetik). Jedes Netzwerk wird dann verwendet, um eine Reihe von Videos zu analysieren, die für die entsprechende Pfote und Ansicht zugeschnitten wurden.

  1. Trainieren Sie die DeepLabCut-Netzwerke (detaillierte Anweisungen finden Sie in der DeepLabCut-Dokumentation auf https://github.com/AlexEMG/DeepLabCut).
    1. Erstellen und konfigurieren Sie ein neues Projekt in DeepLabCut, einem Machine Learning-Algorithmus für die markerlose Pose-Schätzung13.
    2. Verwenden Sie das Programm, um Frames aus den erfahrenen Erreichen von Videos zu extrahieren und Bilder in die Ansicht zu schneiden, um (direkte oder Spiegelansicht) in die Programmoberfläche aufzunehmen. Zuschneiden von Rahmen groß genug, so dass die Ratte und beide Vorderpfoten sichtbar sind.
      HINWEIS: Netzwerke erfordern in der Regel 100–150 Trainingsrahmen. Mehr Trainingsrahmen sind erforderlich, wenn die Pfote innen ist, im Vergleich zu außerhalb der Kammer wegen der Beleuchtung. Eine engere Zuschneidezeit reduziert die Verarbeitungszeit, aber achten Sie darauf, dass die beschnittenen Bereiche groß genug sind, um die volle Flugbahn der Pfote für jede Ratte zu erkennen. Es sollte breit genug sein, damit der gesamte Körper der Ratte in den Rahmen passt (Direktansicht), und so weit wie möglich zurück in die Kammer und vor der Förderstange zu sehen (Spiegelansicht).
    3. Verwenden Sie die Programm-GUI, um Körperteile zu beschriften. Beschriften Sie 16 Punkte in jedem Rahmen: 4 metacarpophalangeale (MCP) Gelenke, 4 proximale interphalangeale (PIP) Gelenke, 4-stellige Spitzen, das Dorsum der erreichenden Pfote, die Nase, das Dorsum der nicht erreichenden Pfote und das Pellet (Abbildung 4).
    4. Befolgen Sie die DeepLabCut-Anweisungen (absofort als DLC abgekürzt), um das Trainings-Dataset zu erstellen, das Netzwerk zu trainieren und das trainierte Netzwerk auszuwerten.
  2. Analysieren Sie Videos, und verfeinern Sie das Netzwerk.
    1. Analysieren Sie vor der Analyse aller Videos mit einem neu trainierten Netzwerk 10 Videos, um die Leistung des Netzwerks zu bewerten. Wenn in bestimmten Posen konsistente Fehler auftreten, extrahieren Sie zusätzliche Trainingsrahmen, die diese Posen enthalten, und trainieren Sie das Netzwerk neu.
    2. Achten Sie bei der Analyse von Videos darauf, csv-Dateien auszugeben, die in den Code für die 3D-Trajektorierekonstruktion eingespeist werden.

6. Box-Kalibrierung

HINWEIS: Diese Anweisungen werden verwendet, um die Transformationsmatrizen zu bestimmen, um Punkte, die in den direkten und Spiegelansichten identifiziert wurden, in 3D-Koordinaten zu konvertieren. Die aktuellste Version und weitere Details zur Verwendung des boxCalibration-Pakets finden Sie im Leventhal Lab GitHub: https://github.com/LeventhalLab/boxCalibration, das Schritt-für-Schritt-Anleitungen für deren Verwendung enthält.

  1. Sammeln Sie alle Kalibrierungsbilder im selben Ordner.
  2. Markieren Sie mit ImageJ/Fiji manuell die Schachbrettpunkte für jedes Kalibrierbild. Speichern Sie dieses Bild als "GridCalibration_YYYYMMDD_.tif", wobei 'YYYYMMDD' das Datum ist, dem das Kalibrierbild entspricht, und ''' die Bildnummer für dieses Datum ist.
    1. Verwenden Sie die Messfunktion in ImageJ (in der Symbolleiste wählen Sie Analysieren | Maßnahme). Dadurch wird eine Tabelle mit Koordinaten für alle markierten Punkte angezeigt. Speichern Sie diese Datei mit dem Namen "GridCalibration_YYYYMMDD_.csv", wobei Datum und Bildnummer mit der entsprechenden .tif-Datei identisch sind.
  3. Öffnen Sie im boxCalibration-Paket die Datei 'setParams.m'. Diese Datei enthält alle erforderlichen Variablen und deren Beschreibung. Bearbeiten Sie Variablen nach Bedarf, um die Projektspezifikationen anzupassen.
  4. Führen Sie die funktion calibrateBoxes aus. Im Eingabefenster werden mehrere Eingabeaufforderungen angezeigt. In der ersten Eingabeaufforderung wird gefragt, ob alle Bilder im Ordner analysiert werden sollen. Wenn Sie Y eingeben, werden die Eingabeaufforderungen beendet, und alle Bilder für alle Datumsangaben werden analysiert. Wenn Sie N eingeben, wird der Benutzer aufgefordert, die zu analysierenden Daten einzugeben.
    HINWEIS: Im Ordner "Kalibrierungsbilder" werden zwei neue Verzeichnisse erstellt: 'markedImages' enthält PNG-Dateien mit den benutzerdefinierten Schachbrettmarkierungen auf dem Kalibrierbild. Der Ordner 'boxCalibration' enthält .mat-Dateien mit den Box-Kalibrierungsparametern.
  5. Führen Sie die checkBoxCalibration-Funktion aus. Dadurch wird ein neuer Ordner erstellt, 'checkCalibration' im Ordner 'boxCalibration'. Jedes Datum wird einen Unterordner mit den Bildern und mehrere .fig-Dateien haben, die verwendet werden, um zu überprüfen, ob die Boxkalibrierung genau abgeschlossen wurde.

7. Rekonstruieren von 3D-Trajektorien

  1. Stellen Sie die .csv-Dateien, die die Ausgabe des Lernprogramms enthalten, in die Verzeichnisstruktur zusammen, die im Reconstruct3Dtrajectories-Skript beschrieben wird.
  2. Führen Sie reconstruct3Dtrajectoriesaus. Dieses Skript durchsucht die Verzeichnisstruktur und gleicht direkte/spiegelbildende Punkte basierend auf ihren Namen im schiefen Programm ab (es ist wichtig, in beiden Ansichten die gleichen Körperteilnamen zu verwenden).
  3. Ausführen calculateKinematics. Dieses Skript extrahiert einfache kinematische Features aus den 3D-Trajektorien-Rekonstruktionen, die auf spezifische Bedürfnisse zugeschnitten werden können.
    HINWEIS: Die Software schätzt die Position der verdeckten Körperteile basierend auf ihren Nachbarn und ihre Position in der komplementären Ansicht (z. B. die Position eines Körperteils in der direkten Kameraansicht schränkt seine möglichen Positionen in der Spiegelansicht ein). Für Zeiten, in denen die Pfote in der Spiegelansicht verdeckt ist, während sie durch den Schlitz geht, werden Pfotenkoordinaten basierend auf benachbarten Frames interpoliert.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

or Start trial to access full content. Learn more about your institution’s access to JoVE content here

Ratten erwerben die qualifizierte Aufgabe schnell, sobald sie sich an das Gerät akklimatisieren, mit Leistungsplateaus in Bezug auf die Anzahl der Reichweiten und die Genauigkeit über 1-2 Wochen (Abbildung5). Abbildung 6 zeigt Beispielvideoframes, die von DeepLabCut identifizierte Strukturen anzeigen, und Abbildung 7 zeigt überlagerte individuelle Reichweitenbahnen aus einer einzelnen Sitzung. Schließlich veranschaulichen wir in Abbildung 8, was passiert, wenn der Pfotenerkennungsauslöser (Schritte 4.3.4–4.3.6) nicht genau eingestellt ist. Es gibt eine erhebliche Variabilität im Rahmen, bei dem die Pfote den erreichenden Schlitz durchbricht. Dies ist kein großes Problem in Bezug auf die Analyse der ReichweiteKinematik. Es kann jedoch zu Einer Variabilität führen, wenn Interventionen (z. B. Optogenetik) während der Erreichen von Bewegungen ausgelöst werden.

Figure 1
Abbildung 1: Die qualifizierte Kontaktkammer.
Im Uhrzeigersinn von oben links befinden sich eine Seitenansicht, eine Ansicht von vorne und oben, der Rahmen, in dem der Aktuator montiert ist (siehe Schritt 1.8), und eine Ansicht von der Seite und darüber. Die erfahrene Zufallkammer (1) hat eine Tür (2) in eine Seite geschnitten, damit Ratten in die Kammer gebracht und aus der Kammer herausgenommen werden können. Ein Schlitz wird in die Deckenplatte (12) geschnitten, damit das Tier gefesselt werden kann und Löcher in die Bodenplatte (13) geschnitten werden, damit der Einstreu durchfällt. Zwei Infrarotsensoren (3) sind auf beiden Seiten der Rückseite der Kammer ausgerichtet. Über dem Halteschlitz (14) an der Vorderseite der Zufallkammer ist ein Spiegel (4) montiert und auf beiden Seiten der Zufallkammer sind zwei weitere Spiegel (6) montiert. Die qualifizierte Kontaktkammer sitzt auf einer Stützbox (5). Die High-Definition-Kamera (7) wird auf die Stützbox vor dem Kontaktschlitz montiert. Zwei Schwarze Papiere (18) sind auf beiden Seiten der Kamera (7) montiert, um den Kontrast der Pfote in den Seitenspiegeln zu verbessern (6). Unterhalb der Stützbox befindet sich ein Rahmen (8), der den Linearantrieb (16) und das Pelletreservoir (9) unterstützt. Ein Führungsrohr, das den Pellet-Förderstab (10) umhüllt, wird in das Pelletreservoir integriert und durch den Linearantrieb gesteuert. Löcher werden in den Aktuatorrahmen (17) und die Stützbox (15) über dem Pelletbehälter geschnitten, damit sich die Pellet-Förderstange frei nach oben und unten bewegen kann. Die Box ist mit Leuchtplatten (11) an den Schrankwänden und der Decke montiert. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 2
Abbildung 2: Einheitliche Versuchsstruktur.
(A) Eine Prüfung beginnt mit der Pellet-Förderstange (gesteuert durch einen Linearantrieb), die an der "fertigen" Position positioniert ist (Position 2 – Mitte zwischen Boden und Boden des Zugschlitzes). (B) Die Ratte bewegt sich nach hinten in der Kammer, um den Infrarotstrahl (IR) zu brechen, wodurch der Pellet-Förderstab auf Position 3 ansteigt (ausgerichtet an der Unterseite des Halteschlitzes). (C) Die Ratte greift durch den Schlitz, um das Pellet zu greifen. Reaches werden in Echtzeit mit einem FPGA-Framegrabber erkannt, der Pixelintensitätsänderungen innerhalb eines Bereichs von Interesse (ROI) in der Seitenspiegelansicht direkt vor dem Steckplatz erkennt. Wenn genügend Pixel mit der benutzerdefinierten "Paw-Intensität" übereinstimmen, wird die Videoaufnahme ausgelöst. (D) Zwei Sekunden später wird das Pellet auf Position 1 abgesenkt, indem ein neues Pellet aus dem Pelletreservoir aufgenommen wird, bevor es auf Position 2 zurückgesetzt wird. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 3
Abbildung 3: Beispielkalibrierungsbild.
Eine helfende Hand wird in die qualifizierte Kontaktkammer gelegt. Ein Alligatorclip durchbohrt den Kontaktschlitz, um den Kalibrierwürfel außerhalb der Zulaufkammer zu halten. Die drei Schachbrettmuster sind in der direkten Ansicht und den entsprechenden Spiegelansichten vollständig sichtbar (grün: links; rot: oben; und blau: rechts). Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 4
Abbildung 4: Markerpositionen des Lernalgorithmus.
Linke Spalte: direkte Ansicht; rechte Spalte: Spiegelansicht. Marker 1–4: MCP-Gelenke; 5-8: PIP-Verbindungen; 9–12: Ziffernspitzen; 13: Dorsum des Erreichens der Pfote; 14: Nase; 15: Dorsum der nicht erreichenden Pfote. Marker 16 (Pellet) ist nicht sichtbar. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 5
Abbildung 5: Ratten erwerben schnell die automatisierte qualifizierte Aufgabe.
Durchschnittliche Erste-Reichweite-Erfolgsrate (grüne, linke Achse) und durchschnittliche Gesamtversuche (blaue, rechte Achse) in den ersten 20 Trainingseinheiten in der automatisierten Fachaufgabe (n = 19). Jede Trainingseinheit dauerte 30 min. Fehlerbalken stellen Standardfehler des Mittelwerts dar. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 6
Abbildung 6: Beispiel-Videoframes, die durch das Lernprogramm markiert sind.
Linke Spalte: Spiegelansicht; rechte Spalte: direkte Ansicht. Cyan, Rot, Gelb und grüne Punkte markieren Ziffern 1–4. Der weiße Punkt markiert die Nase, der schwarze Punkt das Pellet. Gefüllte Kreise wurden von DeepLabCut identifiziert. Offene Kreise markieren Objektpositionen, die nach dem Ort geschätzt werden, an dem das Objekt in der entgegengesetzten Ansicht angezeigt wurde. X es sind Punkte, die aus den Schätzungen ihrer 3D-Standorte auf die Videoframes neu projiziert werden. Dieses Video wurde bei Frame 300 ausgelöst, als die Pfote durch den Schlitz ging. Die Top-Bilder stammen aus dem ersten Frame, als die erreichende Pfote erkannt wurde. Die unteren Bilder stammen aus dem Rahmen, an dem die zweite Ziffer maximal erweitert wurde. Diese Frames wurden durch die Bildverarbeitungssoftware identifiziert. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 7
Abbildung 7: Beispiel 3D-Trajektorien aus einer einzelnen Testsitzung.
Beide Achsen zeigen die gleichen Daten an, werden jedoch für eine einfache Darstellung gedreht. Schwarze Linien zeigen mittlere Flugbahnen an. Cyan, Rot, Gelb und Grün sind einzelne Bahnen der Spitzen der Ziffern 1–4. Blaue Linien zeigen die Flugbahn des Pfotendorsums an. Der große schwarze Punkt zeigt das Zuckerpellet an, das sich bei (0,0,0) befindet. Dies stellt nur eine anfängliche Pfotenförderung für eine einfache Präsentation dar (einschließlich Rückzugunde und Mehrfachreichweiten macht die Figur fast uninterpretierbar). Alle kinematischen Daten stehen jedoch zur Analyse zur Verfügung. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 8
Abbildung 8: Histogramme von Bildnummern, in denen spezifische Erreichensphasen für 2 verschiedene Sitzungen identifiziert wurden.
In einer Sitzung (dunkle durchgezogene Linien) wurden die ROI-Triggerwerte sorgfältig festgelegt, und die Pfote wurde identifiziert, die den Steckplatz innerhalb der gleichen wenigen Frames in jeder Studie durchlief. In der anderen Sitzung (leichte gestrichelte Linien) wurde die Nase oft fälschlicherweise als die erreichende Pfote identifiziert, was die Videoaufnahme vorzeitig auslöste. Beachten Sie, dass dies nur geringe Auswirkungen auf die kinematischen Analysen außerhalb der Linie hätte, es sei denn, die volle Reichweite wurde nicht erfasst. Potenzielle Eingriffe, die durch die erreichende Pfote ausgelöst werden, wären jedoch schlecht getimt. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

or Start trial to access full content. Learn more about your institution’s access to JoVE content here

Nagetier-Fachkräfte sind zu einem Standardwerkzeug geworden, um die Physiologie des Motorsystems und die Pathophysiologie zu studieren. Wir haben beschrieben, wie eine automatisierte Ratten-Fachkräfte-Reichweite-Aufgabe implementiert werden kann, die es ermöglicht: Training und Tests mit minimaler Überwachung, 3-D-Pfote und Ziffernbahn-Rekonstruktion (beim Greifen, Greifen und Zurückziehen der Pfote), Echtzeit-Identifikation der Pfote während des Erreichens und Synchronisation mit externer Elektronik. Es eignet sich gut, um die Vorderinematik mit der Physiologie zu korrelieren oder präzise Zeitinterventionen während der Erreichensbewegungen durchzuführen.

Seit wir dieses Design14ursprünglich gemeldet haben, hat sich unsere Trainingseffizienz verbessert, so dass fast 100% der Ratten die Aufgabe übernehmen. Wir haben mehrere wichtige Faktoren identifiziert, die zu einer durchweg erfolgreichen Ausbildung führen. Wie bei vielen Aufgaben, die durch Hunger motiviert sind, sollten Ratten während der Kalorienrestriktion sorgfältig überwacht werden, um 80–90% ihres erwarteten Körpergewichts zu halten. Der tägliche Umgang mit den Ratten, auch vor dem Training, ist von entscheidender Bedeutung, um sie an den Menschen zu akklimatisieren. Ratten sollten geschult werden, um zu erreichen, bevor sie lernen, auf den hinteren Teil der Kammer zurückzukehren, um Pellets anzufordern – dies reduziert die Trainingszeit erheblich und erhöht die Wahrscheinlichkeit, dass Ratten die Aufgabe übernehmen. Schließlich, wenn sie zwischen scheinbar identischen Kammern übertragen werden, führen Ratten oft weniger Reichweiten aus. Dies galt insbesondere, wenn zum ersten Mal Kammern verwendet wurden. Wir spekulieren, dass dies auf Unterschiede im Duft zwischen den Kammern zurückzuführen ist. Was auch immer der Grund sein mag, es ist wichtig, eine möglichst stabile Trainingsumgebung aufrechtzuerhalten oder die Ratten an alle Boxen zu akklimatisieren, in denen Tests stattfinden können.

Das hier beschriebene Gerät ist leicht an spezifische Bedürfnisse anpassbar. Wir haben eine Rattenversion der Aufgabe beschrieben, aber auch eine Mausversion implementiert (obwohl es schwierig ist, einzelne Ziffern mit DeepLabCut bei Mäusen zu identifizieren). Da einzelne Videoframes mit TTL-Impulsen markiert sind, können Videos mit jedem Aufnahmesystem synchronisiert werden, das digitale oder analoge Eingänge akzeptiert (z. B. elektrophysiologische Verstärker oder Photometrie). Schließlich, Kopf-fixierte Mäuse leicht durchführen qualifizierte erreichen9, und eine Kopf-feste Version dieser Aufgabe könnte für 2-Photon-Bildgebung oder nebeneinander-Zellaufnahmen implementiert werden. Wichtig ist, dass wir dieses System nur mit Long-Evans-Ratten verwendet haben, deren Nase und Pfotenfell (schwarz und weiß) sich in der Farbe so unterscheiden, dass Nasenstocher nicht mit Reichweiten verwechselt werden (mit entsprechenden ROI-Einstellungen, Abbildung 8). Dies kann ein Problem für Ratten mit ähnlicher Färbung auf ihren Pfoten und Nasen (z.B. Albino-Ratten) sein, könnte aber durch Färbung der Pfote mit Tinte, Nagellack oder Tätowierungen gelöst werden.

Die vorgestellte Version des Fachmanns erreichen hat mehrere verschiedene Merkmale, die je nach spezifischer Anwendung vorteilhaft sein können. Die relativ komplizierte Hardware und der Bedarf an Echtzeit-Videoverarbeitung machen es schlecht geeignet für Home-Käfig-Training6,7. Auf der anderen Seite macht es das Heimkäfigtraining schwierig, hochauflösende S-High-Resolution-Videos aus mehreren Blickwinkeln zu erfassen oder die Tiere für physiologische Aufnahmen/Interventionen zu entführen. Die Datenerfassungskarten und die Anforderung für einen Computer pro Kammer machen jede Kammer relativ teuer, und die Videos benötigen erheblichen digitalen Speicherplatz (ca. 200 MB pro 4 s Video). Wir haben eine einfachere Mikrocontroller-basierte Version implementiert, die etwa 300 DOLLAR pro Kammer kostet, obwohl es an Echtzeit-Feedback oder der Möglichkeit zur Synchronisierung mit externen Geräten fehlt. Diese Boxen sind im Wesentlichen identisch mit den hier beschriebenen, aber verwenden Sie einen kommerziellen Camcorder und benötigen keinen Computer, außer um den Mikrocontroller zu programmieren (Details dieser Einrichtung und zugehörige Software sind auf Anfrage erhältlich). Die Echtzeit-Videoverarbeitung auf dem FPGA-Framegrabber ist besonders nützlich. wir finden, dass es robuster identifiziert erreicht in Echtzeit als Infrarot-Strahlen oder Näherungssensoren (die die Schnarbe der Ratte für die erreichende Pfote verwechseln kann). Darüber hinaus können mehrere Auslöser verwendet werden, um die Pfote in verschiedenen Erreichensphasen zu identifizieren (z. B. Annäherung an den Schlitz, Pfotenlift, Verlängerung durch Schlitz). Dies ermöglicht nicht nur reproduzierbare, präzise getimte neuronale Störungen, sondern kann auch zur Speicherung kurzer Hochgeschwindigkeitsvideos verwendet werden.

Während unsere automatisierte Version des erreichens von Fachkräften mehrere Vorteile für bestimmte Anwendungen hat, hat sie auch einige Einschränkungen. Wie oben erwähnt, ist die hochauflösende High-Speed-Kamera mäßig teuer, aber notwendig, um Spiegel- und Direktansichten in ein einzelnes Bild aufzunehmen und die sehr schnell erreichende Bewegung zu erfassen. Die Verwendung einer Kamera macht es überflüssig, mehrere Videostreams gleichzeitig zu synchronisieren und aufzuzeichnen oder mehrere Kameras und Framegrabber zu kaufen. Die Pfote in der reflektierten Ansicht ist effektiv etwa doppelt so weit von der Kamera entfernt (durch Raytracing) wie in der direkten Ansicht. Dies bedeutet, dass eine der Ansichten immer a-fokussiert ist, obwohl DLC immer noch robust einzelne Ziffern in beiden Ansichten identifiziert (Abbildung 4, Abbildung 6). Schließlich haben wir eine Farbkamera verwendet, weil wir vor der Verfügbarkeit von DLC versucht haben, die Ziffern mit Tattoos zu kodieren. Es ist zwar möglich, dass dieses lernbasierte Programm auf Schwarzweiß-Video (oder niedrigerer Auflösung) gleichermaßen effektiv ist, aber wir können nur die Wirksamkeit der hier beschriebenen Hardware überprüfen. Schließlich ist unser Analysecode (außer DLC) in erster Linie in einem kommerziellen Softwarepaket (siehe Tabelle derMaterialien) geschrieben, sollte aber bei Bedarf einfach an Open-Source-Programmiersprachen (z. B. Python) angepasst werden können.

Es gibt mehrere Möglichkeiten, wie wir daran arbeiten, dieses System zu verbessern. Derzeit wird die Spiegelansicht teilweise von der Frontplatte verdeckt. Wir haben daher nach Wegen gesucht, um mehrere gleichzeitige Ansichten der Pfote zu erhalten und dabei Hindernisse zu minimieren. Eine weitere wichtige Entwicklung wird sein, automatisch die Reichweiten zu erzielen (das System kann Kinematik verfolgen, aber ein Mensch muss immer noch erfolgreich gegen fehlgeschlagene Reichweiten punkten). Es wurden Methoden entwickelt, um festzustellen, ob Pellets aus dem Regal/Sockel geworfen wurden, können aber nicht bestimmen, ob das Pellet vollständig erfasst oder verpasst wurde11. Indem wir das Pellet mit DLC verfolgen, erforschen wir Algorithmen, um die Anzahl der Reichweiten pro Versuch zu bestimmen, sowie ob das Pellet erfasst, vom Sockel gestoßen oder ganz verpasst wurde. In diesem Sinne arbeiten wir auch daran, den Workflow von der Datenerfassung über Videokonvertierung, DLC-Verarbeitung und automatische Bewertung vollständig zu automatisieren. Letztendlich stellen wir uns ein System vor, in dem mehrere Experimente an einem Tag durchgeführt werden können, und bis zum nächsten Morgen wurden die vollständige Vorderkieferkinematik und die Erreichen von Punktzahlen für jedes Experiment bestimmt.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren haben nichts zu verraten.

Acknowledgments

Die Autoren danken Karunesh Ganguly und seinem Labor für die Beratung bei der kompetenten Aufgabe und Alexander und Mackenzie Mathis für ihre Hilfe bei der Anpassung von DeepLabCut. Diese Arbeit wurde vom National Institute of Neurological Disease and Stroke (Grant-Nummer K08-NS072183) und der University of Michigan unterstützt.

Materials

Name Company Catalog Number Comments
clear polycarbonate panels TAP Plastics cut to order (see box design)
infrared source/detector Med Associates ENV-253SD 30" range
camera Basler acA2000-340kc 2046 x 1086 CMV2000 340 fps Color Camera Link
camera lens Megapixel (computar) M0814-MP2 2/3" 8mm f1.4 w/ locking Iris & Focus
camera cables Basler #2000031083 Cable PoCL Camera Link SDR/MDR Full, 5 m - Data Cables
mirrors Amazon
linear actuator Concentrics LACT6P Linear Actuator 6" Stroke (nominal), 110 Lb Force, 12 VDC, with Potentiometer
pellet reservoir/funnel Amico (Amazon) a12073000ux0890 6" funnel
guide tube ePlastics ACREXT.500X.250 1/2" OD x 1/4" ID Clear. Extruded Plexiglass Acrylic Tube x 6ft long
pellet delivery rod ePlastics ACRCAR.250 0.250" DIA. Cast Acrylic Rod (2' length)
plastic T connector United States Plastic Corp #62065 3/8" x 3/8" x 3/8" Hose ID Black HDPE Tee
LED lights Lighting EVER 4100066-DW-F 12V Flexible Waterproof LED Light Strip, LED Tape, Daylight White, Super Bright 300 Units 5050 LEDS, 16.4Ft 5 M Spool
Light backing ePlastics ACTLNAT0.125X12X36 0.125" x 12" x 36" Natural Acetal Sheet
Light diffuser films inventables 23114-01 .007x8.5x11", matte two sides
cabinet and custom frame materials various (Home Depot, etc.) 3/4" fiber board (see protocol for dimensions of each structure)
acoustic foam Acoustic First FireFlex Wedge Acoustical Foam (2" Thick)
ventilation fans Cooler Master (Amazon) B002R9RBO0 Rifle Bearing 80mm Silent Cooling Fan for Computer Cases and CPU Coolers
cabinet door hinges Everbilt (Home Depot #14609 continuous steel hinge (1.4" x 48")
cabinet wheels Everbilt (Home Depot #49509 Soft rubber swivel plate caster with 90 lb. load rating and side brake
cabinet door handle Everbilt (Home Depot #15094 White light duty door pull (4.5")
computer Hewlett Packard Z620 HP Z620 Desktop Workstation
Camera Link Frame Grabber National Instruments #781585-01 PCIe-1473 Virtex-5 LX50 Camera Link - Full
Multifunction RIO Board National Instruments #781100-01 PCIe-17841R
Analog RIO Board Cable National Instruments SCH68M-68F-RMIO Multifunction Cable
Digital RIO Board Cable National Instruments #191667-01 SHC68-68-RDIO Digital Cable for R Series
Analog Terminal Block National Instruments #782536-01 SCB-68A Noise Rejecting, Shielded I/O Connector Block
Digital Terminal Block National Instruments #782536-01 SCB-68A Noise Rejecting, Shielded I/O Connector Block
24 position relay rack Measurement Computing Corp. SSR-RACK24 Solid state relay backplane (Gordos/OPTO-22 type relays), 24-channel
DC switch Measurement Computing Corp. SSR-ODC-05 Solid state relay module, single, DC switch, 3 to 60 VDC @ 3.5 A
DC Sense Measurement Computing Corp. SSR-IDC-05 solid state relay module, single, DC sense, 3 to 32 VDC
DC Power Supply BK Precision 1671A Triple-Output 30V, 5A Digital Display DC Power Supply
sugar pellets Bio Serv F0023 Dustless Precision Pellets, 45 mg, Sucrose (Unflavored)
LabVIEW National Instruments LabVIEW 2014 SP1, 64 and 32-bit versions 64-bit LabVIEW is required to access enough memory to stream videos, but FPGA coding must be performed in 32-bit LabVIEW
MATLAB Mathworks Matlab R2019a box calibration and trajectory reconstruction software is written in Matlab and requires the Computer Vision toolbox

DOWNLOAD MATERIALS LIST

References

  1. Chen, J., et al. An automated behavioral apparatus to combine parameterized reaching and grasping movements in 3D space. Journal of Neuroscience Methods. (2018).
  2. Sacrey, L. A. R. A., Alaverdashvili, M., Whishaw, I. Q. Similar hand shaping in reaching-for-food (skilled reaching) in rats and humans provides evidence of homology in release, collection, and manipulation movements. Behavioural Brain Research. 204, 153-161 (2009).
  3. Whishaw, I. Q., Kolb, B. Decortication abolishes place but not cue learning in rats. Behavioural Brain Research. 11, 123-134 (1984).
  4. Klein, A., Dunnett, S. B. Analysis of Skilled Forelimb Movement in Rats: The Single Pellet Reaching Test and Staircase Test. Current Protocols in Neuroscience. 58, 8.28.1-8.28.15 (2012).
  5. Whishaw, I. Q., Pellis, S. M. The structure of skilled forelimb reaching in the rat: a proximally driven movement with a single distal rotatory component. Behavioural Brain Research. 41, 49-59 (1990).
  6. Zeiler, S. R., et al. Medial premotor cortex shows a reduction in inhibitory markers and mediates recovery in a mouse model of focal stroke. Stroke. 44, 483-489 (2013).
  7. Fenrich, K. K., et al. Improved single pellet grasping using automated ad libitum full-time training robot. Behavioural Brain Research. 281, 137-148 (2015).
  8. Azim, E., Jiang, J., Alstermark, B., Jessell, T. M. Skilled reaching relies on a V2a propriospinal internal copy circuit. Nature. (2014).
  9. Guo, J. Z. Z., et al. Cortex commands the performance of skilled movement. Elife. 4, e10774 (2015).
  10. Nica, I., Deprez, M., Nuttin, B., Aerts, J. M. Automated Assessment of Endpoint and Kinematic Features of Skilled Reaching in Rats. Frontiers in Behavioral Neuroscience. 11, 255 (2017).
  11. Wong, C. C., Ramanathan, D. S., Gulati, T., Won, S. J., Ganguly, K. An automated behavioral box to assess forelimb function in rats. Journal of Neuroscience Methods. 246, 30-37 (2015).
  12. Torres-Espín, A., Forero, J., Schmidt, E. K. A., Fouad, K., Fenrich, K. K. A motorized pellet dispenser to deliver high intensity training of the single pellet reaching and grasping task in rats. Behavioural Brain Research. 336, 67-76 (2018).
  13. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21, 1281-1289 (2018).
  14. Ellens, D. J., et al. An automated rat single pellet reaching system with high-speed video capture. Journal of Neuroscience Methods. 271, 119-127 (2016).
Automatisierte Ratte Single-Pellet Erreichen mit 3-dimensionalen Rekonstruktion von Pfoten- und Digit-Trajektorien
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Bova, A., Kernodle, K., Mulligan, K., Leventhal, D. Automated Rat Single-Pellet Reaching with 3-Dimensional Reconstruction of Paw and Digit Trajectories. J. Vis. Exp. (149), e59979, doi:10.3791/59979 (2019).More

Bova, A., Kernodle, K., Mulligan, K., Leventhal, D. Automated Rat Single-Pellet Reaching with 3-Dimensional Reconstruction of Paw and Digit Trajectories. J. Vis. Exp. (149), e59979, doi:10.3791/59979 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
simple hit counter