Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Tracking Ratten in Operant Conditioning Chambers mit einer vielseitigen hausgemachten Videokamera und DeepLabCut

Published: June 15, 2020 doi: 10.3791/61409

Summary

Dieses Protokoll beschreibt, wie man eine kleine und vielseitige Videokamera baut und wie man von ihm erhaltene Videos verwendet, um ein neuronales Netzwerk zu trainieren, um die Position eines Tieres in Opernkonditionierungskammern zu verfolgen. Dies ist eine wertvolle Ergänzung zu Standardanalysen von Datenprotokollen, die aus Operant-Konditionierungstests gewonnen wurden.

Abstract

Operant-Konditionierungskammern werden verwendet, um eine breite Palette von Verhaltenstests auf dem Gebiet der Neurowissenschaften durchzuführen. Die aufgezeichneten Daten basieren in der Regel auf der Auslösung von Hebel- und Nasen-Poke-Sensoren, die in den Kammern vorhanden sind. Dies bietet zwar eine detaillierte Ansicht, wann und wie Tiere bestimmte Antworten ausführen, kann jedoch nicht verwendet werden, um Verhaltensweisen zu bewerten, die keine Sensoren auslösen. Daher ist es selten möglich, zu beurteilen, wie sich Tiere positionieren und sich innerhalb der Kammer bewegen. Um diese Informationen zu erhalten, müssen Forscher in der Regel Videos aufzeichnen und analysieren. Hersteller von Operant-Konditionskammern können ihre Kunden in der Regel mit hochwertigen Kamera-Setups beliefern. Diese können jedoch sehr kostspielig sein und passen nicht unbedingt zu Kammern anderer Hersteller oder anderen Verhaltenstests. Das aktuelle Protokoll beschreibt, wie man eine kostengünstige und vielseitige Videokamera mit Hobby-Elektronikkomponenten baut. Weiter wird beschrieben, wie das Bildanalyse-Softwarepaket DeepLabCut verwendet wird, um den Status eines starken Lichtsignals sowie die Position einer Ratte in Videos zu verfolgen, die aus einer Operant-Konditionierungskammer gesammelt wurden. Ersteres ist eine große Hilfe bei der Auswahl kurzer Segmente von Interesse an Videos, die ganze Testsitzungen abdecken, und letztere ermöglicht die Analyse von Parametern, die nicht aus den von den Opernkammern erstellten Datenprotokollen gewonnen werden können.

Introduction

Im Bereich der Verhaltensneurowissenschaften verwenden Forscher häufig Opernkonditionierungskammern, um eine breite Palette verschiedener kognitiver und psychiatrischer Merkmale bei Nagetieren zu bewerten. Zwar gibt es mehrere verschiedene Hersteller solcher Systeme, sie haben in der Regel bestimmte Attribute und haben ein fast standardisiertes Design1,2,3. Die Kammern sind in der Regel quadratisch oder rechteckig, mit einer Wand, die für die Platzierung von Tieren im Inneren geöffnet werden kann, und eine oder zwei der verbleibenden Wände mit Komponenten wie Hebel, Nasen-Poke-Öffnungen, Belohnungsschalen, Reaktionsräder und Lichter verschiedener Arten1,2,3. Die in den Kammern vorhandenen Leuchten und Sensoren werden verwendet, um sowohl das Testprotokoll zu steuern als auch das Verhalten der Tiere zu verfolgen1,2,3,4,5. Die typischen Operant-Konditionierungssysteme ermöglichen eine sehr detaillierte Analyse, wie die Tiere mit den verschiedenen Operanden und Öffnungen in den Kammern interagieren. Im Allgemeinen können alle Fälle, in denen Sensoren ausgelöst werden, vom System aufgezeichnet werden, und aus diesen Daten können Benutzer detaillierte Protokolldateien erhalten, die beschreiben, was das Tier während bestimmter Schritte des Tests4,5getan hat. Dies bietet zwar eine umfassende Darstellung der Leistung eines Tieres, kann aber nur zur Beschreibung von Verhaltensweisen verwendet werden, die direkt einen oder mehrere Sensoren auslösen4,5. Als solche, Aspekte im Zusammenhang damit, wie das Tier sich selbst positioniert und bewegt sich innerhalb der Kammer während der verschiedenen Phasen des Tests sind nicht gut beschrieben6,7,8,9,10. Dies ist bedauerlich, da solche Informationen wertvoll sein können, um das Verhalten des Tieres vollständig zu verstehen. Zum Beispiel kann es verwendet werden, um zu klären, warum bestimmte Tiere in einem bestimmten Test schlecht abschneiden6, um die Strategien zu beschreiben, die Tiere entwickeln könnten, um schwierige Aufgaben zu bewältigen6,7,8,9,,10, oder um die wahre Komplexität vermeintlich einfacher Verhaltensweisen zu schätzen11,12. Um solche artikulierten Informationen zu erhalten, wenden sich Forscher häufig der manuellen Analyse von Videos6,7,8,9,10,11zu.

Bei der Aufnahme von Videos aus Operat-Konditionierungskammern ist die Wahl der Kamera entscheidend. Die Kammern befinden sich häufig in Isolationskabinen, mit Protokollen, die häufig Schritte verwenden, in denen kein sichtbares Licht leuchtet3,6,7,8,9. Daher ist die Verwendung von Infrarotbeleuchtung (IR) in Kombination mit einer IR-empfindlichen Kamera notwendig, da sie auch bei völliger Dunkelheit Sichtbarkeit ermöglicht. Darüber hinaus ist der Platz für die Platzierung einer Kamera in der Isolationskabine oft sehr begrenzt, was bedeutet, dass man stark von kleinen Kameras profitiert, die Objektive mit einem weiten Sichtfeld (z.B. Fischaugenlinsen) verwenden9. Während Hersteller von Operant-Konditionierungssystemen ihren Kunden oft hochwertige Kamera-Setups liefern können, können diese Systeme teuer sein und nicht unbedingt Kammern anderer Hersteller oder Setups für andere Verhaltenstests passen. Ein bemerkenswerter Vorteil gegenüber der Verwendung von Stand-Alone-Videokameras ist jedoch, dass diese Setups oft direkt mit den Operant-Konditionierungssystemen13,14in Verbindung stehen können. Dadurch können sie so eingerichtet werden, dass sie nur bestimmte Ereignisse aufzeichnen, anstatt vollständige Testsitzungen aufzuzeichnen, was bei der folgenden Analyse sehr helfen kann.

Das aktuelle Protokoll beschreibt, wie man eine kostengünstige und vielseitige Videokamera mit Hobby-Elektronikkomponenten baut. Die Kamera verwendet ein Fisheye-Objektiv, ist empfindlich auf IR-Beleuchtung und hat eine Reihe von IR-Lichtemittierdioden (IR-LEDs) daran befestigt. Darüber hinaus ist es gebaut, um ein flaches und schlankes Profil zu haben. Zusammen bilden diese Aspekte ideal für die Aufnahme von Videos aus den meisten kommerziell erhältlichen Operant-Konditionierungskammern sowie anderen Verhaltenstest-Setups. Das Protokoll beschreibt weiter, wie man mit der Kamera erhaltene Videos verarbeitet und wie man das Softwarepaket DeepLabCut15,16 verwendet, um Videosequenzen von Interesse zu extrahieren sowie die Bewegungen eines Tieres darin zu verfolgen. Dies umgeht teilweise den Rückzieher einer Stand-Alone-Kamera über die integrierten Lösungen von Operant-Herstellern von Konditionierungssystemen und bietet eine Ergänzung zur manuellen Bewertung von Verhaltensweisen.

Es wurden Anstrengungen unternommen, das Protokoll in einem allgemeinen Format zu schreiben, um hervorzuheben, dass der gesamte Prozess an Videos aus verschiedenen Operant-Konditionierungstests angepasst werden kann. Zur Veranschaulichung bestimmter Schlüsselkonzepte werden als Beispiele Videos von Ratten verwendet, die den 5-Wahl-Serienreaktionszeittest (5CSRTT)17 durchführen.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle Verfahren, die den Umgang mit Tieren umfassen, wurden von der Ethikkommission Malmö-Lund für Tierforschung genehmigt.

1. Aufbau der Videokamera

HINWEIS: Eine Liste der Komponenten, die für den Aufbau der Kamera benötigt werden, finden Sie in der Tabelle der Materialien. Siehe auch Abbildung 1, Abbildung 2, Abbildung 3, Abbildung 4, Abbildung 5.

  1. Befestigen Sie den magnetischen Metallring (der das Fisheye-Objektivpaket begleitet) um die Öffnung des Kameraständers(Abbildung 2A). Dadurch kann das Fisheye-Objektiv vor der Kamera platziert werden.
  2. Befestigen Sie das Kameramodul am Kameraständer (Abbildung 2B). Dies wird dem Kameramodul eine gewisse Stabilität verleihen und einen gewissen Schutz für die elektronischen Schaltungen bieten.
  3. Öffnen Sie die Kameraanschlüsse am Kameramodul und am Mikrocomputer (Abbildung 1), indem Sie sanft an den Rändern ihrer Kunststoffclips ziehen (Abbildung 2C).
  4. Legen Sie das Flachbandkabel in die Kameraanschlüsse, so dass die silbernen Anschlüsse den Leiterplatten gegenüberstehen (Abbildung2C). Verriegeln Sie das Kabel an Ort und Stelle, indem Sie die Kunststoffclips der Kameraanschlüsse einschieben.
  5. Legen Sie den Mikrocomputer in das Kunststoffgehäuse und legen Sie die aufgelistete Micro-SD-Karte ein (Abbildung 2D).
    HINWEIS: Die Micro-SD-Karte fungiert als Festplatte des Mikrocomputers und enthält ein vollständiges Betriebssystem. Die aufgelistete Micro-SD-Karte wird mit einem vorinstallierten Installationsmanager (New Out Of Box Software (NOOBS) geliefert. Alternativ kann man ein Abbild der neuesten Version des Betriebssystems des Mikrocomputers (Raspbian oder Rasberry Pi OS) auf eine generische Micro-SD-Karte schreiben. Hilfe hierzu finden Sie in den offiziellen Webressourcen18. Es ist vorzuziehen, eine Micro-SD-Karte der Klasse 10 mit 32 GB Speicherplatz zu verwenden. Größere SD-Karten sind möglicherweise nicht vollständig mit dem aufgeführten Mikrocomputer kompatibel.
  6. Schließen Sie einen Monitor, eine Tastatur und eine Maus an den Mikrocomputer an, und schließen Sie dann das Netzteil an.
  7. Führen Sie die vom Installationshandbuch aufgeforderten Schritte aus, um eine vollständige Installation des Betriebssystems des Mikrocomputers (Raspbian oder Rasberry Pi OS) durchzuführen. Wenn der Mikrocomputer gebootet wurde, stellen Sie sicher, dass er entweder über ein Ethernet-Kabel oder WLAN mit dem Internet verbunden ist.
  8. Führen Sie die unten beschriebenen Schritte aus, um die vorinstallierten Softwarepakete des Mikrocomputers zu aktualisieren.
    1. Öffnen Sie ein Klemmenfenster (Abbildung 3A).
    2. Geben Sie "sudo apt-get update" (ohne Anführungszeichen) ein und drücken Sie die Eingabetaste (Abbildung 3B). Warten Sie, bis der Prozess abgeschlossen ist.
    3. Geben Sie "sudo apt full-upgrade" (ohne Anführungszeichen) ein und drücken Sie die Eingabetaste. Erstellen Sie Schaltflächenantworten, wenn Sie dazu aufgefordert werden, und warten Sie, bis der Prozess abgeschlossen ist.
  9. Wählen Sie im Startmenü Einstellungen und Raspberry Pi-Konfigurationen aus (Abbildung 3C). Wechseln Sie im geöffneten Fenster zur Registerkarte Schnittstellen, und klicken Sie auf Kamera und I2C aktivieren . Dies ist erforderlich, damit der Mikrocomputer mit der Kamera und IR-LED-Modulen arbeitet.
  10. Ergänzende Datei 1 in "Pi_video_camera_Clemensson_2019.py" umbenennen. Kopieren Sie es auf einen USB-Speicherstick und anschließend in den /home/pi-Ordner des Mikrocomputers (Abbildung 3D). Diese Datei ist ein Python-Skript, mit dem Videoaufzeichnungen mit den Tastenschaltern erstellt werden können, die in Schritt 1.13 angefügt sind.
  11. Führen Sie die unten beschriebenen Schritte aus, um die datei rc.local des Mikrocomputers zu bearbeiten. Dadurch startet der Computer das in Schritt 1.10 kopierte Skript und startet die IR-LEDs, die beim Starten in Schritt 1.13 angefügt werden.
    VORSICHT: Diese Autostart-Funktion funktioniert nicht zuverlässig mit anderen Mikrocomputer-Boards als dem aufgeführten Modell.
    1. Öffnen Sie ein Klemmenfenster, geben Sie "sudo nano /etc/rc.local" (ohne Anführungszeichen) ein und drücken Sie die Eingabetaste. Dadurch wird eine Textdatei geöffnet (Abbildung 4A).
    2. Verwenden Sie die Pfeiltasten der Tastatur, um den Cursor nach unten in den Abstand zwischen "fi" und "exit 0" zu bewegen (Abbildung 4A).
    3. Fügen Sie den folgenden Text hinzu, wie in Abbildung 4Bdargestellt, und schreiben Sie jede Textzeichenfolge in eine neue Zeile:
      sudo i2cset -y 1 0x70 0x00 0xa5 &
      sudo i2cset -y 1 0x70 0x09 0x0f &
      sudo i2cset -y 1 0x70 0x01 0x32 &
      sudo i2cset -y 1 0x70 0x03 0x32 &
      sudo i2cset -y 1 0x70 0x06 0x32 &
      sudo i2cset -y 1 0x70 0x08 0x32 &
      sudo python /home/pi/Pi_video_camera_Clemensson_2019.py &
    4. Speichern Sie die Änderungen, indem Sie Strg + x gefolgt von y und Enterdrücken.
  12. Löten Sie die notwendigen Komponenten wie in Abbildung 5Aangegeben und wie unten beschrieben.
    1. Befestigen Sie bei den beiden farbigen LEDs einen Widerstand und ein weibliches Jumperkabel an einem Bein und ein weibliches Jumperkabel an das andere (Abbildung 5A). Versuchen Sie, die Kabel so kurz wie möglich zu halten. Beachten Sie, welche der LED-Elektroden die negative ist (in der Regel die kurze), da diese an den GPIO-Pins (Allzweck-Eingangs-/-Ausgangs)-Pins des Mikrocomputers mit Masse verbunden werden muss.
    2. Befestigen Sie bei den beiden Tastenschaltern ein weibliches Jumperkabel an jedem Bein (Abbildung 5A). Machen Sie die Kabel lang für einen der Schalter und kurz für den anderen.
    3. Um das IR-LED-Modul zu montieren, folgen Sie den Anweisungen auf den offiziellen Web-Ressourcen19.
    4. Bedecken Sie die gelöteten Gelenke mit Schrumpfschläuchen, um das Risiko eines Kurzschlusses der Komponenten zu begrenzen.
  13. Schalten Sie den Mikrocomputer aus und schließen Sie die Schalter und LEDs an die GPIO-Pins an, wie in Abbildung 5Bangegeben und unten beschrieben.
    VORSICHT: Die Verdrahtung der Komponenten mit den falschen GPIO-Pins kann sie und/oder den Mikrocomputer beschädigen, wenn die Kamera eingeschaltet ist.
    1. Schließen Sie eine LED an, so dass ihr negatives Ende mit Pin-#14 und sein positives Ende mit Pin-#12 verbunden ist. Diese LED leuchtet, wenn der Mikrocomputer gebootet ist und die Kamera einsatzbereit ist.
    2. Schließen Sie den Tastenschalter mit langen Kabeln an, sodass ein Kabel mit pin #9 und das andere mit dem Pin-#11 verbunden ist. Diese Schaltfläche wird verwendet, um die Videoaufzeichnungen zu starten und zu stoppen.
      HINWEIS: Das Skript, das die Kamera steuert, wurde so geschrieben, dass diese Schaltfläche kurz nach dem Starten oder Beenden einer Videoaufzeichnung für einige Sekunden nicht mehr reagiert.
    3. Schließen Sie eine LED an, so dass ihr negatives Ende mit Pin-#20 und sein positives Ende mit Pin-#13 verbunden ist. Diese LED leuchtet, wenn die Kamera ein Video aufnimmt.
    4. Schließen Sie den Tastenschalter mit den kurzen Kabeln an, sodass ein Kabel mit pin #37 und das andere mit dem #39 verbunden ist. Dieser Schalter wird verwendet, um die Kamera auszuschalten.
    5. Schließen Sie das IR-LED-Modul wie in seinen offiziellen Web-Ressourcenbeschrieben 19an.

2. Gestaltung des von Interesse kommenden Betriebskonditionierungsprotokolls

HINWEIS: Um DeepLabCut zum Nachverfolgen des Protokollverlaufs in Videos zu verwenden, die aus Operantkammern aufgenommen wurden, müssen die Verhaltensprotokolle auf spezifische Weise strukturiert werden, wie unten erläutert.

  1. Legen Sie das Protokoll fest, um das Hauslicht der Kammer oder ein anderes starkes Lichtsignal als Indikator für einen bestimmten Schritt im Protokoll (z. B. den Beginn einzelner Versuche oder die Testsitzung) zu verwenden (Abbildung 6A). Dieses Signal wird im Rest dieses Protokolls als "Protokollschrittindikator" bezeichnet. Das Vorhandensein dieses Signals ermöglicht die Verfolgung des Protokollverlaufs in den aufgezeichneten Videos.
  2. Legen Sie das Protokoll fest, um alle von Interesse sindden Antworten mit einzelnen Zeitstempeln in Bezug auf die Aktivität des Protokollschrittindikators aufzuzeichnen.

3. Aufnehmen von Videos von Tieren, die den Verhaltenstest von Interesse durchführen

  1. Platzieren Sie die Kamera auf den Opernkammern, sodass sie eine Ansicht des Bereichs im Inneren aufzeichnet (Abbildung 7).
    HINWEIS: Dies eignet sich besonders zum Erfassen der allgemeinen Position und Körperhaltung eines Tieres in der Kammer. Vermeiden Sie es, die Kontrollleuchten der Kamera und das IR-LED-Modul in der Nähe des Kameraobjektivs zu platzieren.
  2. Starten Sie die Kamera, indem Sie sie über das Netzkabel an eine Steckdose anschließen.
    HINWEIS: Vor der ersten Verwendung ist es vorteilhaft, den Fokus der Kamera mit dem kleinen Werkzeug einzustellen, das das Kameramodul begleitet.
  3. Verwenden Sie die in Schritt 1.13.2 angeschlossene Taste, um Videoaufzeichnungen zu starten und zu beenden.
  4. Schalten Sie die Kamera aus, indem Sie diese Schritte ausführen.
    1. Halten Sie die in Schritt 1.13.4 angeschlossene Taste so lange gedrückt, bis die in Schritt 1.13.1 angeschlossene LED ausgeschaltet ist. Dadurch wird der Abschaltvorgang der Kamera eingeleitet.
    2. Warten Sie, bis die grüne LED, die oben auf dem Mikrocomputer sichtbar ist (Abbildung 1), nicht mehr blinkt.
    3. Entfernen Sie das Netzteil der Kamera.
      VORSICHT: Das Trennen des Netzteils, während der Mikrocomputer noch läuft, kann zu einer Beschädigung der Daten auf der Micro-SD-Karte führen.
  5. Schließen Sie die Kamera an einen Monitor, eine Tastatur, eine Maus und ein USB-Speichergerät an und rufen Sie die Videodateien von ihrem Desktop ab.
    HINWEIS: Die Dateien werden nach dem Datum und der Uhrzeit benannt, zu der die Videoaufzeichnung gestartet wurde. Der Mikrocomputer verfügt jedoch nicht über eine interne Uhr und aktualisiert seine Zeiteinstellung nur, wenn er mit dem Internet verbunden ist.
  6. Konvertieren Sie die aufgenommenen Videos von .h264 in . MP4, da letzteres gut mit DeepLabCut und den meisten Media-Playern funktioniert.
    HINWEIS: Es gibt mehrere Möglichkeiten, dies zu erreichen. Eine wird in Der Ergänzungsdatei 2beschrieben.

4. Analysieren von Videos mit DeepLabCut

HINWEIS: DeepLabCut ist ein Softwarepaket, mit dem Benutzer jedes Objekt von Interesse in einer Reihe von Videoframes definieren und anschließend ein neuronales Netzwerk trainieren können, um die Positionen der Objekte in Videos in voller Länge zu verfolgen15,16. Dieser Abschnitt gibt einen groben Überblick darüber, wie DeepLabCut verwendet wird, um den Status des Protokollschrittindikators und die Position des Kopfes einer Ratte zu verfolgen. Die Installation und Verwendung von DeepLabCut ist in anderen veröffentlichten Protokollen15,16gut beschrieben. Jeder Schritt kann über bestimmte Python-Befehle oder die grafische Benutzeroberfläche von DeepLabCut ausgeführt werden, wie an anderer Stelle beschrieben15,16.

  1. Erstellen und konfigurieren Sie ein neues DeepLabCut-Projekt, indem Sie die in16beschriebenen Schritte ausführen.
  2. Verwenden Sie die Frame-Grabbing-Funktion von DeepLabCut, um 700-u2012900-Videoframes aus einem oder mehreren der in Abschnitt 3 aufgenommenen Videos zu extrahieren.
    HINWEIS: Wenn sich die Tiere in der Fellpigmentierung oder anderen visuellen Eigenschaften erheblich unterscheiden, ist es ratsam, dass die 700-u2012900 extrahierten Videoframes auf Videos von verschiedenen Tieren aufgeteilt werden. Dadurch kann ein geschultes Netzwerk verwendet werden, um verschiedene Personen zu verfolgen.
    1. Stellen Sie sicher, dass Sie Videoframes einschließen, die sowohl den aktiven (Abbildung 8A) als auch den inaktiven (Abbildung 8B) Zustand der Protokollschrittanzeige anzeigen.
    2. Stellen Sie sicher, dass Sie Videoframes enthalten, die den Bereich der verschiedenen Positionen, Haltungen und Kopfbewegungen abdecken, die die Ratte während des Tests zeigen kann. Dazu gehören Videorahmen, in denen die Ratte in verschiedenen Bereichen der Kammer still steht, wobei ihr Kopf in verschiedene Richtungen zeigt, sowie Videorahmen, in denen sich die Ratte aktiv bewegt, in Nasensacköffnungen eintritt und in den Pellettrog eintritt.
  3. Verwenden Sie die Labeling Toolbox von DeepLabCut, um die Position des Kopfes der Ratte in jedem in Schritt 4.2 extrahierten Videorahmen manuell zu markieren. Verwenden Sie den Mauszeiger, um ein "Kopf"-Etikett an einer zentralen Position zwischen den Ohren der Ratte zu platzieren (Abbildung 8A,B). Markieren Sie außerdem die Position des Hauslichts der Kammer (oder einer anderen Protokollschrittanzeige) in jedem Videorahmen, in dem es aktiv leuchtet (Abbildung 8A). Lassen Sie das Hauslicht unbeschriftet in Rahmen, wo es inaktiv ist (Abbildung 8B).
  4. Verwenden Sie die Funktionen "Trainingsdatensatz erstellen" und "Zugnetzwerk" von DeepLabCut, um einen Trainingsdatensatz aus den in Schritt 4.3 beschrifteten Videoframes zu erstellen und mit dem Training eines neuronalen Netzwerks zu beginnen. Stellen Sie sicher, dass Sie "resnet_101" für den ausgewählten Netzwerktyp auswählen.
  5. Beenden Sie das Training des Netzwerks, wenn der Trainingsverlust unter 0,01 gesunken ist. Dies kann bis zu 500.000 Trainingsiterationen erfordern.
    HINWEIS: Bei Verwendung eines GPU-Computers mit ca. 8 GB Arbeitsspeicher und einem Trainingssatz von ca. 900 Videoframes (Auflösung: 1640 x 1232 Pixel) hat sich herausgestellt, dass der Trainingsprozess ca. 72 h beträgt.
  6. Verwenden Sie die Videoanalysefunktion von DeepLabCut, um die in Schritt 3 gesammelten Videos mithilfe des in Schritt 4.4 trainierten neuronalen Netzwerks zu analysieren. Dies wird eine .csv-Datei mit den verfolgten Positionen des Kopfes der Ratte und der Protokollschrittanzeige in jedem Videoframe der analysierten Videos bereitstellen. Darüber hinaus werden markierte Videodateien erstellt, in denen die verfolgten Positionen visuell angezeigt werden (Videos 1-8).
  7. Bewerten Sie die Genauigkeit der Nachverfolgung, indem Sie die unten beschriebenen Schritte befolgen.
    1. Verwenden Sie die integrierte Auswertungsfunktion von DeepLabCut, um eine automatisierte Auswertung der Tracking-Genauigkeit des Netzwerks zu erhalten. Dies basiert auf den Videoframes, die in Schritt 4.3 beschriftet wurden, und beschreibt, wie weit die vom Netzwerk verfolgte Position im Durchschnitt von der manuell platzierten Beschriftung entfernt ist.
    2. Wählen Sie in den in Schritt 4.6 erhaltenen markierten Videos eine oder mehrere kurze Videosequenzen (jeweils ca. 100-u2012200-Videoframes) aus. Gehen Sie durch die Videosequenzen, Frame für Frame, und beachten Sie, in wie vielen Rahmen die Beschriftungen korrekt die Positionen des Kopfes, des Schwanzes usw. der Ratte angeben und in wie vielen Frames die Beschriftungen in fehlerhaften Positionen platziert oder nicht angezeigt werden.
      1. Wenn die Beschriftung eines Körperteils oder Objekts häufig verloren geht oder sich in einer fehlerhaften Position befindet, identifizieren Sie die Situationen, in denen die Nachverfolgung fehlschlägt. Extrahieren und fügen Sie beschriftete Rahmen dieser Gelegenheiten hinzu, indem Sie die Schritte 4.2 wiederholen. und 4.3. Trainieren Sie dann das Netzwerk neu und analysieren Sie die Videos erneut, indem Sie die Schritte 4.4-4.7 wiederholen. Letztendlich sollte eine Tracking-Genauigkeit von >90% Genauigkeit erreicht werden.

5. Abrufen von Koordinaten für Sehenswürdigkeiten in den Opernkammern

  1. Verwenden Sie DeepLabCut, wie in Schritt 4.3 beschrieben, um Punkte, die in den Operantkammern (z. B. Nasensacköffnungen, Hebel usw.) angezeigt werden, manuell in einem einzigen Videorahmen zu markieren (Abbildung 8C). Diese werden manuell je nach studienspezifischen Interessen ausgewählt, wobei die Position des Protokollschrittindikators immer einbezogen werden sollte.
  2. Rufen Sie die Koordinaten der markierten Sehenswürdigkeiten aus der CSV-Datei ab, die DeepLabCut automatisch unter "beschriftete Daten" im Projektordner speichert.

6. Identifizieren von Videosegmenten, in denen die Protokollschrittanzeige aktiv ist

  1. Laden Sie die .csv-Dateien aus der DeepLabCut-Videoanalyse in Schritt 4.6 in eine Datenverwaltungssoftware Ihrer Wahl.
    HINWEIS: Aufgrund der Menge und Komplexität der Daten, die von DeepLabCut und Operant-Konditionierungssystemen erhalten werden, erfolgt die Datenverwaltung am besten durch automatisierte Analyseskripts. Um damit zu beginnen, lesen Sie bitte einsende-Guides, die an anderer Stelle verfügbar sind20,21,22.
  2. Beachten Sie, in welchen Videosegmenten die Protokollschrittanzeige innerhalb von 60 Pixeln der in Abschnitt 5 erhaltenen Position nachverfolgt wird. Dies sind Zeiträume, in denen das Protokollschrittkennzeichen aktiv ist (Abbildung 6B).
    HINWEIS: Während Videosegmenten, in denen die Protokollschrittanzeige nicht leuchtet, scheint das markierte Video darauf hinzuweisen, dass DeepLabCut es nicht an einer Position verfolgt. Dies ist jedoch selten der Fall, und es wird stattdessen in der Regel an mehreren verstreuten Standorten nachverfolgt.
  3. Extrahieren Sie den genauen Startpunkt für jeden Zeitraum, in dem der Protokollschrittindikator aktiv ist (Abbildung 6C: 1).

7. Identifizieren von Videosegmenten von Interesse

  1. Berücksichtigen Sie die Punkte, an denen der Indikator für protokollierte Schritte aktiv wird (Abbildung 6C:1) und die Zeitstempel der von den Opernkammern aufgezeichneten Antworten (Abschnitt 2, Abbildung 6C:2).
  2. Anhand dieser Informationen können Sie ermitteln, welche Videosegmente bestimmte interessante Ereignisse abdecken, wie z. B. Testintervalle, Antworten, Belohnungsabrufe usw.(Abbildung 6C:3, Abbildung 6D).
    HINWEIS: Beachten Sie hierfür, dass die hier beschriebene Kamera Videos mit 30 fps aufzeichnet.
  3. Beachten Sie die spezifischen Videoframes, die diese Ereignisse von Interesse abdecken.
  4. (Optional) Bearbeiten Sie Videodateien vollständiger Testsitzungen, um nur die einzelnen Segmente von Interesse einzuschließen.
    HINWEIS: Es gibt mehrere Möglichkeiten, dies zu erreichen. Eine ist in der Zusatzdatei 2 und 3beschrieben. Dies hilft sehr, wenn eine große Anzahl von Videos gespeichert wird und kann auch das Überprüfen und Präsentieren von Ergebnissen bequemer machen.

8. Analyse der Position und Bewegungen eines Tieres während bestimmter Videosegmente

  1. Subset die vollständigen Tracking-Daten der Kopfposition aus DeepLabCut in Schritt 4.6 erhalten, um nur Videosegmente in Abschnitt 7 angegeben enthalten.
  2. Berechnen Sie die Position des Tieres in Bezug auf einen oder mehrere der in Abschnitt 5 (Abbildung 8C) ausgewählten Bezugspunkte. Dies ermöglicht Vergleiche von Tracking und Position über verschiedene Videos hinweg.
  3. Führen Sie eine relevante eingehende Analyse der Position und Der Bewegungen des Tieres durch.
    HINWEIS: Die spezifische Analyse wird stark studienspezifisch sein. Einige Beispiele für Parameter, die analysiert werden können, sind unten aufgeführt.
    1. Visualisieren Sie Pfadablaufverfolgungen, indem Sie alle Koordinaten, die während eines ausgewählten Zeitraums erkannt wurden, innerhalb eines Diagramms darstellen.
    2. Analysieren Sie die Nähe zu einem bestimmten Sehenswürdigkeiten mithilfe der folgenden Formel:
      Equation 1
    3. Analysieren Sie Geschwindigkeitsänderungen während einer Bewegung, indem Sie den Abstand zwischen verfolgten Koordinaten in aufeinander folgenden Frames berechnen und durch 1/fps der Kamera dividieren.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Videokameraleistung

Die repräsentativen Ergebnisse wurden in Opernkonditionierungskammern für Ratten mit Einer Bodenfläche von 28,5 cm x 25,5 cm und einer Höhe von 28,5 cm gesammelt. Mit dem Fisheye-Objektiv befestigt, erfasst die Kamera die gesamte Bodenfläche und große Teile der umgebenden Wände, wenn sie über der Kammer platziert (Abbildung 7A). Als solche kann eine gute Sicht erhalten werden, auch wenn die Kamera außerhalb der Mitte auf der Oberseite der Kammer platziert ist. Dies sollte für vergleichbare Opernkammern gelten. Die IR-LEDs sind in der Lage, die gesamte Kammer zu beleuchten (Abbildung 7B,C), was eine gute Sicht ermöglicht, auch wenn alle anderen Lichter innerhalb der Kammer ausgeschaltet sind (Abbildung 7C). Allerdings ist die Beleuchtung in solchen Situationen nicht ganz gleichmäßig, und kann zu einigen Schwierigkeiten bei der Beschaffung einer genauen Verfolgung führen. Wenn eine solche Analyse von Interesse ist, können zusätzliche Quellen der IR-Beleuchtung erforderlich sein. Es ist auch erwähnenswert, dass einige Kammern Metall-Tropfen-Pfannen verwenden, um Urin und Kot zu sammeln. Wenn die Kamera direkt über solchen Oberflächen platziert wird, sind starke Reflexionen des Lichts der IR-LEDs in den aufgenommenen Videos sichtbar (Abbildung 7B). Dies kann jedoch vermieden werden, indem Papiertücher in die Tropfpfanne legen, was ein deutlich verbessertes Bild ergibt (Abbildung 7C). Das Platzieren der IR- oder farbigen LEDs der Kamera, die zu nah am Kameraobjektiv liegen, kann dazu führen, dass sie in der Bildperipherie sichtbar sind (Abbildung 7B). Da die Kamera IR-empfindlich ist, können alle IR-Lichtquellen, die in den Kammern vorhanden sind, in den Videos sichtbar sein. Für viele Setups wird dies das kontinuierliche Leuchten von IR-Strahlbruchsensoren umfassen (Abbildung 7C). Die kontinuierliche Ausleuchtung der IR-LEDs der Kamera stört die Bildqualität gut beleuchteter Kammern nicht (Abbildung 7D). Die Größe der mit der Kamera aufgenommenen Videos beträgt ca. 77 Mb/min. Wenn eine 32-Gb-Micro-SD-Karte für die Kamera verwendet wird, sollte nach der Installation des Betriebssystems etwa 20 Gb zur Verfügung stehen. Dies lässt Platz für ca. 260 min aufgenommenes Filmmaterial.

Das Fisheye-Objektiv bewirkt, dass die Kamera einen leicht ungleichmäßigen Fokus hat, scharf in der Mitte des Bildes ist, aber die Schärfe gegenüber den Rändern reduziert. Dies scheint die Genauigkeit der Nachverfolgung nicht zu beeinträchtigen. Darüber hinaus führt die Fisheye-Linse dazu, dass das aufgenommene Bild verzerrt wird. Beispielsweise zeigen die Abstände zwischen gleich großen Punkten entlang gerader Linien künstlich reduzierte Abstände zur Peripherie des Bildes(Abbildung 9A,B). Wenn die Kamera für Anwendungen verwendet wird, bei denen die meisten Sichtfeld- oder absoluten Entfernungs- und Geschwindigkeitsmessungen von Interesse sind, lohnt es sich, die Daten für diese Verzerrung zu korrigieren23 (Zusatzdatei 4). Die Verzerrung ist jedoch relativ mild in der Bildmitte (Abbildung 9B). Für Videos, die in unserer Opernkammer gesammelt werden, ist der Interessenbereich auf die zentralen 25% des Sichtfeldes der Kamera beschränkt. Innerhalb dieses Bereichs ist die Wirkung der Fischaugenverzerrung minimal(Abbildung 9C-u2012F).

Genauigkeit der Verfolgung mit DeepLabCut

Die wichtigsten Faktoren, die die Tracking-Genauigkeit eines trainierten Netzwerks bestimmen, sind (i) die Anzahl der beschrifteten Frames in seinem Trainingsdatensatz, (ii) wie gut diese beschrifteten Frames das Verhalten von Interesse erfassen und (iii) die Anzahl der verwendeten Trainingsiterationen. DeepLabCut enthält eine Auswertungsfunktion, die eine Schätzung darüber meldet, wie weit (in Anzahl der Pixel) die Verfolgung von der tatsächlichen Position eines Objekts erwartet werden kann. Dies gibt jedoch nicht notwendigerweise eine gute Beschreibung der Anzahl der Frames, bei denen ein Objekt verloren geht und/oder falsch beschriftet wird (Abbildung 10A), was die Notwendigkeit einer zusätzlichen manuellen Bewertung der Tracking-Genauigkeit erforderlich macht.

Für die Analyse von Verhaltensweisen innerhalb einer Opernkammer sollte ein gut trainiertes Netzwerk die genaue Identifizierung aller Ereignisse ermöglichen, bei denen die Protokollschrittanzeige aktiv ist. Ist dies nicht der Fall, ist möglicherweise eine Umschulung des Netzwerks oder die Auswahl eines anderen Indikators erforderlich. Trotz eines gut ausgebildeten Netzwerks kann die Verfolgung der Protokollschrittanzeige gelegentlich durch Tiere gestört werden, die die Sicht der Kamera blockieren (Abbildung 10B). Dies führt zu Unterbrechungen im Tracking, die an Episoden erinnern, in denen der Indikator inaktiv ist. Die Häufigkeit dieses Ereignisses hängt von der tierischen Belastung, der Art des Verhaltensprotokolls und der Wahl des Protokollschrittindikators ab. In den hier verwendeten Beispieldaten des 5CSRTT traten sie bei vier von 400 Versuchen auf (Daten werden nicht angezeigt). Alle Anlässe waren leicht erkennbar, da ihre Dauern nicht mit der des Pausenschritts übereinstimmten, der im Protokollentwurf enthalten war (Abbildung 6A). Letztlich ist die Wahl eines Indikators, der hoch oben in der Kammer und weg von Komponenten, mit denen Tiere interagieren, platziert wird, wahrscheinlich hilfreich.

Ein gut trainiertes Netzwerk sollte >90% Genauigkeit beim Verfolgen des Kopfes eines Tieres während Videosegmenten von Interesse ermöglichen (Video 1). Damit muss nur eine kleine Teilmenge von Videoframes von der nachfolgenden Analyse ausgeschlossen werden, und verwendbare Tracking-Daten werden aus praktisch allen Tests innerhalb einer Testsitzung erhalten. Genaue Verfolgung ist eindeutig erkennbar durch Marker, die einem Tier während seiner Bewegungen folgen (Video 2) und gezeichnete Pfade, die glatt erscheinen (Abbildung 10C). Im Gegensatz dazu ist die ungenaue Verfolgung durch Markierungen gekennzeichnet, die nicht zuverlässig auf dem Ziel bleiben (Video 3) und durch gezackte Pfade, die gezackt erscheinen (Abbildung 10D). Letzteres wird dadurch verursacht, dass das Objekt in einzelnen Videoframes in Sequenzen genauer Nachverfolgung zu entfernten fehlerhaften Positionen verfolgt wird. Als Folge davon verursacht ungenaues Tracking in der Regel plötzliche Verschiebungen der berechneten Bewegungsgeschwindigkeiten (Abbildung 10E). Dies kann verwendet werden, um Videoframes zu identifizieren, in denen die Nachverfolgung ungenau ist, um sie von der nachfolgenden Analyse auszuschließen. Wenn es erhebliche Probleme mit der Tracking-Genauigkeit gibt, sollten die Fälle identifiziert werden, in denen die Nachverfolgung fehlschlägt, und das Netzwerk sollte mithilfe eines erweiterten Trainingssatzes mit beschrifteten Videoframes dieser Ereignisse umgeschult werden (Abbildung 10A,E).

Verwendung von Video-Tracking zur Ergänzung der Analyse von Opernverhalten

Die Analyse, wie sich ein Tier während der Operanttests bewegt und positioniert, liefert mehrere Einblicke in die komplexe und facettenreiche Natur seines Verhaltens. Durch die Verfolgung, wo sich ein Tier während einer Testsitzung befindet, kann man beurteilen, wie unterschiedliche Bewegungsmuster mit der Leistung zusammenhängen (Abbildung 11A,B). Durch die weitere Untersuchung von Kopfbewegungen während bestimmter Protokollschritte kann man die Verwendung verschiedener Strategien erkennen und charakterisieren (Abbildung 11C-u2012E).

Betrachten Sie zum Beispiel die repräsentativen Daten für Ratten, die den 5CSRTT-Test durchführen (Abbildung 6A, Abbildung 11). In diesem Test werden den Tieren mehrere Versuche vorgestellt, die jeweils mit einem 5 s Warteschritt beginnen (Inter-Trial-Intervall - ITI)(Abbildung 6A: 1). Am Ende wird ein Licht in einer der Nasensacköffnungen leuchten (zufällig gewählte Position auf jeder Studie, Abbildung 6A: 2). Nasen-Stopfen in die Cued-Öffnung gilt als richtige Antwort und wird belohnt(Abbildung 6A:3). Das Reagieren auf eine andere Öffnung wird als falsch angesehen. Wenn Sie nicht innerhalb von 5 s nach der Darstellung des Lichts antworten, gilt dies als Versäumnis. Die Verfolgung von Kopfbewegungen während des ITI dieses Tests hat gezeigt, dass Ratten bei Versuchen, in denen Ratten eine Reaktion durchführen, sich schnell in Richtung des Bereichs um die Nasensacköffnungen bewegen (Abbildung 11A,B, Video 4). Im Gegensatz dazu nähern sich die Ratten bei den meisten Auslassungsversuchen nicht dem Bereich um die Öffnungen (Abbildung 11B, Video 5). Dieses Verhalten steht im Einklang mit der allgemeinen Interpretation von Auslassungen, die eng mit einer geringen Motivation zur Durchführung des Tests3,16zusammenhängen. Bei einer Teilmenge von Auslassungsversuchen (ca. 20 % des aktuellen Datensatzes) zeigten die Ratten jedoch einen klaren Fokus auf die Öffnungen (Abbildung 11B, Video 6), versäumten es jedoch, die genaue Position der Cued-Öffnung zu notieren. Die Daten deuten also darauf hin, dass es mindestens zwei verschiedene Arten von Auslassungen gibt, eine im Zusammenhang mit einem möglichen Desinteresse an der laufenden Studie und eine andere, die stärker von unzureichender visuospatialer Aufmerksamkeit abhängig ist3. Head Tracking kann auch verwendet werden, um scheinbare Strategien zu unterscheiden. Als Beispiel wurden zwei unterschiedliche Aufmerksamkeitsstrategien bei der Analyse der Bewegung der Ratten aufgedeckt, wenn sie sich während der 5CSRTT in der Nähe der Nasensacköffnungen befinden (Abbildung 11C-u2012E). In der ersten Strategie zeigten Ratten einen extrem fokussierten Ansatz, wobei sie eine zentrale Position in den meisten ITI-Bereichen beibehalten(Abbildung 11C, Video 7). Im Gegensatz dazu bewegten Ratten, die die andere Strategie annahmen, ständig ihren Kopf zwischen den verschiedenen Öffnungen in einer suchartigen Weise(Abbildung 11D, Video 8). Diese Art von Verhaltensunterschieden kann bequem quantifiziert werden, indem die Zeit berechnet wird, die in der Nähe der verschiedenen Öffnungen verbracht wird (Abbildung 11E). Schließlich kann durch die Analyse, welcher Öffnen die Ratte zum Zeitpunkt der Cue-Light-Präsentation am nächsten ist (Abbildung 11F), nachgewiesen werden, dass es für eine genaue Leistung des Tests vorteilhaft zu sein scheint, sich in einer zentralen Position (Abbildung 11G) und/oder in unmittelbarer Nähe zur Position der Cued-Öffnung (Abbildung 11H) zu befinden.

Figure 1
Abbildung 1: Skizze des aufgeführten Mikrocomputers. Der Schaltplan zeigt die Position mehrerer Komponenten von Interesse auf dem Mikrocomputer-Mainboard. Diese sind mit eingekreisten Zahlen wie folgt gekennzeichnet: 1: Stecker für Kamera-Flachbandkabel; 2: LED-Licht, das anzeigt, wann der Computer läuft; 3: Micro USB für Netzkabel; 4: Micro USB für Maus/Tastatur; 5: Allgemeine Ein-/Ausgangspins (GPIO-Pins), diese Pins werden verwendet, um den Mikrocomputer an LEDs, Schalter und das IR-LED-Modul anzuschließen; 6: Mini HDMI Ausgang; 7: Micro SD-Kartensteckplatz. Im unteren Teil der Abbildung wird ein zugeschnittener und vergrößerter Teil der GPIO-Pins gezeigt, um anzugeben, wie sie entlang zu zählen sind, um die Position eines bestimmten Pins korrekt zu identifizieren. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 2
Abbildung 2: Aufbau des Hauptkörpers der Kamera. Die Figuren zeigten die wichtigsten Schritte für den Aufbau des Kamerakörpers. (A) Befestigen Sie den magnetischen Metallring am Kameraständer. (B) Befestigen Sie das Kameramodul am Kameraständer. (C) Schließen Sie das Kameramodul über das Flachbandkabel an den Mikrocomputer an. Beachten Sie die weißen Pfeile, die anzeigen, wie die Kameraanschlüsse geöffnet und geschlossen werden, die sowohl auf dem Mikrocomputer als auch auf dem Kameramodul vorhanden sind. (D) Legen Sie den Mikrocomputer in das Kunststoffgehäuse und legen Sie eine Micro-SD-Karte ein. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 3
Abbildung 3: Aktualisieren des Betriebssystems des Mikrocomputers und Aktivieren der Peripheriegeräte. Die Abbildung zeigt vier verschiedene Screenshots, die die Benutzeroberfläche des Mikrocomputers darstellen. (A) Terminalfenster können durch Klicken auf das "Terminal"-Symbol in der oberen linken Ecke des Bildschirms geöffnet werden. (B) Innerhalb des Terminals kann man verschiedene Arten von Befehlen eingeben, wie im Protokolltext beschrieben. Der Screenshot zeigt den Befehl zum Aktualisieren der Softwarepakete des Systems an. (C) Der Screenshot zeigt, wie man zum Konfigurationsmenü navigiert, wo man die Verwendung des Kameramoduls und der I2C GPIO-Pins aktivieren kann. (D) Der Screenshot zeigt den Ordner /home/pi an, in den das Kameraskript in Schritt 1.10 des Protokolls kopiert werden soll. Das Fenster wird geöffnet, indem Sie auf das angezeigte Symbol in der oberen linken Ecke des Bildschirms klicken. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 4
Abbildung 4: Konfigurieren der datei rc.local des Microcomputers. Die Abbildung zeigt zwei Screenshots der rc.local-Datei des Mikrocomputers, wenn über das Terminal zugegriffen wird, wie in Schritt 1.11.1 beschrieben. (A) Ein Screenshot der datei rc.local im Originalformat. Der Pfeil zeigt den Bereich an, in den Text eingegeben werden muss, um die Autostartfunktion der Kamera zu aktivieren. (B) Ein Screenshot der datei rc.local, nachdem sie bearbeitet wurde, um die IR-LEDs zu leuchten und das Python-Skript zu starten, das die Kamera beim Starten des Mikrocomputers steuert. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 5
Abbildung 5: Anschließen von Schaltern und LEDs an die GPIO-Pins des Mikrocomputers. (A) Schemamit zeigt einen Knopfschalter mit weiblichen Jumperkabeln (oben) und eine LED mit Widerstand und buchsen Jumperkabeln (unten). (1) Tastenschalter, (2) Weibliche Jumperkabel, (3) LED, (4) Widerstand. (B) Schematisches Bild zeigt, wie die beiden Tastenschalter, die farbigen LEDs und die IR-LED-Platine mit den GPIO-Pins des Mikrocomputers verbunden sind. Blaue Kabel und GPIO-Pins zeigen Masse an. Die Position von zwei GPIO-Pins ist in der Abbildung angegeben (GPIO-Pins #2 und #40): (1) Taste zum Starten/Stoppen der Videoaufzeichnung. (2) LED- Anzeige, wann Video aufgenommen wird. (3) Taste zum Ausschalten der Kamera. (4) LED- Anzeige, wann die Kamera gebootet hat und einsatzbereit ist. (5) IR-LED-Modul. Beachten Sie, dass Schaltungen mit LEDs auch 330 -Widerstände enthalten. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 6
Abbildung 6: Verwenden der DeepLabCut-Nachverfolgung des Protokollschrittindikators, um Interessensfolgen in Videos in voller Länge zu identifizieren. (A) Schemat der Schritte einer einzelnen Studie im 5-Wahl-Serienreaktionszeittest (5CSRTT): (1) Zunächst gibt es eine kurze Wartezeit (ITI). Pfeil zeigt ein aktiv leuchtendes Hauslicht. (2) Am Ende des ITI leuchtet ein Licht in einer der fünf Nasensacköffnungen (Pfeil). (3) Wenn eine Ratte genau reagiert, indem sie einen Nasensack in die Cued-Öffnung einführt, wird eine Belohnung abgegeben (Pfeil). (4) Die Ratte darf die Belohnung abrufen. (5) Um die Verwendung der Hausleuchte als Protokollschrittanzeige zu ermöglichen, wird vor Beginn der nächsten Testphase ein kurzer Pausenschritt implementiert, bei dem das Hauslicht ausgeschaltet wird (Pfeil). Beachten Sie, dass das Hauslicht während der folgenden Schritte der Prüfung leuchtet. (B) Ein Beispieldiagramm, das die x-Koordinate der aktiven Hausleuchte, wie sie von DeepLabCut verfolgt wird, während eines Videosegments eines 5CSRTT-Tests darstellt. In Segmenten, in denen das Hauslicht leuchtet (Indikator aktiv - 1), wird die Position zu einem konsistenten und stabilen Punkt verfolgt (beachten Sie auch die rote Markierung (durch Pfeil angezeigt) im Beispielvideorahmen), vergleichbar mit der Position des Hauslichts in Abbildung 8C (x, y: 163, 503). In Segmenten, in denen das Hauslicht nicht leuchtet (Indikator inaktiv - 2, beachten Sie den weißen Pfeil im Beispielvideorahmen), ist die verfolgte Position nicht stabil und weit weg von der tatsächlichen Koordinaten des Hauslichts. (C) Tabelle 1 zeigt ein Beispiel für verarbeitete Ausgaben, die aus der DeepLabCut-Nachverfolgung eines Protokollschrittindikators gewonnen wurden. In dieser Ausgabe wurde der Startpunkt für jede Gelegenheit, bei der der Indikator aktiv ist, aufgeführt. Tabelle 2 zeigt ein Beispiel für Daten aus dem Operant-Konditionierungssystem und enthält relevante Angaben für einzelne Versuche. In diesem Beispiel wurden die Dauer der ITI, die Position der Cued-Öffnung und Die Latenzen zum Ausführen einer Antwort und zum Abrufen der Belohnung aufgezeichnet. Tabelle 3 zeigt ein Beispiel für Daten, die durch das Zusammenführen von Tracking-Ergebnissen aus DeepLabCut und Daten aus dem Operant-Konditionierungssystem gewonnen wurden. Dadurch wurden die Videorahmen für den Startpunkt des ITI (Schritt 1 in A), den Ausgangspunkt der Cue-Light-Präsentation (Schritt 2 in A), die Antwort (Schritt 3 in A) und das Abrufen (Schritt 4 in A) für eine Beispielstudie erhalten. (D) Ein Beispieldiagramm, das die x-Koordinate des Hauslichts, wie von DeepLabCut verfolgt, während einer gefilmten 5CSRTT-Studie darstellt. Die verschiedenen Schritte des Protokolls sind angegeben: (1) ITI; (2) Darstellung eines Cue-Lichts (Durch einen weißen Pfeil gekennzeichnete Position); (3) Antwort; (4) Belohnungsabruf. Die Identifizierung von Videoframes, die den Start und Stopp dieser verschiedenen Protokollschritte darstellen, erfolgte in einem Prozess, der mit dem in D angegebenen vergleichbar ist. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 7
Abbildung 7: Bildeigenschaften der Kamera. (A) Ungeschnittenes Bild, das von einer Kamera erhalten wurde, die auf einer Opernkonditionierungskammer platziert ist. Das Bild wurde aufgenommen, während die Kammer in einem hell erleuchteten Raum platziert wurde. Beachten Sie das (1) Hauslicht und (2) Belohnungpellettrog entlang der linken Wand der Kammer und (3) die Reihe von fünf Nasenstonöffnungen entlang der rechten Wand der Kammer. Jede Nasensacköffnung enthält ein kleines Cue-Licht. (B) Ungeschnittenes Bild, das die starke Reflexion zeigt, die durch (1) die Metalltropfenwanne verursacht wird, sowie Reflexionen, die durch suboptimale Positionierung der LED-Anzeige (2) der Kamera und des (3) IR-LED-Moduls verursacht werden. (C) Abgeschnittenes Bild der Kammer in völliger Dunkelheit. Beachten Sie, dass die Lichter der IR-Strahlbruchdetektoren in den fünf Nasensacköffnungen entlang der rechten Wand der Kammer deutlich sichtbar sind (Pfeil). (D) Abgeschnittenes Bild der Kammer, wenn hell erleuchtet. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 8
Abbildung 8: Positionsverfolgung des Protokollschrittindikators und der Körperteile von Interesse. (A) Das Bild zeigt die Position einer Protokollschrittanzeige (rot) sowie den Kopf (gelb) und den Schwanz (grün) einer Ratte, wie von DeepLabCut verfolgt. Wie durch die Verfolgung der beleuchteten Hausbeleuchtung angegeben, wird der Videorahmen aus einem Schnappschuss einer aktiven Testversion entnommen. (B) Das Bild zeigt die Position des Kopfes (gelb) und des Schwanzes (grün), wie sie von DeepLabCut in einem Moment verfolgt wird, in dem eine Studie nicht aktiv ist. Beachten Sie das Fehlen von Hauslicht-Tracking. (C) Die Positionen der Sehenswürdigkeiten, die bei der Analyse der in Abbildung 6 und Abbildung 11dargestellten Daten verwendet werden; (1) Hauslicht, in diesem Fall als Protokoll-Schritt-Indikator verwendet, (2-u20126) Nasensacköffnungen #1-u20125. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 9
Abbildung 9: Bildverzerrung von Fisheye-Objektiven. (A) Bild eines Schachbrettmusters mit gleich großen und abstandenschwarzen und weißen Quadraten, die mit der in diesem Protokoll beschriebenen Kamera aufgenommen wurden. Das Bild wurde in einer Höhe aufgenommen, die mit der bei der Aufnahme von Videos aus Opernkonditionierungskammern vergleichbar ist. Schwarze Quadrate entlang der zentralen horizontalen und vertikalen Linien wurden mit DeepLabCut markiert. (B) Diagramm, das zeigt, wie sich der Abstand der markierten Quadrate in (A) mit der Nähe zum Bildmittelpunkt ändert. (C) Bild, das Messungen zeigt, die zur Bewertung der Auswirkungen der Auswirkungen von Fisheye-Verzerrungen auf Videos aus Opernkammern durchgeführt wurden. Die Ecken und Mittelpunkte entlang der Kante der Bodenfläche, die zentrale Position jedes einzelnen Bodensprossens und die Position der fünf Nasensacköffnungen wurden mit DeepLabCut (farbige Punkte) angezeigt; (1) Abstand der Bodensprossen, (2) Breite des Kammerbodens entlang der Mitte der Kammer, (3) Abstand der Nasensacköffnungen. (D) Abstand der Bodensprossen (gemittelt für jeden Satz von drei aufeinander folgenden Sprossen), nummeriert von links nach rechts in (C). Es gibt einen kleinen Effekt der Fischaugenverzerrung, was dazu führt, dass die zentralen Sprossen etwa 3 Pixel (8%) weiter auseinander als Sprossen, die an den Rändern des Kammerbodens positioniert sind. (E) Breite des Kammerbodens in (C) gemessen an seinem linken und rechten Rand sowie Amanfang. Es gibt einen kleinen Effekt der Fischaugenverzerrung, was dazu führt, dass die breite gemessene Breite in der Mitte etwa 29 Pixel (5%) beträgt. länger als die anderen Messungen. (F) Abstand der Nasensacköffnungen in (C), nummeriert vom oberen Bildrand. Es gibt einen kleinen Effekt der Fischaugenverzerrung, was dazu führt, dass der Abstand zwischen den zentralen drei Öffnungen (H2, H3, H5) etwa 5 Pixel (4%) beträgt. abstand zwischen H1-H2 und H4-H5. Für D-F wurden Daten aus vier Videos gesammelt und Diagramme zeigen Gruppenmittelwert + Standardfehler. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 10
Abbildung 10: Überprüfung der Genauigkeit der DeepLabCut-Verfolgung. (A) Eine Tabelle mit Trainingsinformationen für zwei neuronale Netze, die trainiert wurden, um Ratten in Opernkammern zu verfolgen. Die #1 verwendeten einen kleineren Trainingsdatensatz, aber eine hohe Anzahl von Trainingsiterationen im Vergleich zu #2. Beide Netzwerke erreichten eine niedrige Fehlerpunktzahl durch die Auswertungsfunktion von DeepLabCut (DLC-Testfehler) und zeigten gegen Ende des Trainings einen geringen Trainingsverlust. Trotzdem zeigte Network #1 bei der manuellen Auswertung markierter Videoframes eine sehr schlechte Tracking-Genauigkeit (gemessene Genauigkeit, geschätzt von 150 Videoframes, die ein Videosegment abdecken, das mit denen in Video 2 und Video 3vergleichbar ist). Die #2 stellt die verbesserte Version von Network #1 dar, nachdem zusätzliche Videoframes von aktiv bewegten Ratten in den Trainingsdatensatz aufgenommen wurden, wie unter (E) beschrieben. (B) Bild, das eine Ratte zeigt, die sich aufzieht und das Hauslicht der Kammer bedeckt (Abbildung 7A) mit seinem Kopf, wodurch die Verfolgung der Kammer gestört wird. (C) Videoframe, der eine Antwort während einer 5CSRTT-Studie aufnimmt (Abbildung 6A: 3). Der Bewegungspfad des Kopfes während der Antwort und voritigenITI wurde auf dem Bild in Gelb überlagert. Die Verfolgung gilt als korrekt. Beachten Sie die reibungslose Verfolgung während der Bewegungen (weißer Pfeil). Ein entsprechendes Video ist als Video 2verfügbar. Netzwerk-#2 (siehe A) wurde für die Nachverfolgung verwendet. (D) Videoframe, der eine Antwort während einer 5CSRTT-Studie aufnimmt (Abbildung 6A: 3). Der Bewegungspfad des Kopfes während der Antwort und voritigenITI wurde auf dem Bild in Gelb überlagert. Die Daten betreffen dieselbe Studie wie in (C) gezeigt, die jedoch mit netzwerk#1 analysiert wurde (siehe A). Die Verfolgung gilt als ungenau. Beachten Sie das gezackte Aussehen des Pfads mit mehreren geraden Linien (weiße Pfeile), verursacht durch gelegentliche Verfolgung des Kopfes zu entfernten fehlerhaften Positionen (schwarze Pfeile). Ein entsprechendes Video ist als Video 3verfügbar. (E) Diagramm, das die dynamischen Veränderungen der Bewegungsgeschwindigkeit der Kopfverfolgung in (C) und (D) darstellt. Identifizierbar im Diagramm sind drei Hauptbewegungen, die in Video 2 und 3zu sehen sind, wo die Ratte sich zuerst den Nasensacköffnungen (Anfangsdrehung) zustellt, eine kleine Anpassung vornimmt, um sie weiter zu nähern (Anpassung) und schließlich eine Antwort ausführt. Das Geschwindigkeitsprofil für die gute Verfolgung durch Network #2 (A) zeigt glatte Kurven von Änderungen der Bewegungsgeschwindigkeit (blaue Pfeile) an, was auf eine genaue Verfolgung hinweist. Das Geschwindigkeitsprofil für die schlechte Verfolgung durch Network #1 (A) zeigt mehrere plötzliche Spitzen der Bewegungsgeschwindigkeit (rote Pfeile), die auf gelegentliche Tracking-Fehler in einzelnen Videoframes hinweisen. Es ist erwähnenswert, dass diese Tracking-Probleme speziell während der Bewegungen auftreten. Um dies zu beheben, wurde das anfängliche Schulungsset, das zum Trainieren von Network #1 verwendet wurde, um eine große Anzahl von Videoframes erweitert, die aktiv bewegte Ratten darstellen. Dies wurde anschließend verwendet, um Network #2 zu trainieren, wodurch dieses Tracking-Problem effizient beseitigt wurde. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 11
Abbildung 11: Verwendung von Positionsverfolgung durch DeepLabCut zur Ergänzung der Verhaltensanalyse von Operant-Konditionierungstests. (Eine) Eine Top-Ansicht des Inneren einer Opernkonditionierungskammer. Drei Bereiche der Kammer sind angegeben. Der Bereich in der Nähe des Belohnungpellettrogs (Pellet), der zentrale Kammerbereich (Mitte) und der Bereich um die Nasensacköffnungen (Öffnungen). (B) Ein Diagramm, das die relative Zeit darstellt, die Ratten in den drei verschiedenen Bereichen der Opernkammer verbringen, die in (A) während des ITI-Schritts des 5CSRTT beschrieben sind. Beachten Sie, dass Ratten bei Versuchen mit einer Reaktion zunächst in der Nähe des Pellettrogs (schwarz) und des Kammerzentrums (grau) positioniert werden, aber im Verlauf des ITI sich um die Nasensacköffnungen (weiß) positionieren. Im Gegensatz dazu bleiben Ratten bei typischen Auslassungsversuchen um den Pellettrog und das Kammerzentrum herum positioniert. Bei einer Teilmenge von Auslassungsversuchen (ca. 20%) Ratten verschieben ihren Fokus deutlich auf die Nasensacköffnungen, aber immer noch keine Antwort, wenn sie dazu aufgefordert werden. Die zweiseitige ANOVA-Analyse der Zeit, die rund um die Nasensacköffnungen mit Hilfe des Versuchstyps als Zwischen-Subjektfaktor und Zeit als Innerhalb-Subjekt-Faktor verbringt, zeigt signifikante Zeit (p < 0.001, F(4,8) = 35.13), trial type (p < 0.01, F(2,4) = 57.33) and time x trial type interaction (p < 0.001, F(8,16) = 15.3) effects. Data gathered from four animals performing 100 trials each. Graph displays mean + standard error. (C) Heatmap mit allen Kopfpositionen, die in der Nähe der Nasensacköffnungen verfolgt werden, von einer bestimmten Ratte während 50 ITIs einer 5CSRTT-Testsitzung. Beachten Sie, dass die Ratte eine starke Tendenz hat, ihren Kopf an einer Stelle in der Nähe der zentralen Nasensacköffnung zu halten. (D) Heatmap mit allen Kopfpositionen, die in der Nähe der Nasensacköffnungen verfolgt werden, von einer bestimmten Ratte während 50 ITIs einer 5-CSRTT-Testsitzung. Beachten Sie, dass die Ratte keine klare Präferenz für eine bestimmte Öffnung zeigt. (E) Grafik, die die relative Zeitspanne zeigt, die die beiden in (C) und (D) angezeigten Ratten während 50 ITIs des 5CSRTT am nächsten an den verschiedenen Nasensacköffnungen verbringen. Die Ratte, die eine fokussierte Strategie (C) (schwarz) zeigt, zeigt eine starke Präferenz für die Nähe zur zentralen Öffnung, während die Ratte mit einer suchähnlichen Strategie (D) (weiß) keine Präferenz für eine bestimmte Öffnung zeigt. Das Diagramm zeigt den Durchschnittlichen + Standardfehler. (F) Ein Bild einer Ratte zum Zeitpunkt der Cue-Präsentation in einer 5CSRTT-Studie (Abbildung 6A). Beachten Sie, dass die Ratte ihren Kopf am nächsten an der zentralen Öffnung (weißer Pfeil) positioniert hat, wobei zwei Öffnungen von der Cued-Öffnung entfernt sind (schwarzer Pfeil). (G) Ein Diagramm, das die Leistungsgenauigkeit des 5CSRTT (d. h. die Häufigkeit der Korrektoronung) in Bezug darauf darstellt, ob der Rattenkopf zum Zeitpunkt der Cue-Präsentation der zentralen Öffnung oder einer der anderen Öffnungen am nächsten war (Abbildung 6A2). Die Daten von vier Tieren mit jeweils etwa 70 Antworten wurden erhoben. Diagramm zeigt Gruppenmittelwert + Standardfehler (abgestimmter t-Test: p < 0.05). (H) Ein Diagramm, das die Leistungsgenauigkeit des 5CSRTT in Bezug auf den Abstand zwischen der Position der Cued-Öffnung und der Position des Kopfes einer Ratte am Punkt der Signalpräsentation darstellt. Der Abstand bezieht sich auf die Anzahl der Öffnungen zwischen der Kopfposition der Ratten und die Position der signalisierten Öffnung. Die Daten von vier Tieren mit jeweils etwa 70 Antworten wurden erhoben. Graph zeigt Mittelwert + Standardfehler (abgestimmte einwegige ANOVA: p < 0.01). For the presented analysis, Network #2 described in Abbildung 10A verwendet wurde. Der gesamte analysierte Datensatz umfasste rund 160.000 Videoframes und 400 Versuche. Davon wurden 2,5 % der Videoframes ausgeschlossen, da die festgestellte Bewegungsgeschwindigkeit des Tieres über 3.000 Pixel/s lag, was auf eine fehlerhafte Verfolgung (Abbildung 10E). Vollständige Versuche wurden nicht ausgeschlossen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Video 1: Repräsentative Nachverfolgungsleistung eines gut trainierten neuronalen Netzwerks. Das Video zeigt eine Montage einer Ratte, die während einer 5CSRTT-Testsitzung 45 Versuche mit korrekten Antworten durchführt (Protokolldetails siehe Abbildung 6A). Die Verfolgung des Hauslichts (roter Marker), der Schwanzbasis (grüner Marker) und des Kopfes (blauer Marker) ist im Video angegeben. Die Ausbildung des Netzwerks (Netzwerk #2 in Abbildung 10A) betonte die Genauigkeit für Bewegungen entlang des Kammerbodens in der Nähe der Nasensacköffnungen (rechte Wand, Abbildung 7A). Die Verfolgung dieser Segmente zeigt eine durchschnittliche Genauigkeit von >90 %. Die Verfolgung von Episoden der Aufzucht und Pflege sind ungenau, da das Trainingsset keine Rahmen dieser Verhaltensweisen enthielt. Beachten Sie, dass das Video komprimiert wurde, um die Dateigröße zu reduzieren, und nicht für die Videoqualität darstellbar ist, die mit der Kamera erzielt wurde. Bitte klicken Sie hier, um dieses Video herunterzuladen.

Video 2: Beispiel für genau verfolgtes Tier. Das Video zeigt eine einzige gut verfolgte Studie einer Ratte, die während des 5CSRTT eine korrekte Antwort ausführt. Die Verfolgung des Hauslichts (roter Marker), der Schwanzbasis (grüner Marker) und des Kopfes (blauer Marker) ist im Video angegeben. Für die Nachverfolgung wurde #2 neuronales Netzwerk verwendet, das in Abbildung 10A beschrieben wird. Beachten Sie, wie die Marker die Bewegungen des Tieres genau verfolgen. Siehe Abbildung 10C,E für den geplotteten Pfad und die Bewegungsgeschwindigkeit für die Kopfverfolgung in diesem Videoclip. Bitte klicken Sie hier, um dieses Video herunterzuladen.

Video 3: Beispiel für schlecht verfolgteTiere. Das Video zeigt eine einzelne schlecht nachverfolgte Studie einer Ratte, die während des 5CSRTT eine korrekte Antwort ausführt. Die Verfolgung des Hauslichts (roter Marker), der Schwanzbasis (grüner Marker) und des Kopfes (blauer Marker) ist im Video angegeben. Für die Nachverfolgung wurde #1 neuronales Netzwerk verwendet, das in Abbildung 10A beschrieben wurde. Der Videoclip ist derselbe wie der in Video 2verwendete . Beachten Sie, dass der Marker für den Kopf nicht zuverlässig auf dem Kopf der Ratte platziert wird. Siehe Abbildung 10D,E für den geplotteten Pfad und die Bewegungsgeschwindigkeit für die Kopfverfolgung in diesem Videoclip. Bitte klicken Sie hier, um dieses Video herunterzuladen.

Video 4: Beispiel für Bewegungen, die während einer 5CSRTT-Studie mit einer Antwort gemacht wurden. Das Video zeigt eine einzige gut verfolgte Studie einer Ratte, die während des 5-CSRTT eine korrekte Antwort ausführt. Die Verfolgung des Hauslichts (roter Marker), der Schwanzbasis (grüner Marker) und des Kopfes (blauer Marker) ist im Video angegeben. Beachten Sie, wie die Ratte zunächst in klarer Nähe zum Pellet-Behälter positioniert ist (linke Wand, Abbildung 7A) und sich dann bewegt, um ihre Aufmerksamkeit auf die Reihe der Nasensacköffnungen zu konzentrieren. Bitte klicken Sie hier, um dieses Video herunterzuladen.

Video 5: Beispiel für eine typische Auslassungsstudie während des 5CSRTT. Das Video zeigt eine einzige gut verfolgte Studie einer Ratte, die während des 5CSRTT ein typisches Versäumnis ausführt. Die Verfolgung des Hauslichts (roter Marker), der Schwanzbasis (grüner Marker) und des Kopfes (blauer Marker) ist im Video angegeben. Beachten Sie, wie die Ratte ihre Position um den Pelletbehälter (linke Wand, Abbildung 7A)und Kammermitte hält, anstatt sich umzudrehen, um sich den Nasensacköffnungen zu stellen (rechte Wand, Abbildung 7A). Das angezeigte Verhalten und die Ursache der Auslassung können argumentiert werden, um ein geringes Interesse an der Durchführung des Tests widerzuspiegeln. Bitte klicken Sie hier, um dieses Video herunterzuladen.

Video 6: Beispiel für eine atypische Auslassungsstudie während des 5CSRTT. Das Video zeigt eine einzige gut verfolgte Studie einer Ratte, die während des 5CSRTT eine atypische Auslassung ausführt. Die Verfolgung des Hauslichts (roter Marker), der Schwanzbasis (grüner Marker) und des Kopfes (blauer Marker) ist im Video angegeben. Beachten Sie, wie sich die Ratte in Richtung der Nasensacköffnungen entlang der rechten Wand der Kammer positioniert (Abbildung 7A). Dies kann argumentiert werden, um anzuzeigen, dass das Tier an der Durchführung des Tests interessiert ist. Die Ratte zeigt sich jedoch von der Cued-Öffnung (zentrale Position), wenn der Cue präsentiert wird (5 s in den Clip). Im Gegensatz zu der in Video 4dargestellten Auslassung ist die hier gezeigte wahrscheinlich mit suboptimalen visuospatialen Aufmerksamkeitsprozessen verbunden. Bitte klicken Sie hier, um dieses Video herunterzuladen.

Video 7: Beispiel für ein Tier, das während eines ITI des 5CSRTT eine fokussierte zentrale Position behält. Das Video zeigt eine einzige gut verfolgte Studie einer Ratte, die eine korrekte Antwort auf eine Studie des 5CSRTT ausführt. Beachten Sie, wie die Ratte eine zentrale Position während des ITI beibehält, wobei sie ihren Kopf in der Nähe der zentralen Nasenstonöffnung entlang der rechten Kammerwand stabil hält (Abbildung 7A). Die Verfolgung des Hauslichts (roter Marker), der Schwanzbasis (grüner Marker) und des Kopfes (blauer Marker) ist im Video angegeben. Bitte klicken Sie hier, um dieses Video herunterzuladen.

Video 8: Beispiel für ein Tier, das während eines ITI des 5CSRTT eine suchähnliche Aufmerksamkeitsstrategie zeigt. Das Video zeigt eine einzige gut verfolgte Studie einer Ratte, die eine korrekte Antwort auf eine Studie des 5CSRTT ausführt. Beachten Sie, wie die Ratte häufig ihren Kopf neu positioniert, um verschiedenen Nasensacköffnungen entlang der rechten Wand der Kammer zu begegnen (Abbildung 7A). Die Verfolgung des Hauslichts (roter Marker), der Schwanzbasis (grüner Marker) und des Kopfes (blauer Marker) ist im Video angegeben. Bitte klicken Sie hier, um dieses Video herunterzuladen.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Dieses Protokoll beschreibt, wie eine kostengünstige und flexible Videokamera erstellt wird, mit der Videos aus Operant-Konditionierungskammern und anderen Verhaltenstest-Setups aufgenommen werden können. Es zeigt weiter, wie DeepLabCut verwendet wird, um ein starkes Lichtsignal in diesen Videos zu verfolgen, und wie dies verwendet werden kann, um bei der Identifizierung kurzer Videosegmente von Interesse an Videodateien zu helfen, die vollständige Testsitzungen abdecken. Schließlich wird beschrieben, wie die Verfolgung des Kopfes einer Ratte verwendet wird, um die Analyse von Verhaltensweisen während operant erkundigender Konditionierungstests zu ergänzen.

Das Protokoll stellt eine Alternative zu handelsüblichen Videoaufzeichnungslösungen für Operant-Konditionierungskammern dar. Wie bereits erwähnt, besteht der große Vorteil darin, dass sie sich in die Opernkammern integrieren und Videoaufzeichnungen bestimmter Ereignisse ermöglichen. Der in diesem Protokoll beschriebene Ansatz zur Identifizierung von Videosegmenten ist mühsamer und zeitaufwändiger als die Verwendung eines vollständig integrierten Systems zur Aufzeichnung bestimmter Ereignisse. Es ist jedoch deutlich billiger (eine aktuelle Kostenschätzung für Videoüberwachungsgeräte für 6 Opernkammern wurde auf ca. 13.000 USD festgelegt. Im Vergleich dazu würde der Bau von sechs der hier aufgeführten Kameras etwa 720 USD kosten). Darüber hinaus können die Kameras für mehrere andere Verhaltenstest-Setups verwendet werden. Bei der Arbeit mit der Kamera ist es wichtig, die Bereiche der belichteten Elektronik (die Rückseite der Kamerakomponente sowie die IR-LED-Komponente) zu beachten, damit sie nicht mit Flüssigkeiten in Berührung kommen. Darüber hinaus kann sich das Flachbandkabel, das das Kameramodul an den Mikrocomputer und die Kabel, die die LEDs verbinden und zu den GPIO-Pins wechseln, lösen, wenn die Kamera häufig bewegt wird. Daher kann die Anpassung des Designs des Kameragehäuses für einige Anwendungen von Vorteil sein.

Die Verwendung von DeepLabCut zur Identifizierung von Videosegmenten von Interesse und verfolgung von Tierbewegungen bietet eine Ergänzung und/oder Alternative zur manuellen Videoanalyse. Während erstere letztere nicht ungültig macht, haben wir festgestellt, dass es eine bequeme Möglichkeit bietet, Bewegungen und Verhaltensweisen in Opernkammern zu analysieren. Insbesondere liefert es Positionsdaten des Tieres, die detailliertere Informationen enthalten, als dies typischerweise durch manuelle Saat extrahiert wird (d. h. tatsächliche Koordinaten im Vergleich zu qualitativen Positionsinformationen wie "vor", "neben" usw.).

Bei der Auswahl eines Protokollschrittindikators ist es wichtig, einen auszuwählen, der konsequent einen bestimmten Schritt des Verhaltensprotokolls angibt und das vom Tier wahrscheinlich nicht blockiert wird. Wenn Letzteres problematisch ist, kann man erwägen, eine Lampe außerhalb der Opernkammer zu platzieren und sie durch die Kammerwände zu filmen. Viele Betriebsklimakammern sind modular aufgebaut und ermöglichen es dem Anwender, Lichter, Sensoren und andere Komponenten frei zu bewegen. Es sollte beachtet werden, dass es andere Softwarepakete gibt, die es Benutzern auch ermöglichen, neuronale Netzwerke beim Erkennen und Verfolgen benutzerdefinierter Objekte in Videos24,25,26zu trainieren. Diese können wahrscheinlich als Alternative zu DeepLabCut im aktuellen Protokoll verwendet werden.

Das Protokoll beschreibt, wie man den zentralen Teil des Rattenkopfes verfolgt, um Bewegungen innerhalb der Opernkammern zu messen. Da DeepLabCut volle Freiheit bei der Auswahl von Körperteilen oder Objekten von Interesse bietet, kann dies mit Komfort an studienspezifische Interessen angepasst werden. Eine natürliche Erweiterung der hier beschriebenen Verfolgung besteht darin, auch die Position der Ohren und der Nase der Ratten zu verfolgen, um nicht nur die Kopfposition, sondern auch die Orientierung besser zu beurteilen. Die hier gezeigten repräsentativen Daten wurden mit Long Evans Ratten neu kodiert. Diese Ratten zeigen erhebliche interindividuelle Variationen in ihrem Pigmentierungsmuster, insbesondere in Richtung ihrer Schwanzbasis. Dies kann zu einigen Schwierigkeiten bei der Anwendung eines einzigen trainierten neuronalen Netzwerks für die Verfolgung von verschiedenen Personen führen. Um diese Probleme zu begrenzen, ist es am besten, Videoframes von allen Tieren, die von Interesse sind, in das Trainingsset für das Netzwerk aufzunehmen. Der schwarze Kopf der Long Evans Ratte bildet einen relativ starken Kontrast zu den hier verwendeten Metalloberflächen der Kammer. Daher erfordert die genaue Verfolgung ihrer Köpfe wahrscheinlich weniger Aufwand als bei Albino-Stämmen. Der wichtigste Schritt, um eine genaue Verfolgung mit DeepLabCut oder vergleichbaren Softwarepaketen zu erhalten, ist die Auswahl einer großen Anzahl von verschiedenen Videoframes für das Training des neuronalen Netzwerks. Wenn also die Verfolgung eines Objekts von Interesse als suboptimal angesehen wird, sollte die Erhöhung des Satzes von Trainingsrahmen immer der erste Schritt zur Verbesserung der Ergebnisse sein.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Während Materialien und Ressourcen der Raspberry Pi Stiftung in diesem Manuskript verwendet und zitiert wurden, war die Stiftung nicht aktiv an der Vorbereitung oder Verwendung von Geräten und Daten in diesem Manuskript beteiligt. Dasselbe gilt für Pi-Supply. Die Autoren haben nichts zu verraten.

Acknowledgments

Diese Arbeit wurde durch Stipendien der Schwedischen Brain Foundation, der Schwedischen Parkinson-Stiftung und der Schwedischen Regierungsfonds für klinische Forschung (M.A.C.) sowie der Wenner-Gren-Stiftungen (M.A.C, E.K.H.C),ehlén Foundation (M.A.C) und der Stiftung Blanceflor Boncompagni Ludovisi, geb.

Materials

Name Company Catalog Number Comments
32 Gb micro SD card with New Our Of Box Software (NOOBS) preinstalled The Pi hut (https://thpihut.com) 32GB
330-Ohm resistor The Pi hut (https://thpihut.com) 100287 This article is for a package with mixed resistors, where 330-ohm resistors are included.
Camera module (Raspberry Pi NoIR camera v.2) The Pi hut (https://thpihut.com) 100004
Camera ribbon cable (Raspberry Pi Zero camera cable stub) The Pi hut (https://thpihut.com) MMP-1294 This is only needed if a Raspberry Pi zero is used. If another Raspberry Pi board is used, a suitable camera ribbon cable accompanies the camera component
Colored LEDs The Pi hut (https://thpihut.com) ADA4203 This article is for a package with mixed colors of LEDs. Any color can be used.
Female-Female jumper cables The Pi hut (https://thpihut.com) ADA266
IR LED module (Bright Pi) Pi Supply (https://uk.pi-supply.com) PIS-0027
microcomputer motherboard (Raspberry Pi Zero board with presoldered headers) The Pi hut (https://thpihut.com) 102373 Other Raspberry Pi boards can also be used, although the method for automatically starting the Python script only works with Raspberry Pi zero. If using other models, the python script needs to be started manually.
Push button switch The Pi hut (https://thpihut.com) ADA367
Raspberry Pi power supply cable The Pi hut (https://thpihut.com) 102032
Raspberry Pi Zero case The Pi hut (https://thpihut.com) 102118
Raspberry Pi, Mod my pi, camera stand with magnetic fish eye lens and magnetic metal ring attachment The Pi hut (https://thpihut.com) MMP-0310-KIT

DOWNLOAD MATERIALS LIST

References

  1. Pritchett, K., Mulder, G. B. Operant conditioning. Contemporary Topics in Laboratory Animal Science. 43 (4), (2004).
  2. Clemensson, E. K. H., Novati, A., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntington disease shows slowed learning in a Go/No-Go-like test of visual discrimination. Behavioural Brain Research. 359, 116-126 (2019).
  3. Asinof, S. K., Paine, T. A. The 5-choice serial reaction time task: a task of attention and impulse control for rodents. Journal of Visualized Experiments. (90), e51574 (2014).
  4. Coulbourn instruments. Graphic State: Graphic State 4 user's manual. Coulbourn instruments. , Holliston, Massachusetts. 12-17 (2013).
  5. Med Associates Inc. Med-PC IV: Med-PC IV programmer's manual. Med Associates Inc. , St. Albans, Vermont. 21-44 (2006).
  6. Clemensson, E. K. H., Clemensson, L. E., Riess, O., Nguyen, H. P. The BACHD rat model of Huntingon disease shows signs of fronto-striatal dysfunction in two operant conditioning tests of short-term memory. PloS One. 12 (1), (2017).
  7. Herremans, A. H. J., Hijzen, T. H., Welborn, P. F. E., Olivier, B., Slangen, J. L. Effect of infusion of cholinergic drugs into the prefrontal cortex area on delayed matching to position performance in the rat. Brain Research. 711 (1-2), 102-111 (1996).
  8. Chudasama, Y., Muir, J. L. A behavioral analysis of the delayed non-matching to position task: the effects of scopolamine, lesions of the fornix and of the prelimbic region on mediating behaviours by rats. Psychopharmacology. 134 (1), 73-82 (1997).
  9. Talpos, J. C., McTighe, S. M., Dias, R., Saksida, L. M., Bussey, T. J. Trial-unique, delayed nonmatching-to-location (TUNL): A novel, highly hippocampus-dependent automated touchscreen test of location memory and pattern separation. Neurobiology of Learning and Memory. 94 (3), 341 (2010).
  10. Rayburn-Reeves, R. M., Moore, M. K., Smith, T. E., Crafton, D. A., Marden, K. L. Spatial midsession reversal learning in rats: Effects of egocentric cue use and memory. Behavioural Processes. 152, 10-17 (2018).
  11. Gallo, A., Duchatelle, E., Elkhessaimi, A., Le Pape, G., Desportes, J. Topographic analysis of the rat's behavior in the Skinner box. Behavioural Processes. 33 (3), 318-328 (1995).
  12. Iversen, I. H. Response-initiated imaging of operant behavior using a digital camera. Journal of the Experimental Analysis of Behavior. 77 (3), 283-300 (2002).
  13. Med Associates Inc. Video monitor: Video monitor SOF-842 user's manual. Med Associates Inc. , St. Albans, Vermont. 26-30 (2004).
  14. Coulbourn Instruments. Coulbourn Instruments. , Available from: https://www.coulbourn.com/product_p/h39-16.htm (2020).
  15. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).
  16. Nath, T., Mathis, A., Chen, A. C., Patel, A., Bethge, M., Mathis, M. W. Using DeepLabCut for 3D markerless pose estimation across species and behaviors. Nature Protocols. 14 (7), 2152-2176 (2019).
  17. Bari, A., Dalley, J. W., Robbins, T. W. The application of the 5-chopice serial reaction time task for the assessment of visual attentional processes and impulse control in rats. Nature Protocols. 3 (5), 759-767 (2008).
  18. Raspberry Pi foundation. Raspberry Pi foundation. , Available from: https://thepi.io/how-to-install-raspbian-on-the-raspberry-pi/ (2020).
  19. Pi-supply. Pi-supply. , Available from: https://learn.pi-supply.com/make/bright-pi-quickstart-faq/ (2018).
  20. Python. Python. , Available from: https://wiki.python.org/moin/BeginnersGuide/NonProgrammers (2020).
  21. MathWorks. MathWorks. , Available from: https://mathworks.com/academia/highschool/ (2020).
  22. Cran.R-Project.org. Cran.R-Project.org. , Available from: https://cran.r-project.org/manuals.html (2020).
  23. Liu, Y., Tian, C., Huang, Y. Critical assessment of correction methods for fisheye lens distortion. The international archives of the photogrammetry, remote sensing and spatial information sciences. , (2016).
  24. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  25. Graving, J. M., et al. DeepPoseKit, a software toolkit for fast and robust animal pose estimation using deep learning. Elife. 8 (47994), (2019).
  26. Geuther, B. Q., et al. Robust mouse tracking in complex environments using neural networks. Communications Biology. 2 (124), (2019).

Tags

Verhalten Ausgabe 160 Operant-Konditionierung Kognition Videoaufzeichnung Nagetierverhalten Raspberry Pi DeepLabCut
Tracking Ratten in Operant Conditioning Chambers mit einer vielseitigen hausgemachten Videokamera und DeepLabCut
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Clemensson, E. K. H., Abbaszadeh,More

Clemensson, E. K. H., Abbaszadeh, M., Fanni, S., Espa, E., Cenci, M. A. Tracking Rats in Operant Conditioning Chambers Using a Versatile Homemade Video Camera and DeepLabCut. J. Vis. Exp. (160), e61409, doi:10.3791/61409 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter