Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Entwurf und Verwendung eines Geräts zur Darstellung von Greifobjekten im 3D-Arbeitsbereich

Published: August 8, 2019 doi: 10.3791/59932

Summary

Hier wird ein Protokoll zum Aufbau eines automatischen Geräts vorgestellt, das einen Affen zur Durchführung der flexiblen Reach-to-Grasp-Aufgabe führt. Das Gerät kombiniert eine 3D-Übersetzungsvorrichtung und einen Drehtisch, um mehrere Objekte in einer beliebigen Position im 3D-Raum darzustellen.

Abstract

Das Erreichen und Greifen sind hochgekoppelte Bewegungen, und ihre zugrunde liegende neuronale Dynamik wurde in den letzten zehn Jahren weithin untersucht. Um das Erreichen und Greifen von Codierungen zu unterscheiden, ist es wichtig, unterschiedliche Objektidentitäten unabhängig von ihren Positionen darzustellen. Präsentiert wird hier das Design eines automatischen Geräts, das mit einem Drehtisch und einem dreidimensionalen (3D) Übersetzungsgerät montiert wird, um dieses Ziel zu erreichen. Der Drehtisch schaltet verschiedene Objekte, die unterschiedlichen Grifftypen entsprechen, während das 3D-Übersetzungsgerät den Drehtisch im 3D-Raum transportiert. Beide werden unabhängig von Motoren angetrieben, so dass Zielposition und Objekt beliebig kombiniert werden. Inzwischen werden die Flugbahn- und Grifftypen des Handgelenks über das Motion Capture System bzw. Touchsensoren aufgezeichnet. Darüber hinaus werden repräsentative Ergebnisse beschrieben, die erfolgreich ausgebildete Affen mit diesem System nachweisen. Es wird erwartet, dass dieser Apparat Forschern erleichtern wird, Kinematik, neuronale Prinzipien und Gehirn-Maschine-Schnittstellen im Zusammenhang mit der Funktion der oberen Gliedmaßen zu studieren.

Introduction

Verschiedene Apparate wurden entwickelt, um die neuronalen Prinzipien zu untersuchen, die dem Erreichen und Greifen der Bewegung bei nichtmenschlichen Primaten zugrunde liegen. Bei der Erreichung von Aufgaben, Touchscreen1,2, Bildschirmcursor durch einen Joystick gesteuert3,4,5,6,7, und Virtual Reality Technologie8 , 9 , 10 wurden alle für die Präsentation von 2D- bzw. 3D-Zielen eingesetzt. Um verschiedene Grifftypen einzuführen, wurden unterschiedlich geformte Objekte, die in einer Position fixiert oder um eine Achse drehen, häufig in den Greifaufgaben11,12,13verwendet. Eine Alternative besteht darin, visuelle Hinweise zu verwenden, um Probanden zu informieren, um dasselbe Objekt mit verschiedenen Grifftypen14,15,16,17zu erfassen. In jüngerer Zeit wurden das Erreichen und Greifen von Bewegungen gemeinsam untersucht (d.h. Probanden erreichen mehrere Positionen und erfassen mit verschiedenen Grifftypen in einer experimentellen Sitzung)18,19,20, 21,22,23,24,25,26,27,28,29. Frühe Experimente haben Objekte manuell vorgestellt, was unweigerlich zu geringer Zeit und räumlicher Präzision führt20,21. Um die experimentelle Präzision zu verbessern und Arbeitskräfte zu sparen, wurden automatische Präsentationsgeräte, die von Programmen gesteuert werden, weit verbreitet eingesetzt. Um die Zielposition und den Grifftyp zu variieren, haben die Experimentatoren mehrere Objekte gleichzeitig verfügbar gemacht, aber die relative (oder absolute) Position von Zielen und die Grifftypen sind miteinander verbunden, was durch Langzeittraining starre Brennmuster verursacht22 ,27,28. Objekte werden in der Regel in einer 2D-Ebene dargestellt, die die Vielfalt der Erreichen bewegung und neuronale Aktivität19,25,26begrenzt. Kürzlich wurden Virtual Reality24 und Roboterarm23,29 eingeführt, um Objekte im 3D-Raum zu präsentieren.

Hier werden detaillierte Protokolle für den Aufbau und die Verwendung eines automatisierten Geräts30 vorgestellt, das eine beliebige Kombination aus mehreren Zielpositionen und Grifftypen im 3D-Raum erreichen kann. Wir haben einen Drehtisch zum Wechseln von Objekten und ein 3D-Übersetzungsgerät entwickelt, um den Drehtisch im 3D-Raum zu transportieren. Sowohl der Drehtisch als auch die Übersetzungsvorrichtung werden von unabhängigen Motoren angetrieben. In der Zwischenzeit werden die 3D-Trajektorie des Handgelenks und der neuronalen Signale des Subjekts während des gesamten Experiments gleichzeitig aufgezeichnet. Das Gerät bietet eine wertvolle Plattform für die Untersuchung der Funktion der oberen Gliedmaßen beim Rhesusaffen.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Alle verhaltens- und chirurgischen Eingriffe entsprachen dem Leitfaden für die Pflege und Verwendung von Labortieren (China Ministry of Health) und wurden vom Animal Care Committee der Zhejiang University, China, genehmigt.

1.Montage des 3D-Übersetzungsgeräts

  1. Bauen Sie einen Rahmen der Größe 920 mm x 690 mm x 530 mm mit Aluminium-Bauschienen (Querschnitt: 40 mm x 40 mm).
  2. Sichern Sie vier Sockel an den beiden Enden der Y-Schienen mit Schrauben (M4) (Abbildung 1B).
  3. Befestigen Sie zwei Y-Schienen parallel auf der Oberseite des Rahmens, indem Sie die vier Sockel mit Schrauben an den vier Ecken der Oberseite sichern (M6) (Abbildung 1B).
  4. Verbinden Sie zwei Y-Schienen mit einer Verbindungswelle und zwei Membrankupplungen. Ziehen Sie die Verriegelungsschrauben der Kupplungen fest, um die Wellen von zwei Schienen zu synchronisieren (Abbildung 1B).
  5. Sechs Muttern (M4) in die hinteren Nuten der Z-Schiene geben. Befestigen Sie eine Seite des rechten Dreiecksrahmens mit Schrauben an der Rückseite der Z-Schiene.
  6. Ziehen Sie den Dreiecksrahmen an das Ende, das distal zur Welle ist, und ziehen Sie die Schrauben fest. Befestigen Sie den anderen rechten Dreiecksrahmen auf die gleiche Weise an die andere Z-Schiene (Abbildung 1C).
  7. Befestigen Sie die anderen rechtwinkligen Seiten von zwei Dreiecksrahmen an den Schiebern zweier Y-Schienen mit Schrauben (M6) (Abbildung 1C).
  8. Verbinden Sie zwei Z-Schienen mit einer Verbindungswelle und Membrankupplungen und ziehen Sie die Verriegelungsschrauben der Kupplung fest (Abbildung 1C).
  9. Befestigen Sie die beiden T-förmigen Verbindungsplatten mit Muttern und Schrauben (M4) an der Rückseite der X-Schiene. Ziehen Sie dann die beiden T-förmigen Bretter an die beiden Enden der X-Schiene und ziehen Sie die Schrauben an (Abbildung 1D).
  10. Befestigen Sie die beiden T-förmigen Verbindungsbretter mit Schrauben (M6) auf den Schiebern zweier Z-Schienen (Abbildung 1D).
  11. Setzen Sie den Schrittmotor in das Wellenloch des Zahnradverkleinerers ein und schrauben Sie deren Flansche zusammen (Abbildung 1E).
  12. Sichern Sie den Verbindungsring mit Schrauben (M4) am Wellenende der aktiven X-Schiene.
  13. Setzen Sie die Welle der X-Schiene in die Kupplung ein und fixieren Sie den Getriebereduzierer mit Schrauben (M4) am Verbindungsring.  Ziehen Sie die Verriegelungsschrauben der Kupplung an (Abbildung 1E).
  14. Befestigen Sie die beiden anderen Schrittmotoren und Getriebereduzierer auf der aktiven Y- und Z-Schiene mit den in den Schritten 1.11–1.12 beschriebenen Methoden.
  15. Legen Sie die Strom- und Steuerkabel der drei Schrittmotoren an die Strom- und Steueranschlüsse ihrer Treiber bzw. die Kabel mit Schrauben auf der Fahrerseite fest.

2. Montage des Drehtisches

  1. Laden Sie die herunter. DWG-Entwurfsdateien aus den Ergänzungsdateien dieses Papiers. Bereiten Sie die Objekte, mentale Welle, Ortungsstange, Rotator und Gehäuse durch 3D-Druck oder mechanische Verarbeitung.
  2. Setzen Sie die Touch-Sensoren in die Nut des Objektkörpers und kleben Sie sie mit doppelseitigem Klebeband auf die vordefinierten Berührungsbereiche (Abbildung 2B).
    HINWEIS: Jedes Objekt besteht aus vier Unterkomponenten: einem Backboard, einem Objektkörper mit Innennut, einer Deckplatine und Touchsensoren.
  3. Führen Sie die Drähte durch die Bohrung des Objekt-Backboards und befestigen Sie die Deckplatte mit Schrauben am Objektkörper (Abbildung 2B).
  4. Leiten Sie Drähte von Berührungssensoren durch die Löcher an den Seiten des Rotators und fixieren Sie die Objekte mit Schrauben am Rotator. (Abbildung 2C).
  5. Löten Sie die Drahtenden von Berührungssensoren an den rotierenden Drahtenden des elektrischen Schlupfrings und wickeln Sie die Gelenke mit elektrischem Klebeband (Abbildung 2D).
  6. Befestigen Sie das Gehäuse mit Schrauben am Schieber der X-Schiene. Legen Sie das Lager in die untere Bohrung der Box und befestigen Sie die Ortungsstange mit Schrauben an der Oberseite des Gehäuses (Abbildung 2E).
  7. Legen Sie den Rotator von der Seite in das Gehäuse, um die Achsen von Rotator, Lager und Kasten zusammenzuschließen. Passieren Sie die Drähte des elektrischen Schlupfrings durch das obere Loch des Gehäuses (Abbildung 2F).
  8. Setzen Sie die Metallwelle von der oberen Lochdese des Gehäuses in das Lager ein und passen Sie den Wellenschlüssel an den Schlüssel des Drehers an (Abbildung 2G).
  9. Stellen Sie den elektrischen Gleitring um die Metallwelle ein. Legen Sie das Ende der Ortungsstange in die Kerbe des elektrischen Schlupfrings, um zu verhindern, dass sich der äußere Ring dreht (Abbildung 2G).
  10. Setzen Sie die Welle des Schrittmotors in das Loch der Metallwelle ein und befestigen Sie den Motor auf der Oberseite der Box mit Schrauben. (Abbildung 2H).
  11. Stecken Sie die Strom- und Steuerkabel des Motors in die Strom- und Steueranschlüsse des Treibers und befestigen Sie sie mit Schrauben.
  12. Halten Sie eine trikolore LED (RGB) mit Klebeband auf die Vorderseite des Gehäuses und fixieren Sie die rechte Seitenplatine auf das Gehäuse.

3. Einrichtung der Steuerung

  1. Legen Sie die Richtungs- und Impulsregeldrähte der vier Motortreiber in die digitalen I/O-Ports (Pins 81, 83, 85, 87) bzw. digitale Zähleranschlüsse (Pins 89, 91, 93, 95) der Datenerfassungsplatine (DAQ) ein. Sichern Sie die Drähte mit Schrauben.
  2. Stecken Sie die Steuerdrähte der LED (grüne Farbe für den "go"-Cue, die blaue Farbe für den "Error"-Cue und die rote Farbe, die den Leerlauf darstellt) in die digitalen I/O-Anschlüsse (Pin 65 und 66) der Datenerfassungskarte und sichern Sie sie mit Schrauben.
  3. Setzen Sie die Ausgangsdrähte von Touch-Sensoren ein und schalten Sie die Taste in die digitalen I/O-Anschlüsse (Pin 67–77) der DaQ-Platine ein und befestigen Sie die Drähte mit Schrauben.
  4. Setzen Sie die Start-Stopp- und Richtungssteuerungsdrähte der Peristaltikpumpe in die digitalen I/O-Pins 1 bzw. 80 ein. Setzen Sie den Strömungsgeschwindigkeitsregeldraht in den analogen I/O-Port AO2 ein. Sichern Sie die Drähte mit Schrauben.
  5. Richten Sie ein Bewegungserfassungssystem ein, wie vom Hersteller beschrieben, um die Handbahn im 3D-Raum aufzuzeichnen.
    HINWEIS: Es wurde ein kommerzielles Motion Capture-System (siehe Tabelle derMaterialien) verwendet, das aus acht Kameras, einem Power Hub, einem Ethernet-Switch und einer unterstützenden Software (z. B. Cortex) besteht. Weitere Informationen zur Einrichtung des Systems finden Sie im Handbuch.
  6. Richten Sie ein neuronales Signalerfassungssystem ein, wie vom Hersteller beschrieben, um das elektrophysiologische Signal vom Motiv aufzuzeichnen.
    HINWEIS: Es wurde ein kommerzielles Datenerfassungssystem (Tabelle der Materialien) verwendet, das aus einem neuronalen Signalprozessor (NSP), Front-End-Verstärker (FEA), Verstärkernetzteil (ASP), Kopfstufen und seiner unterstützenden Software (z. B. Central) besteht. Weitere Informationen zur Einrichtung des Systems finden Sie im Handbuch.

4. Vorbereitung der Versuchssitzung

  1. Initialisieren Sie das 3D-Übersetzungsgerät und den Drehtisch. Ziehen Sie insbesondere die Schieberegler aller linearen Schiebeschiene zum Startpunkt (untere linke Ecke) und drehen Sie das erste Objekt (d. h. den vertikal platzierten Griff) des Drehtisches auf die Vorderseite des Drehtischs.
  2. Stromversorgung der experimentellen Geräte, einschließlich Motion Capture-System, neuronale Signalerfassung, DAQ-Board, Peristaltikpumpe und vier Motoren.
  3. Einrichten der Paradigmensoftware (Abbildung 3A).
    1. Doppelklicken Sie auf Paradigm.exe, um die Paradigmensoftware zu öffnen (auf Anfrage erhältlich).
    2. Definieren Sie die Anzahl der erreichenden Positionen und ihre 3D-Koordinaten (x, y und z, in Millimetern) relativ zu den Anfangspositionen (Schritt 4.2).
    3. Schreiben Sie Koordinaten aller Positionen in Form von Matrix in einem .txt-Dokument. Stellen Sie sicher, dass jede Zeile die x-, y- und z-Koordinaten einer Position enthält, die durch ein Leerzeichen getrennt ist. Speichern Sie das txt-Dokument.
    4. Klicken Sie im Pool-Bedienfeld der Paradigmensoftware auf Datei öffnen, und wählen Sie das zuvor gespeicherte .txt-Dokument aus, um die Präsentationspositionen in die Paradigmensoftware zu laden.
      HINWEIS: In dieser Studie wurden acht Zielpositionen entsprechend dem Reichweitenbereich des Tieres festgelegt, die sich an Scheitelpunkten eines Quaderarbeitsbereichs9,10 (90 mm x 60 mm x 90 mm) befinden.
    5. Überprüfen Sie die Objekte, die im Experiment im Objektpool der Paradigmensoftware dargestellt werden sollen.
    6. Passen Sie experimentelle Parameter im Bedienfeld "Zeitparameter" der Paradigmensoftware an. Basislinie = 400 ms einstellen, Motorlauf = 2.000 ms, Planung = 1.000 ms, max Reaktionszeit = 500 ms, max. Reichweite = 1.000 ms, min Haltezeit = 500 ms, Belohnung = 60 ms und Fehler-Cue = 1.000 ms.
  4. Setzen Sie den Rhesusaffen (mit einem Mikroelektroden-Array, das in den motorischen Kortex implantiert ist) auf den Affenstuhl, indem Sie seinen Kragen in die Nut des Stuhls einsetzen und seinen Kopf fixieren.
  5. Befestigen Sie den Affenstuhl am Aluminium-Baurahmen. Halten Sie den Kopf 250 mm von der Vorderseite des Quaders entfernt und halten Sie die Augen 50 mm über der Oberseite des Quader-Arbeitsbereichs (horizontaler Sichtwinkel: 20°; vertikaler Sichtwinkel: 18°).
  6. Erstellen Sie eine Tracking-Vorlage des Motion-Capture-Systems.
    1. Befestigen Sie drei reflektierende Marker am Ende des Arms (in der Nähe des Handgelenks) mit doppelseitigem Klebeband. Stellen Sie sicher, dass die drei Marker ein Scalene-Dreieck bilden.
    2. Klicken Sie auf die Schaltfläche Ausführen der Paradigmensoftware, um die Aufgabe zu starten.
    3. Klicken Sie auf die Schaltfläche Aufzeichnen im Motion Capture-Bedienfeld der Cortex-Software, um Flugbahnen von drei Markern für 60 s aufzuzeichnen, wenn der Affe die Aufgabe ausführt. Klicken Sie auf die Schaltfläche Stopp, um das Experiment zu unterbrechen.
    4. Erstellen Sie eine Tracking-Vorlage mit drei Markern auf der Cortex-Software mit den aufgezeichneten Flugbahnen und speichern Sie die Vorlage.
      HINWEIS: Weitere Informationen zum Erstellen eines Modells finden Sie im Handbuch von Cortex.
  7. Verbinden Sie die GND-Ports von FEA und Mikroelektroden-Array, das in den Motorkortex des Affen implantiert wird, mit einem Draht und Kneifhäzen. Dann setzen Sie die Kopfstufen in den Stecker des Mikroelektroden-Arrays31ein.
  8. Öffnen Sie die Central-Software des neuronalen Signalerfassungssystems und legen Sie Aufzeichnungsparameter wie Speicherpfad, Zeilenrauschenunterdrückung, Spikefilter, Spike-Schwellenwert usw. fest.
    HINWEIS: Weitere Informationen zur Softwareeinstellung finden Sie im Handbuch des neuronalen Signalerfassungssystems.
  9. Öffnen Sie die Synchronisationssoftware (Abbildung 3B, auf Anfrage erhältlich). Klicken Sie auf die drei Connect-Tasten in den Bedienfeldern Cerebus, Motion Capture und Paradigm, um die Synchronisationssoftware mit dem neuronalen Signalerfassungssystem, dem Motion-Capture-System bzw. der Paradigmensoftware zu verbinden.
  10. Klicken Sie auf die Schaltfläche Ausführen der Paradigmensoftware, um das Experiment fortzusetzen.
  11. Klicken Sie auf die Schaltfläche Aufzeichnen im Dateispeicherbedienfeld der Central-Software, um mit der Aufzeichnung der neuronalen Signale zu beginnen.
  12. Überprüfen Sie die gespeicherte Tracking-Vorlage und klicken Sie auf die Schaltfläche Aufzeichnen im Motion Capture-Bedienfeld der Cortex-Software, um die Aufzeichnung der Flugbahn des Affenhandgelenks zu starten.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Die Größe des kompletten Arbeitsbereichs des Geräts beträgt 600 mm, 300 mm und 500 mm in x-, y- und z-Achsen. Die maximale Belastung der 3D-Übersetzungsvorrichtung beträgt 25 kg, während der Drehtisch (einschließlich des Schrittmotors) 15 kg wiegt und mit einer Geschwindigkeit von bis zu 500 mm/s transportiert werden kann. Die kinematische Präzision des 3D-Übersetzungsgeräts beträgt weniger als 0,1 mm und das Geräusch des Geräts weniger als 60 dB.

Um den Nutzen des Systems zu demonstrieren, wird der Affe (zuvor in einer Reichweitenaufgabe ausgebildet) geschult, um eine verzögerte Reichweitenaufgabe mit dem System30zu erledigen. Mit dem oben beschriebenen Verfahren stellt die Paradigmensoftware automatisch die Verhaltensexperimentstudie versuchsweise vor (500 Versuche pro Sitzung). Insbesondere muss der Affe eine Testversion starten (Abbildung 4), indem er die Taste drückt und sie vor dem "Go"-Cue hält. In einem ersten Schritt ("Motorrun"-Phase) transportiert das 3D-Translationsgerät den Drehtisch an eine pseudo zufällig gewählte Position, und gleichzeitig dreht sich die Drehtabelle, um ein pseudo zufällig ausgewähltes Objekt darzustellen. Diese Motorlaufphase dauert 2 s und alle vier Motoren (drei im 3D-Übersetzungsgerät und einer im Drehtisch) starten und stoppen gleichzeitig. Auf die Motorlaufphase folgt eine "Planungsphase" (1 Sekunde), in der der Affe die folgende Bewegung plant. Sobald sich die grüne LED ("go"-Cue) einschaltet, sollte der Affe die Taste loslassen, in den Drehtisch greifen und das Objekt mit dem entsprechenden Grifftyp so schnell wie möglich greifen (maximale Reaktionszeit = 0,5 s; maximale Bewegungszeit = 1 s). Der Affe erhält eine Wasserbelohnung nach einer Mindesthaltezeit von 0,5 s. Eine Testversion wird abgebrochen, und die blaue LED schaltet sich ein, wenn der Affe die Taste vor dem "Go"-Cue loslässt oder die Taste nicht innerhalb der maximalen Reaktionszeit nach dem Cue loslässt.

Die Synchronisationssoftware empfängt Ereignisbeschriftungen (z.B. Button On, Go Cue, Button Off, etc., Abbildung 4) von der Paradigmensoftware und ein "Start-Record"-Label vom Motion Capture-System und sendet sie dann in Echtzeit an das neuronale Signalerfassungssystem. während des Experiments. Alle Etiketten werden mit neuronalen Signalen gespeichert, aber die Flugbahn des Handgelenks wird in einer separaten Datei gespeichert. Um die neuronalen Signale und die Flugbahn in der Zeit auszurichten, wurde der Zeitstempel des "Start-Record"-Labels als der der ersten Trajektorieprobe genommen, dann wurden inkrementelle Zeitstempel für die anderen Samples entsprechend der Bildrate des Bewegungserfassungssystems zugewiesen. Abbildung 3 zeigt die zeitausgerichteten Ereignisbeschriftungen, die Flugbahn des Handgelenks und die neuronale Beispielaktivität.

Die Flugbahn des Handgelenks während der Erreichensphase in allen erfolgreichen Versuchen wurde extrahiert und in acht Gruppen basierend auf Zielpositionen unterteilt (Abbildung 5). Für jede Gruppe von Flugbahnen wurden Durchschnittswerte und 95 % Konfidenzintervalle zu jedem Zeitpunkt berechnet. Das Trajektoriediagramm in Abbildung 5 zeigt, dass die Enden von acht Trafluggruppen einen Quader bilden, der die gleiche Größe wie der vordefinierte Quaderarbeitsbereich hat (Schritt 4.3.4). Das Perireizzeit-Histogramm (PSTH) für einzelne Sneuronen wurde in Bezug auf die Erreichung der Position bzw. des Objekts gezeichnet. Die Spike-Züge in erfolgreichen Versuchen wurden mit einem Schiebefenster von 50 ms ablagert und mit einem Gaußschen Kern geglättet . Die Durchschnittswerte und das Konfidenzintervall von 95 % für jede Gruppe wurden nach der Bootstrap-Methode (n = 2.000) berechnet. Abbildung 6 zeigt die PSTHs von zwei Beispielneuronen, die sowohl die Erreichensposition als auch die Objekte optimieren. Das Neuron in Abbildung 6A zeigt eine signifikante Selektivität während der Erreichungs- und Haltephasen, während das Neuron in Abbildung 6B beginnt, Positionen und Objekte aus der Mitte der "Motorrun"-Phase zu stimmen.

Figure 1
Abbildung 1: Schritt-für-Schritt-Anleitung für die 3D-Übersetzungsgerätebaugruppe.
I-I X-Schiene, I-III Y-Schiene, I-II Z-Schiene, II Verbindungswellen, III Schrittmotoren, IV Planetengetriebe,V-Verbindungsringe, VI Membrankupplungen, VII Sockel, VIII T-förmige Verbindungsbretter, IX rechte Dreiecksrahmen. (A) Die Materialien für die translationale Gerätebaugruppe. (B) Bau des Rahmens und Montage der Y-Schienen (Schritte 1.1–1.4). (C) Befestigung von zwei Z-Schienen auf Y-Schienen (Schritte 1.5–1.7). (D) Befestigung der X-Schiene auf Z-Schienen (Schritte 1.8 und 1.9). (E) Einbau von Schrittmotor und Getrieberekuder (Schritte 1.10 und 1.11). (F) Komplett montiertes 3D-Übersetzungsgerät (Schritte 1.12 und 1.3). Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 2
Abbildung 2: Schritt-für-Schritt-Anleitung für die Drehtischmontage.
(A) Materialien zum Drehen von Tischmontage. (B) Zusammenstellung von Objekten und Installieren von Berührungssensoren (Schritt 2.2). (C) Sichern von Objekten auf dem Rotator (Schritt 2.3). (D) Anschließen von Sensoren an elektrischen Schleifring (Schritt 2.4). (E) Installieren der Basis auf 3D-Übersetzungsvorrichtung und Platzieren des Ortungsbalkens und des Lagers (Schritt 2.5). (F) Den Rotator in das Gehäuse setzen (Schritt 2.6). (G) Installieren Sie die Welle und den elektrischen Schleifring (Schritte 2.7 und 2.8). (H) Einbau des Schrittmotors (Schritt 2.9). Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 3
Abbildung 3: Die grafische Benutzeroberfläche der Paradigmen- und Synchronisationssoftware.
(A) Ein maßgeschneidertes LabView-Programm zur Steuerung der Verhaltensaufgabe. (B) Ein maßgeschneidertes C++-Programm zur Kommunikation mit der Paradigmensoftware, dem neuronalen Signalerfassungssystem und dem Motion Capture System. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 4
Abbildung 4: Zeitausgerichtete Daten in einer erfolgreichen Testversion.
Alle Ereignis-Timings, Handgelenk-Trajektorien (X, Y und Z) und neuronale Aktivität (Beispieleinheit 1–3) wurden gleichzeitig aufgezeichnet. Die kurzen schwarzen Linien in der obersten Zeile sind die Ereignisbeschriftungen. "Button On" gibt die Zeit an, zu der der Affe die Taste gedrückt hat; "Positionsindex" ist eine Zahl von 1-8, die angibt, welche Erreichensposition dargestellt wird; "Objektindex" ist eine Zahl von 1–6, die angibt, welches Objekt angezeigt wird. "Motor On" zeigt die Startzeit von vier Motoren an. "Motor Off" zeigt ihre Stoppzeit an; "Go Cue" zeigt den Moment an, in dem die grüne LED anstimmt; "Button Off" gibt den Moment an, in dem der Affe die Taste loslässt; "Touch On" zeigt den Moment an, in dem die Touch-Sensoren im Objekt die Hand erkennen; "Reward On" gibt den Moment an, in dem die Pumpe beginnt, die Wasserbelohnung zu liefern, und stellt das Ende einer Prüfung dar. Die Beschriftungen "Button On", "Positionsindex" und "Objektindex" werden zu Beginn einer Testversion sukzessive in sehr kurzer Zeit gespeichert. Die Zeilen 2–4 (beschriftet mit X, Y und Z) zeichnen die Flugbahn des Handgelenks in 3D, aufgenommen durch das Motion Capture System. Die Zeilen 5–7 (beschriftet mit Einheit 1, 2 und 3) zeigen die Spitzenzüge von drei Beispielneuronen, die vom neuronalen Signalerfassungssystem aufgezeichnet wurden. In der unteren Zeile wird der Zeitplan für eine vollständige Testversion angezeigt, die basierend auf Ereignisbeschriftungen in sechs Phasen unterteilt ist. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 5
Abbildung 5: Flugbahnen des Handgelenks, die vom Bewegungserfassungssystem aufgezeichnet werden.
Alle erfolgreichen Versuche sind nach Zielpositionen in acht Gruppen eingeteilt (mit Buchstabe A bis H gekennzeichnet). Jede durchgezogene Linie ist eine durchschnittliche Flugbahn einer Gruppe, und der Schatten stellt die Varianzen der Flugbahnen dar. Diese Zahl wurde gegenüber einer früheren Studiegeändert 30. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Figure 6
Abbildung 6: PSTHs von zwei Beispielneuronen (A und B).
Die vertikalen gestrichelten Linien von rechts nach links, in der Reihenfolge, ist Motor On, Motor Off, Go Cue On, Button Off und Touch On. Jede durchgezogene Linie (in verschiedenen Farben) in PSTH stellt eine durchschnittliche Abschussrate in Versuchsversuchen in Richtung einer Zielposition dar, und der Schatten stellt 95% Konfidenzintervalle dar (Bootstrap; 2.000 mal). Sowohl für A als auch für Bzeigen die oberen und unteren Bereiche die PSTH in Bezug auf unterschiedliche Positionen bzw. Objekte. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.

Ergänzende Dateien. Bitte klicken Sie hier, um die Dateien herunterzuladen. 

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Der hier beschriebene Verhaltensapparat ermöglicht eine versuchsweise Kombination unterschiedlicher Griff- und Greifbewegungen (d.h. der Affe kann unterschiedlich geformte Objekte an beliebigen 3D-Positionen in jeder Studie erfassen). Dies wird durch die Kombination eines benutzerdefinierten Drehtisches, der verschiedene Objekte umschaltet, und einer linearen Übersetzungsvorrichtung erreicht, die den Drehtisch an mehrere Positionen im 3D-Raum transportiert. Darüber hinaus konnten die neuronalen Signale des Affen, die Flugbahn des Handgelenks und die Handformen für die neurophysiologische Forschung aufgezeichnet und synchronisiert werden.

Das Gerät, das separat angetriebene 3D-Übersetzungsvorrichtung und Drehtisch umfasst, stellt mehrere Zielpositionen und Objekte unabhängig voneinander dar. Das heißt, alle vordefinierten Positionen und Objekte wurden willkürlich kombiniert, was beim Studium der multivariablen Codierung14,25,28wichtig ist. Im Gegenteil, wenn das zu erfassende Objekt mit der Position verknüpft ist (z. B. ist das Objekt auf einem Panel fixiert), ist es schwierig zu bestimmen, ob ein einzelnes Neuron ein Objekt oder eine Position18,27,32stimmt. Darüber hinaus präsentiert das Gerät Objekte im 3D-Raum statt auf einer 2D-Ebene19,27, die mehr Neuronen mit räumlicher Modulation aktiviert.

Die Schraubverbindung wird häufig zwischen Unterkomponenten des Geräts verwendet, was zu hoher Flexibilität und Flexibilität führt. Durch die Gestaltung der Form von Objekten und die Platzierung von Berührungssensoren wurden eine große Anzahl von Grifftypen präzise induziert und identifiziert. Das 3D-Übersetzungsgerät kann jede Unterkomponente weniger als 25 kg im 3D-Raum verschieben und ist für die meisten Aufgaben mit räumlicher Verschiebung zuständig. Darüber hinaus wurde das Gerät entwickelt, um Rhesusaffen (Macaca mulatta) zu trainieren, aufgrund des einstellbaren Bereichs des 3D-Übersetzungsgeräts, aber es ist auch für andere Primaten mit ähnlichen oder größeren Körpergrößen oder sogar Menschen kompetent.

Ein Hauptanliegen der Verhaltensaufgabe, die Das Erreichen und Greifen der Bewegung kombiniert, ist, ob sich die Handhaltung zwischen verschiedenen Reichweitenpositionen unterscheidet, selbst wenn der Affe Objekte mit dem gleichen Grifftyp erfasst. Obwohl das Greifen und Greifen im Allgemeinen als zwei verschiedene Bewegungen betrachtet wird, sind ihre Effektoren (Arm und Hand) miteinander verbunden. Daher ist es unvermeidlich, dass die erreichende Bewegung mit dem Greifen interagiert. Nach den Beobachtungen in diesem Experiment änderte sich der Handgelenkwinkel des Affen leicht, wenn er das gleiche Objekt in verschiedenen Positionen erfasste, aber signifikante Unterschiede in der Handhaltung wurden nicht beobachtet.

Eine mögliche Einschränkung des Geräts besteht darin, dass der Versuchsraum wegen Infrarotlichts aus dem Bewegungserfassungssystem nicht vollständig dunkel ist. Der Affe kann das Zielobjekt während des gesamten Weges sehen, was zur unerwünschten Abstimmung vor der Planungsperiode führt. Um den visuellen Zugriff auf ein Objekt zu steuern, kann ein schaltbares Glas, das von der Paradigmensoftware gesteuert wird, zwischen Kopf und Gerät platziert werden. Das schaltbare Glas ist während der Basis- und Planungsphasen undurchsichtig und wird nach dem "Go"-Cue transparent. Auf diese Weise wird die visuelle Information präzise gesteuert. Auf die gleiche Weise kann weißes Rauschen verwendet werden, um den Motorlaufgeräusch zu maskieren, was verhindert, dass der Affe die Position des Objekts durch den Klang des Motors identifiziert. Eine weitere Einschränkung des Geräts ist, dass die Bewegung der Finger nicht verfolgt werden kann. Das liegt daran, dass der Affe die Hand in den Drehtisch greifen muss, um das Objekt zu erfassen, was die Kameras daran hindert, Markierungen auf der Hand zu erfassen.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren haben nichts zu verraten.

Acknowledgments

Wir danken Herrn Shijiang Shen für seinen Rat zur Gerätekonstruktion und Frau Guihua Wang für ihre Unterstützung bei der Tierpflege und -ausbildung. Diese Arbeit wurde unterstützt durch das National Key Research and Development Program of China (2017YFC1308501), die National Natural Science Foundation of China (31627802), die Public Projects of Zhejiang Province (2016C33059) und die Fundamental Research Funds for the Zentrale Universitäten.

Materials

Name Company Catalog Number Comments
Active X-rail CCM Automation technology Inc., China W50-25 Effective travel, 600 mm; Load, 25 kg
Active Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm, Load 35 kg
Active Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Bearing Taobao.com 6004-2RSH Acrylic
Case Custom mechanical processing TT-C Acrylic
Connecting ring CCM Automation technology Inc., China 57/60-W50
Connecting shaft CCM Automation technology Inc., China D12-700 Diam., 12 mm;Length, 700 mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-12 Inner diam., 12-12mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-14 Inner diam., 14-12mm
Electric slip ring Semring Inc., China SNH020a-12 Acrylic
Locating bar Custom mechanical processing TT-L Acrylic
Motion capture system Motion Analysis Corp. US Eagle-2.36
Neural signal acquisition system Blackrock Microsystems Corp. US Cerebus
NI DAQ device National Instruments, US USB-6341
Object Custom mechanical processing TT-O Acrylic
Passive Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm; Load 35 kg
Passive Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Pedestal CCM Automation technology Inc., China 80-W60
Peristaltic pump Longer Inc., China BT100-1L
Planetary gearhead CCM Automation technology Inc., China PLF60-5 Flange, 60×60 mm; Reduction ratio, 1:5
Right triangle frame CCM Automation technology Inc., China 290-300
Rotator Custom mechanical processing TT-R Acrylic
Servo motor Yifeng Inc., China 60ST-M01930 Flange, 60×60 mm; Torque, 1.91 N·m; for Y- and Z-rail
Servo motor Yifeng Inc., China 60ST-M01330 Flange, 60×60 mm; Torque, 1.27 N·m; for X-rail
Shaft Custom mechanical processing TT-S Acrylic
Stepping motor Taobao.com 86HBS120 Flange, 86×86 mm; Torque, 1.27 N·m; Driving turning table
Touch sensor Taobao.com CM-12X-5V
Tricolor LED Taobao.com CK017, RGB
T-shaped connecting board CCM Automation technology Inc., China 110-120

DOWNLOAD MATERIALS LIST

References

  1. Leone, F. T., Monaco, S., Henriques, D. Y., Toni, I., Medendorp, W. P. Flexible Reference Frames for Grasp Planning in Human Parietofrontal Cortex. eNeuro. 2 (3), (2015).
  2. Caminiti, R., et al. Early coding of reaching: frontal and parietal association connections of parieto-occipital cortex. European Journal of Neuroscience. 11 (9), 3339-3345 (1999).
  3. Georgopoulos, A. P., Schwartz, A. B., Kettner, R. E. Neuronal population coding of movement direction. Science. 233 (4771), 1416-1419 (1986).
  4. Fu, Q. G., Flament, D., Coltz, J. D., Ebner, T. J. Temporal encoding of movement kinematics in the discharge of primate primary motor and premotor neurons. Journal of Neurophysiology. 73 (2), 836-854 (1995).
  5. Moran, D. W., Schwartz, A. B. Motor cortical representation of speed and direction during reaching. Journal of Neurophysiology. 82 (5), 2676-2692 (1999).
  6. Carmena, J. M., et al. Learning to control a brain-machine interface for reaching and grasping by primates. PLoS Biology. 1 (2), E42 (2003).
  7. Li, H., et al. Prior Knowledge of Target Direction and Intended Movement Selection Improves Indirect Reaching Movement Decoding. Behavioral Neurology. , 2182843 (2017).
  8. Reina, G. A., Moran, D. W., Schwartz, A. B. On the relationship between joint angular velocity and motor cortical discharge during reaching. Journal of Neurophysiology. 85 (6), 2576-2589 (2001).
  9. Taylor, D. M., Tillery, S. I., Schwartz, A. B. Direct cortical control of 3D neuroprosthetic devices. Science. 296 (5574), 1829-1832 (2002).
  10. Wang, W., Chan, S. S., Heldman, D. A., Moran, D. W. Motor cortical representation of hand translation and rotation during reaching. Journal of Neuroscience. 30 (3), 958-962 (2010).
  11. Murata, A., Gallese, V., Luppino, G., Kaseda, M., Sakata, H. Selectivity for the shape, size, and orientation of objects for grasping in neurons of monkey parietal area AIP. Journal of Neurophysiology. 83 (5), 2580-2601 (2000).
  12. Raos, V., Umiltá, M. A., Murata, A., Fogassi, L., Gallese, V. Functional Properties of Grasping-Related Neurons in the Ventral Premotor Area F5 of the Macaque Monkey. Journal of Neurophysiology. 95 (2), 709 (2006).
  13. Schaffelhofer, S., Scherberger, H. Object vision to hand action in macaque parietal, premotor, and motor cortices. eLife. 5, (2016).
  14. Baumann, M. A., Fluet, M. C., Scherberger, H. Context-specific grasp movement representation in the macaque anterior intraparietal area. Journal of Neuroscience. 29 (20), 6436-6448 (2009).
  15. Riehle, A., Wirtssohn, S., Grun, S., Brochier, T. Mapping the spatio-temporal structure of motor cortical LFP and spiking activities during reach-to-grasp movements. Frontiers in Neural Circuits. 7, 48 (2013).
  16. Michaels, J. A., Scherberger, H. Population coding of grasp and laterality-related information in the macaque fronto-parietal network. Scientific Reports. 8 (1), 1710 (2018).
  17. Fattori, P., et al. Hand orientation during reach-to-grasp movements modulates neuronal activity in the medial posterior parietal area V6A. Journal of Neuroscience. 29 (6), 1928-1936 (2009).
  18. Asher, I., Stark, E., Abeles, M., Prut, Y. Comparison of direction and object selectivity of local field potentials and single units in macaque posterior parietal cortex during prehension. Journal of Neurophysiology. 97 (5), 3684-3695 (2007).
  19. Stark, E., Asher, I., Abeles, M. Encoding of reach and grasp by single neurons in premotor cortex is independent of recording site. Journal of Neurophysiology. 97 (5), 3351-3364 (2007).
  20. Velliste, M., Perel, S., Spalding, M. C., Whitford, A. S., Schwartz, A. B. Cortical control of a prosthetic arm for self-feeding. Nature. 453 (7198), 1098-1101 (2008).
  21. Vargas-Irwin, C. E., et al. Decoding complete reach and grasp actions from local primary motor cortex populations. Journal of Neuroscience. 30 (29), 9659-9669 (2010).
  22. Mollazadeh, M., et al. Spatiotemporal variation of multiple neurophysiological signals in the primary motor cortex during dexterous reach-to-grasp movements. Journal of Neuroscience. 31 (43), 15531-15543 (2011).
  23. Saleh, M., Takahashi, K., Hatsopoulos, N. G. Encoding of coordinated reach and grasp trajectories in primary motor cortex. Journal of Neuroscience. 32 (4), 1220-1232 (2012).
  24. Collinger, J. L., et al. High-performance neuroprosthetic control by an individual with tetraplegia. The Lancet. 381 (9866), 557-564 (2013).
  25. Lehmann, S. J., Scherberger, H. Reach and gaze representations in macaque parietal and premotor grasp areas. Journal of Neuroscience. 33 (16), 7038-7049 (2013).
  26. Rouse, A. G., Schieber, M. H. Spatiotemporal distribution of location and object effects in reach-to-grasp kinematics. Journal of Neuroscience. 114 (6), 3268-3282 (2015).
  27. Rouse, A. G., Schieber, M. H. Spatiotemporal Distribution of Location and Object effects in Primary Motor Cortex Neurons during Reach-to-Grasp. Journal of Neuroscience. 36 (41), 10640-10653 (2016).
  28. Hao, Y., et al. Neural synergies for controlling reach and grasp movement in macaques. Neuroscience. 357, 372-383 (2017).
  29. Takahashi, K., et al. Encoding of Both Reaching and Grasping Kinematics in Dorsal and Ventral Premotor Cortices. Journal of Neuroscience. 37 (7), 1733-1746 (2017).
  30. Chen, J., et al. An automated behavioral apparatus to combine parameterized reaching and grasping movements in 3D space. Journal of Neuroscience Methods. 312, 139-147 (2019).
  31. Zhang, Q., et al. Development of an invasive brain-machine interface with a monkey model. Chinese Science Bulletin. 57 (16), 2036 (2012).
  32. Hao, Y., et al. Distinct neural patterns enable grasp types decoding in monkey dorsal premotor cortex. Journal of Neural Engineering. 11 (6), 066011 (2014).

Tags

Verhalten Ausgabe 150 automatisierter Apparat Objektdarstellung Greifbewegung 3D-Raum Primaten Bewegungserfassung
Entwurf und Verwendung eines Geräts zur Darstellung von Greifobjekten im 3D-Arbeitsbereich
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Xu, K., Chen, J., Sun, G., Hao, Y.,More

Xu, K., Chen, J., Sun, G., Hao, Y., Zhang, S., Ran, X., Chen, W., Zheng, X. Design and Use of an Apparatus for Presenting Graspable Objects in 3D Workspace. J. Vis. Exp. (150), e59932, doi:10.3791/59932 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter