Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Conception et utilisation d'un apparatus pour la présentation d'objets graspables dans l'espace de travail 3D

Published: August 8, 2019 doi: 10.3791/59932

Summary

Présenté ici est un protocole pour construire un appareil automatique qui guide un singe pour effectuer la tâche flexible de portée à saisir. L'appareil combine un dispositif de traduction 3D et une table tournante pour présenter plusieurs objets dans une position arbitraire dans l'espace 3D.

Abstract

Atteindre et saisir sont des mouvements très couplés, et leur dynamique neuronale sous-jacente ont été largement étudiés au cours de la dernière décennie. Pour distinguer les codages d'atteindre et de saisir, il est essentiel de présenter différentes identités d'objets indépendamment de leurs positions. Présenté ici est la conception d'un appareil automatique qui est assemblé avec une table tournante et en trois dimensions (3D) dispositif de traduction pour atteindre cet objectif. La table tournante change différents objets correspondant à différents types d'adhérence tandis que l'appareil de traduction 3D transporte la table tournante dans l'espace 3D. Les deux sont entraînés indépendamment par des moteurs de sorte que la position cible et l'objet sont combinés arbitrairement. Pendant ce temps, la trajectoire du poignet et les types d'adhérence sont enregistrés via le système de capture de mouvement et les capteurs tactiles, respectivement. En outre, les résultats représentatifs qui démontrent le singe avec succès formé utilisant ce système sont décrits. On s'attend à ce que cet appareil facilite des chercheurs pour étudier la cinématique, les principes neuraux, et les interfaces cerveau-machine liées à la fonction supérieure de membre.

Introduction

Divers appareils ont été développés pour étudier les principes neuronaux sous-jacents à l'atteinte et à la saisie du mouvement chez les primates non humains. Dans l'atteinte des tâches, écran tactile1,2, curseur d'écran contrôlé par un joystick3,4,5,6,7, et la technologie de réalité virtuelle8 , 9 (en) , 10 ont tous été employés pour présenter des cibles 2D et 3D, respectivement. Pour introduire différents types d'adhérence, des objets de forme différente fixés dans une position ou tournant autour d'un axe ont été largement utilisés dans les tâches de saisie11,12,13. Une alternative consiste à utiliser des repères visuels pour informer les sujets de saisir le même objet avec différents types d'adhérence14,15,16,17. Plus récemment, les mouvements d'atteinte et de saisie ont été étudiés ensemble (c.-à-d. que les sujets atteignent de multiples positions et saisissent différents types d'adhérence lors d'une session expérimentale)18,19,20, 21,22,23,24,25,26,27,28,29. Les premières expériences ont présenté des objets manuellement, ce qui conduit inévitablement à un temps faible et la précision spatiale20,21. Pour améliorer la précision expérimentale et économiser de la main-d'œuvre, les dispositifs de présentation automatique contrôlés par les programmes ont été largement utilisés. Pour varier la position cible et le type d'adhérence, les expérimentateurs ont exposé plusieurs objets simultanément, mais la position relative (ou absolue) des cibles et les types d'adhérence sont liés entre eux, ce qui provoque des schémas de tir rigides grâce à une formation à long terme22 ,27,28. Les objets sont généralement présentés dans un plan 2D, ce qui limite la diversité du mouvement d'atteinte et de l'activité neuronale19,25,26. Récemment, la réalité virtuelle24 et le bras robot23,29 ont été introduits pour présenter des objets dans l'espace 3D.

Présentés ici sont des protocoles détaillés pour la construction et l'utilisation d'un appareil automatisé30 qui peut atteindre n'importe quelle combinaison de positions cibles multiples et les types d'adhérence dans l'espace 3D. Nous avons conçu une table tournante pour changer d'objet et un dispositif de traduction 3D pour transporter la table tournante dans l'espace 3D. La table tournante et l'appareil de traduction sont pilotés par des moteurs indépendants. Pendant ce temps, la trajectoire 3D du poignet du sujet et les signaux neuronaux sont enregistrés simultanément tout au long de l'expérience. L'appareil fournit une plate-forme précieuse pour l'étude de la fonction des membres supérieurs chez le singe rhésus.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Toutes les procédures comportementales et chirurgicales étaient conformes au Guide for the Care and Use of Laboratory Animals (China Ministry of Health) et ont été approuvées par le Comité des soins aux animaux de l'Université de Zhejiang, en Chine.

1.Assemblage de l'appareil de traduction 3D

  1. Construire un cadre de taille 920 mm x 690 mm x 530 mm avec rails de construction en aluminium (section transversale : 40 mm x 40 mm).
  2. Fixer quatre piédestaux aux deux extrémités des y-rails avec des vis (M4) (Figure 1B).
  3. Fixer deux rails Y sur la surface supérieure du cadre en parallèle en fixant les quatre piédestaux aux quatre coins de la surface supérieure avec des vis (M6) (Figure 1B).
  4. Connectez deux rails Y avec un arbre de raccordement et deux accouplements de diaphragme. Resserrer les vis de verrouillage des accouplements pour synchroniser les arbres de deux rails (Figure 1B).
  5. Mettre six noix (M4) dans les rainures arrière du Z-rail. Fixez un côté du cadre triangle droit à l'arrière du rail Z avec des vis.
  6. Tirez le cadre triangle à l'extrémité qui est distal à l'arbre et serrer les vis. Attachez l'autre cadre triangle droit à l'autre rail Z de la même manière (Figure 1C).
  7. Fixer les autres côtés à angle droit de deux cadres triangle aux curseurs de deux rails Y avec vis (M6) (Figure 1C).
  8. Connectez deux z-rails avec un arbre de raccordement et des accouplements de diaphragme et serrez les vis de verrouillage du couplage (figure 1C).
  9. Fixez les deux planches de raccordement en forme de T à l'arrière du X-rail avec des écrous et des vis (M4). Puis tirez les deux planches en forme de T aux deux extrémités du X-rail et serrez les vis (Figure 1D).
  10. Fixer les deux panneaux de raccordement en forme de T sur les curseurs de deux z-rails avec vis (M6), respectivement (Figure 1D).
  11. Insérez le moteur de marche dans le trou d'arbre du réducteur d'engrenage et vissez leurs flanges ensemble (Figure 1E).
  12. Fixez l'anneau de raccordement à l'extrémité de l'arbre du X-rail actif avec des vis (M4).
  13. Insérez l'arbre du x-rail dans l'accouplement et fixez le réducteur de vitesse à l'anneau de raccordement avec des vis (M4).  Serrez les vis de verrouillage du couplage (Figure 1E).
  14. Fixez les deux autres moteurs et réducteurs d'engrenages au rail Y et au rail Z actifs en utilisant les méthodes décrites dans les étapes 1.11-1.12.
  15. Insérez les câbles de puissance et de commande des trois moteurs de marche aux ports de puissance et de contrôle de leurs conducteurs, respectivement, et fixez les câbles avec des vis du côté conducteur.

2. Assemblage de la table tournante

  1. Télécharger le . Fichiers de conception DWG à partir des fichiers supplémentaires de ce document. Préparer les objets, l'arbre mental, la barre de localisation, le rotateur et le boîtier par impression 3D ou traitement mécanique.
  2. Placez les capteurs tactiles dans la rainure du corps de l'objet et collez-les sur les zones tactiles prédéfinies avec du ruban adhésif double face (Figure2B).
    REMARQUE : Chaque objet se compose de quatre sous-composants : un backboard, un corps d'objet avec rainure à l'intérieur, une planche de couverture et des capteurs tactiles.
  3. Passer les fils à travers le trou de l'arrière-plan de l'objet et fixer la planche de couverture sur le corps de l'objet avec des vis (Figure 2B).
  4. Passez les fils des capteurs tactiles à travers les trous sur les côtés du rotateur et fixez les objets sur le rotateur avec des vis. (Figure 2C).
  5. Souder les extrémités du fil des capteurs tactiles aux extrémités de fil rotatif de l'anneau de glissement électrique et envelopper les joints avec du ruban électrique (Figure 2D).
  6. Fixez le boîtier au curseur du X-rail avec des vis. Placez le roulement dans le trou inférieur de la boîte et fixez la barre de localisation à la surface supérieure du boîtier avec des vis (Figure 2E).
  7. Placez le rotateur dans le boîtier de côté, coïncidant avec les haches du rotateur, du roulement et de la boîte. Passer les fils de l'anneau de glissement électrique à travers le trou supérieur de l'étui (Figure 2F).
  8. Insérer l'arbre métallique dans le roulement à partir du trou supérieur du boîtier et ajuster la clé de l'arbre à la voie de touche du rotateur (Figure 2G).
  9. Définir l'anneau de glissement électrique autour de l'arbre métallique. Placez l'extrémité de la localisation de la barre dans l'encoche de l'anneau de glissement électrique pour empêcher l'anneau extérieur de tourner (Figure 2G).
  10. Insérez l'arbre du moteur de marche dans le trou de l'arbre en métal et fixez le moteur sur le dessus de la boîte avec des vis. (Figure 2H).
  11. Insérez les câbles de puissance et de commande du moteur dans les ports de puissance et de contrôle de son conducteur et fixez-les avec des vis.
  12. Collez une LED tricolore (RGB) sur le côté avant du boîtier avec du ruban adhésif et fixez la planche latérale droite sur le boîtier.

3. Configuration du système de contrôle

  1. Insérez les fils de direction et de contrôle des impulsions des quatre conducteurs de moteur dans les ports I/O numériques (broches 81, 83, 85, 87) et les ports de comptoir numérique (pins 89, 91, 93, 95) du tableau d'acquisition de données (DAQ), respectivement. Fixer les fils avec des vis.
  2. Insérez les fils de commande de LED (couleur verte utilisée pour le repère "go", couleur bleue utilisée pour le repère "erreur" et couleur rouge représentant les idle) dans les ports I/O numériques (pin 65 et 66) de la carte DAQ et fixez-les avec des vis.
  3. Insérez les fils de sortie des capteurs tactiles et changez le bouton dans les ports I/O numériques (pin 67-77) de la carte DAQ et fixez les fils avec des vis.
  4. Insérez les fils de commande de démarrage-arrêt et de direction de la pompe péristétique dans les broches i/O numériques 1 et 80, respectivement. Insérez le fil de commande de vitesse d'écoulement dans le port analogique I/O AO2. Fixer les fils avec des vis.
  5. Configurer un système de capture de mouvement tel que décrit par le fabricant pour enregistrer la trajectoire de la main dans l'espace 3D.
    REMARQUE : Un système commercial de capture de mouvement (voir Tableau des matériaux) a été utilisé, qui se compose de huit caméras, d'un moyeu électrique, d'un commutateur Ethernet et d'un logiciel de soutien (p. ex., Cortex). S'il vous plaît se référer au manuel pour obtenir plus de détails sur la configuration du système.
  6. Mettre en place un système d'acquisition de signaux neuronaux tel que décrit par le fabricant pour enregistrer le signal d'électrophysiologie du sujet.
    REMARQUE : Un système commercial d'acquisition de données (Tableaudes matériaux) a été utilisé, qui se compose d'un processeur de signal neuronal (NSP), d'amplificateur frontal (FEA), d'alimentation par amplificateur (ASP), d'étapes de tête et de son logiciel de soutien (p. ex., Central). Consultez le manuel pour plus de détails sur la configuration du système.

4. Préparation de la session expérimentale

  1. Initialiser le dispositif de traduction 3D et la table tournante. Plus précisément, tirez les curseurs de tous les rails de glissière linéaires vers le point de départ (coin inférieur gauche) et tournez le premier objet (c.-à-d. la poignée placée verticalement) de la table tournante pour faire face au côté avant de la table tournante.
  2. Puissance sur les dispositifs expérimentaux, y compris le système de capture de mouvement, l'acquisition de signal neuronal, la carte DAQ, la pompe péristaltique, et quatre moteurs.
  3. Configurer le logiciel de paradigme (Figure 3A).
    1. Double clic Paradigm.exe pour ouvrir le logiciel paradigm (disponible sur demande).
    2. Définissez le nombre de positions d'atteinte et leurs coordonnées 3D (x, y et z, en millimètres) par rapport aux positions initiales (étape 4.2).
    3. Écrivez les coordonnées de toutes les positions sous forme de matrice dans un document .txt. Assurez-vous que chaque ligne comprend les coordonnées x, y et z d'une position séparée avec un espace. Enregistrer le document txt.
    4. Cliquez sur Ouvrez le fichier dans le panneau pool du logiciel de paradigme et sélectionnez le document .txt enregistré avant de charger les positions de présentation dans le logiciel de paradigme.
      REMARQUE : Dans cette étude, huit positions cibles ont été fixées en fonction de la portée d'atteinte de l'animal, qui sont situées à des vertices d'un espace de travail cuboïde9,10 (90 mm x 60 mm x 90 mm).
    5. Vérifiez les objets à présenter dans l'expérience dans le pool d'objets du logiciel de paradigme.
    6. Ajuster les paramètres expérimentaux dans le panneau Paramètres temporels du logiciel de paradigme. Définir Baseline 400 ms, Motor Run 2 000 ms, Planification 1 000 ms, temps de réaction max 500 ms, temps d'accès maximum , 1 000 ms, min Temps d'attente , 500 ms, Récompense 60 ms, et Erreur Cue 1 000 ms.
  4. Asseyez le singe rhésus (avec un tableau de micro-électrode implanté dans le cortex moteur) sur la chaise de singe en insérant son collier dans la rainure de la chaise et en fixant sa tête.
  5. Fixer la chaise de singe au cadre de construction en aluminium. Gardez la tête à 250 mm de la face avant du cuboïde et gardez les yeux à 50 mm au-dessus du côté supérieur de l'espace de travail cuboïde (angle visuel horizontal : 20 degrés; angle visuel vertical : 18 degrés).
  6. Construire un modèle de suivi du système de capture de mouvement.
    1. Fixez trois marqueurs réfléchissants à l'extrémité du bras (près du poignet) avec du ruban adhésif recto-verso. Assurez-vous que les trois marqueurs forment un triangle d'échelle.
    2. Cliquez sur le bouton Exécuter du logiciel de paradigme pour démarrer la tâche.
    3. Cliquez sur le bouton Enregistrement sur le panneau de capture de mouvement du logiciel Cortex pour enregistrer les trajectoires de trois marqueurs pour 60 s lorsque le singe fait la tâche. Cliquez sur le bouton Stop pour suspendre l'expérience.
    4. Construisez un modèle de suivi de trois marqueurs sur le logiciel Cortex en utilisant les trajectoires enregistrées et enregistrez le modèle.
      REMARQUE: S'il vous plaît se référer au manuel de Cortex pour obtenir plus de détails sur la façon de construire un modèle.
  7. Connectez les ports GND de FEA et micro-électrode tableau implanté dans le cortex moteur du singe avec un fil et pincer les. Ensuite, insérez les étapes de la tête dans le connecteur du tableau de micro-électrodes31.
  8. Ouvrez le logiciel central du système d'acquisition de signaux neuronaux et définiz les paramètres d'enregistrement, y compris la trajectoire de stockage, l'annulation du bruit de ligne, le filtre à pointes, le seuil de pointe, etc.
    REMARQUE: Veuillez consulter le manuel du système d'acquisition de signaux neuronaux pour plus de détails sur le réglage du logiciel.
  9. Ouvrez le logiciel de synchronisation (Figure3B, disponible sur demande). Cliquez sur les trois boutons Connect dans les panneaux Cerebus, Motion Capture et Paradigm pour connecter le logiciel de synchronisation au système d'acquisition de signaux neuronaux, au système de capture de mouvement et au logiciel de paradigme, respectivement.
  10. Cliquez sur le bouton Exécuter du logiciel de paradigme pour continuer l'expérience.
  11. Cliquez sur le bouton Enregistrement sur le panneau de stockage de fichiers du logiciel Central pour commencer à enregistrer les signaux neuronaux.
  12. Vérifiez le modèle de suivi enregistré et cliquez sur le bouton Enregistrement sur le panneau de capture de mouvement du logiciel Cortex pour commencer à enregistrer la trajectoire du poignet du singe.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

La taille de l'espace de travail complet de l'appareil est de 600 mm, 300 mm et 500 mm en x-, y-, et z-axes, respectivement. La charge maximale de l'appareil de traduction 3D est de 25 kg, tandis que la table tournante (y compris le moteur de marche) est pondérée de 15 kg et peut être transportée à une vitesse allant jusqu'à 500 mm/s. La précision cinématique de l'appareil de traduction 3D est inférieure à 0,1 mm et le bruit de l'appareil est inférieur à 60 dB.

Pour démontrer l'utilité du système, le singe est formé (précédemment formé à une tâche d'atteindre) pour faire une tâche de portée à saisir retardée avec le système30. En utilisant la procédure présentée ci-dessus, le logiciel de paradigme présente automatiquement l'essai d'expérience comportementale par essai (500 essais par session). Plus précisément, le singe doit commencer un essai (Figure 4) en appuyant sur le bouton et en le tenant avant le "go" repère. Dans un premier temps (phase de « course à moteur »), le dispositif de traduction 3D transporte la table tournante vers une position pseudo choisie au hasard, et en même temps, la table tournante tournera également pour présenter un objet pseudo choisi au hasard. Cette phase de course à moteur dure 2 s et les quatre moteurs (trois dans le dispositif de traduction 3D et un dans la table tournante) démarrent et s'arrêtent en même temps. La phase de course à moteur est suivie d'une phase de " planification " (1 seconde), au cours de laquelle le singe planifie le mouvement suivant. Une fois que la LED verte ("go" cue) s'allume, le singe doit libérer le bouton, atteindre dans la table tournante et saisir l'objet avec le type d'adhérence correspondant dès que possible (temps de réaction maximum de 0,5 s; temps de mouvement maximum - 1 s). Le singe reçoit une récompense de l'eau après un temps de prise minimum de 0,5 s. Un essai est avorté, et la LED bleue s'allume si le singe libère le bouton avant le signal "go" ou ne libère pas le bouton dans le temps de réaction maximum après le signal.

Le logiciel de synchronisation reçoit des étiquettes d'événements (p. ex. Button On, Go Cue, Button Off, etc., Figure 4) à partir d'un logiciel de paradigme et d'une étiquette « start-record » du système de capture de mouvement, puis les envoie au système d'acquisition de signaux neuronaux en temps réel. pendant l'expérience. Toutes les étiquettes sont enregistrées avec des signaux neuronaux, mais la trajectoire du poignet est stockée dans un fichier séparé. Pour aligner les signaux neuronaux et la trajectoire dans le temps, l'horodatage de l'étiquette « start-record » a été pris comme celui du premier échantillon de trajectoire, puis des horodateurs incrémentaux ont été attribués pour les autres échantillons en fonction du taux d'image du système de capture de mouvement. La figure 3 montre les étiquettes d'événements alignées dans le temps, la trajectoire du poignet et l'activité neuronale par exemple.

La trajectoire du poignet pendant la phase d'atteinte dans tous les essais réussis a été extraite et divisée en huit groupes en fonction des positions cibles (figure 5). Pour chaque groupe de trajectoires, des valeurs moyennes et des intervalles de confiance de 95 % à chaque point de temps ont été calculés. L'intrigue de trajectoire de la figure 5 montre que les extrémités de huit groupes de trajectoire forment un cuboïde, qui a la même taille que l'espace de travail cuboïde prédéfini (étape 4.3.4). L'histogramme de temps de péristimulus (PSTH) pour le neurone simple a été tracé en ce qui concerne l'atteinte de la position et de l'objet, respectivement. Les trains à pointes dans les essais réussis ont été mis en boîte avec une fenêtre coulissante de 50 ms et lissés avec un noyau gaussien (100 ms). Les valeurs moyennes et l'intervalle de confiance de 95 % pour chaque groupe ont été calculés selon la méthode bootstrap (n ' 2 000). La figure 6 montre les PSTH de deux neurones d'exemples qui atteignent la position et les objets. Le neurone de la figure 6A montre une sélectivité significative pendant les phases d'atteinte et de fixation, tandis que le neurone de la figure 6B commence à accorder les positions et les objets à partir du milieu de la phase de « course à moteur ».

Figure 1
Figure 1 : Instructions étape par étape pour l'assemblage de l'appareil de traduction 3D.
I-I X-rail, I-III Y-rail, I-II Z-rail, II arbres de raccordement, III moteurs de marche, réducteurs d'engrenages planétaires IV, anneaux de raccordement V, accouplements de diaphragme VI, piédestaux VII, panneaux de raccordement en forme de T VIII, cadres triangle droit IX. (A) Les matériaux pour l'assemblage du dispositif translationnel. (B) Construire le cadre et installer les rails Y (étapes 1.1-1.4). (C) Fixation de deux rails Z sur les rails Y (étapes 1.5-1.7). (D) Fixation du X-rail sur les rails Z (étapes 1.8 et 1.9). (E) Installation du moteur de marche et du récudeur d'engrenage (étapes 1.10 et 1.11). (F) Dispositif de traduction 3D entièrement assemblé (étapes 1.12 et 1.3). Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 2
Figure 2 : Instructions étape par étape pour l'assemblagede la table tournante.
(A) Matériaux pour l'assemblage de la table tournante. (B) Assemblage d'objets et installation de capteurs tactiles (étape 2.2). (C) Sécurisation des objets sur le rotateur (étape 2.3). (D) Connexion des fils de capteurs à l'anneau de glissement électrique (étape 2.4). (E) Installation de la base sur un dispositif de traduction 3D et placement de la barre de localisation et du roulement (étape 2.5). (F) Mettre le rotateur dans le boîtier (étape 2.6). (G) Installer l'arbre et l'anneau de glissement électrique (étapes 2.7 et 2.8). (H) Installation du moteur de marche (étape 2.9). Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 3
Figure 3 : L'interface utilisateur graphique du logiciel de paradigme et de synchronisation.
(A) Un programme LabView sur mesure pour contrôler la tâche comportementale. (B) Un programme c'est sur mesure pour communiquer avec le logiciel de paradigme, le système d'acquisition de signaux neuronaux et le système de capture de mouvement. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 4
Figure 4 : Données alignées dans le temps dans un essai réussi.
Tous les calendriers des événements, les trajectoires du poignet (X, Y et Z) et l'activité neuronale (unité d'exemple 1-3) ont été enregistrés simultanément. Les lignes noires courtes dans la rangée supérieure sont les étiquettes d'événement. "Bouton sur" indique le moment où le singe a appuyé sur le bouton vers le bas; L'« indice de position » est un nombre de 1 à 8 indiquant quelle position d'atteinte est présentée; "Indice d'objet" est un nombre de 1 à 6 indiquant quel objet est présenté; "Motor On" indique l'heure de départ de quatre moteurs. "Motor Off" indique leur temps d'arrêt; "Go Cue" indique le moment où la LED verte s'accorde; "Button Off" indique le moment où le singe relâche le bouton; "Touch On" indique le moment où les capteurs tactiles de l'objet détectent la main; "Reward On" indique le moment où la pompe commence à livrer la récompense de l'eau et représente la fin d'un essai. Les étiquettes "Button On", "Position Index" et "Object Index" sont enregistrées successivement en très peu de temps au début d'un essai. Les lignes 2 à 4 (étiquetées avec X, Y et Z) tracent la trajectoire du poignet en 3D enregistrée par système de capture de mouvement. Les lignes 5 à 7 (étiquetées avec les unités 1, 2 et 3) montrent les trains de pointe de trois neurones d'exemple enregistrés par le système d'acquisition de signaux neuronaux. La rangée inférieure affiche la chronologie d'un essai complet qui est divisé en six phases basées sur les étiquettes d'événements. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 5
Figure 5 : Trajectoires du poignet enregistrées par système de capture de mouvement.
Tous les essais réussis sont divisés en huit groupes selon les positions cibles (étiquetés avec la lettre A à H). Chaque ligne solide est une trajectoire moyenne d'un groupe et l'ombre représente les variances des trajectoires. Ce chiffre a été modifié par rapport à une étude précédente30. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Figure 6
Figure 6 : PSTH de deux neurones d'exemple (A et B).
Les lignes verticales pointillées de droite à gauche dans l'ordre sont Motor On, Motor Off, Go Cue On, Button Off et Touch On. Chaque ligne solide (en différentes couleurs) dans PSTH représente un taux de tir moyen à travers les essais vers une position cible et l'ombre représente 95% d'intervalles de confiance (bootstrap; 2000 fois). Pour A et B, les panneaux supérieurs et inférieurs montrent le PSTH en ce qui concerne les différentes positions et objets, respectivement. Veuillez cliquer ici pour voir une version plus grande de ce chiffre.

Fichiers supplémentaires. Veuillez cliquer ici pour télécharger les fichiers. 

Subscription Required. Please recommend JoVE to your librarian.

Discussion

L'appareil comportemental est décrit ici permet une combinaison d'essai-sage de différents mouvements d'atteindre et de saisir (c.-à-d., le singe peut saisir des objets de forme différente dans n'importe quel emplacement 3D arbitraire dans chaque essai). Ceci est accompli grâce à la combinaison d'une table tournante personnalisée qui change différents objets et d'un dispositif de traduction linéaire qui transporte la table tournante à plusieurs positions dans l'espace 3D. En outre, les signaux neuronaux du singe, la trajectoire du poignet et les formes des mains ont pu être enregistrés et synchronisés pour la recherche neurophysiologique.

L'appareil, qui comprend un dispositif de traduction 3D et une table tournante pilotés séparément, présente de manière indépendante plusieurs positions et objets cibles. C'est-à-dire que toutes les positions et objets prédéfinis ont été combinés arbitrairement, ce qui est important dans l'étude de l'encodage multivariable14,25,28. Au contraire, si l'objet à saisir est lié à la position (par exemple, l'objet est fixé sur un panneau), il est difficile de déterminer si un seul neurone accorde un objet ou une position18,27,32. En outre, l'appareil présente des objets dans l'espace 3D au lieu d'un plan 2D19,27, qui active plus de neurones avec la modulation spatiale.

La connexion boulonnée est largement utilisée entre les sous-composants de l'appareil, ce qui se traduit par une grande expanabilité et flexibilité. En concevant la forme des objets et le placement des capteurs tactiles, un grand nombre de types d'adhérence ont été précisément induits et identifiés. Le dispositif de traduction 3D peut déplacer n'importe quel sous-composant de moins de 25 kg dans l'espace 3D et est compétent pour la plupart des tâches impliquant le déplacement spatial. En outre, bien que l'appareil a été conçu pour former le singe rhésus (Macaca mulatta), en raison de la gamme réglable de l'appareil de traduction 3D, il est également compétent pour d'autres primates avec des tailles de corps similaires ou plus grandes ou même des humains.

Une préoccupation majeure de la tâche comportementale combinant l'atteinte et la saisie du mouvement est de savoir si la posture de la main diffère selon les positions d'atteinte, même si le singe saisit l'objet avec le même type d'adhérence. Bien que l'atteinte et la saisie soient généralement considérées comme deux mouvements différents, leurs effecteurs (bras et main) sont reliés. Ainsi, il est inévitable que le mouvement d'atteinte interagit avec la saisie. Selon les observations de cette expérience, l'angle du poignet du singe a légèrement changé lors de la saisie du même objet dans différentes positions, mais des différences significatives dans la posture de la main n'ont pas été observées.

Une limitation potentielle de l'appareil est que la salle expérimentale n'est pas complètement sombre en raison de la lumière infrarouge du système de capture de mouvement. Le singe peut voir l'objet cible tout au long du sentier, ce qui conduit à l'adage indésirable avant la période de planification. Pour contrôler l'accès visuel à un objet, un verre commutable contrôlé par le logiciel de paradigme peut être placé entre la tête et l'appareil. Le verre commutable est opaque pendant les phases de base et de planification et devient transparent après le repère « go ». De cette façon, l'information visuelle est contrôlée avec précision. De la même manière, le bruit blanc peut être utilisé pour masquer le bruit de fonctionnement du moteur, ce qui empêche le singe d'identifier l'emplacement de l'objet par le bruit du moteur. Une autre limitation de l'appareil est que le mouvement des doigts ne peut pas être suivi. C'est parce que le singe doit atteindre la main dans la table tournante pour saisir l'objet, qui bloque les caméras de capturer des marques sur la main.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Les auteurs n'ont rien à révéler.

Acknowledgments

Nous remercions M. Shijiang Shen pour ses conseils sur la conception d'appareils et Mme Guihua Wang pour son aide en matière de soins et de formation des animaux. Ce travail a été soutenu par le National Key Research and Development Program of China (2017YFC1308501), la National Natural Science Foundation of China (31627802), les Projets publics de la province du Zhejiang (2016C33059) et les Fonds de recherche fondamentale pour le Universités centrales.

Materials

Name Company Catalog Number Comments
Active X-rail CCM Automation technology Inc., China W50-25 Effective travel, 600 mm; Load, 25 kg
Active Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm, Load 35 kg
Active Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Bearing Taobao.com 6004-2RSH Acrylic
Case Custom mechanical processing TT-C Acrylic
Connecting ring CCM Automation technology Inc., China 57/60-W50
Connecting shaft CCM Automation technology Inc., China D12-700 Diam., 12 mm;Length, 700 mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-12 Inner diam., 12-12mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-14 Inner diam., 14-12mm
Electric slip ring Semring Inc., China SNH020a-12 Acrylic
Locating bar Custom mechanical processing TT-L Acrylic
Motion capture system Motion Analysis Corp. US Eagle-2.36
Neural signal acquisition system Blackrock Microsystems Corp. US Cerebus
NI DAQ device National Instruments, US USB-6341
Object Custom mechanical processing TT-O Acrylic
Passive Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm; Load 35 kg
Passive Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Pedestal CCM Automation technology Inc., China 80-W60
Peristaltic pump Longer Inc., China BT100-1L
Planetary gearhead CCM Automation technology Inc., China PLF60-5 Flange, 60×60 mm; Reduction ratio, 1:5
Right triangle frame CCM Automation technology Inc., China 290-300
Rotator Custom mechanical processing TT-R Acrylic
Servo motor Yifeng Inc., China 60ST-M01930 Flange, 60×60 mm; Torque, 1.91 N·m; for Y- and Z-rail
Servo motor Yifeng Inc., China 60ST-M01330 Flange, 60×60 mm; Torque, 1.27 N·m; for X-rail
Shaft Custom mechanical processing TT-S Acrylic
Stepping motor Taobao.com 86HBS120 Flange, 86×86 mm; Torque, 1.27 N·m; Driving turning table
Touch sensor Taobao.com CM-12X-5V
Tricolor LED Taobao.com CK017, RGB
T-shaped connecting board CCM Automation technology Inc., China 110-120

DOWNLOAD MATERIALS LIST

References

  1. Leone, F. T., Monaco, S., Henriques, D. Y., Toni, I., Medendorp, W. P. Flexible Reference Frames for Grasp Planning in Human Parietofrontal Cortex. eNeuro. 2 (3), (2015).
  2. Caminiti, R., et al. Early coding of reaching: frontal and parietal association connections of parieto-occipital cortex. European Journal of Neuroscience. 11 (9), 3339-3345 (1999).
  3. Georgopoulos, A. P., Schwartz, A. B., Kettner, R. E. Neuronal population coding of movement direction. Science. 233 (4771), 1416-1419 (1986).
  4. Fu, Q. G., Flament, D., Coltz, J. D., Ebner, T. J. Temporal encoding of movement kinematics in the discharge of primate primary motor and premotor neurons. Journal of Neurophysiology. 73 (2), 836-854 (1995).
  5. Moran, D. W., Schwartz, A. B. Motor cortical representation of speed and direction during reaching. Journal of Neurophysiology. 82 (5), 2676-2692 (1999).
  6. Carmena, J. M., et al. Learning to control a brain-machine interface for reaching and grasping by primates. PLoS Biology. 1 (2), E42 (2003).
  7. Li, H., et al. Prior Knowledge of Target Direction and Intended Movement Selection Improves Indirect Reaching Movement Decoding. Behavioral Neurology. , 2182843 (2017).
  8. Reina, G. A., Moran, D. W., Schwartz, A. B. On the relationship between joint angular velocity and motor cortical discharge during reaching. Journal of Neurophysiology. 85 (6), 2576-2589 (2001).
  9. Taylor, D. M., Tillery, S. I., Schwartz, A. B. Direct cortical control of 3D neuroprosthetic devices. Science. 296 (5574), 1829-1832 (2002).
  10. Wang, W., Chan, S. S., Heldman, D. A., Moran, D. W. Motor cortical representation of hand translation and rotation during reaching. Journal of Neuroscience. 30 (3), 958-962 (2010).
  11. Murata, A., Gallese, V., Luppino, G., Kaseda, M., Sakata, H. Selectivity for the shape, size, and orientation of objects for grasping in neurons of monkey parietal area AIP. Journal of Neurophysiology. 83 (5), 2580-2601 (2000).
  12. Raos, V., Umiltá, M. A., Murata, A., Fogassi, L., Gallese, V. Functional Properties of Grasping-Related Neurons in the Ventral Premotor Area F5 of the Macaque Monkey. Journal of Neurophysiology. 95 (2), 709 (2006).
  13. Schaffelhofer, S., Scherberger, H. Object vision to hand action in macaque parietal, premotor, and motor cortices. eLife. 5, (2016).
  14. Baumann, M. A., Fluet, M. C., Scherberger, H. Context-specific grasp movement representation in the macaque anterior intraparietal area. Journal of Neuroscience. 29 (20), 6436-6448 (2009).
  15. Riehle, A., Wirtssohn, S., Grun, S., Brochier, T. Mapping the spatio-temporal structure of motor cortical LFP and spiking activities during reach-to-grasp movements. Frontiers in Neural Circuits. 7, 48 (2013).
  16. Michaels, J. A., Scherberger, H. Population coding of grasp and laterality-related information in the macaque fronto-parietal network. Scientific Reports. 8 (1), 1710 (2018).
  17. Fattori, P., et al. Hand orientation during reach-to-grasp movements modulates neuronal activity in the medial posterior parietal area V6A. Journal of Neuroscience. 29 (6), 1928-1936 (2009).
  18. Asher, I., Stark, E., Abeles, M., Prut, Y. Comparison of direction and object selectivity of local field potentials and single units in macaque posterior parietal cortex during prehension. Journal of Neurophysiology. 97 (5), 3684-3695 (2007).
  19. Stark, E., Asher, I., Abeles, M. Encoding of reach and grasp by single neurons in premotor cortex is independent of recording site. Journal of Neurophysiology. 97 (5), 3351-3364 (2007).
  20. Velliste, M., Perel, S., Spalding, M. C., Whitford, A. S., Schwartz, A. B. Cortical control of a prosthetic arm for self-feeding. Nature. 453 (7198), 1098-1101 (2008).
  21. Vargas-Irwin, C. E., et al. Decoding complete reach and grasp actions from local primary motor cortex populations. Journal of Neuroscience. 30 (29), 9659-9669 (2010).
  22. Mollazadeh, M., et al. Spatiotemporal variation of multiple neurophysiological signals in the primary motor cortex during dexterous reach-to-grasp movements. Journal of Neuroscience. 31 (43), 15531-15543 (2011).
  23. Saleh, M., Takahashi, K., Hatsopoulos, N. G. Encoding of coordinated reach and grasp trajectories in primary motor cortex. Journal of Neuroscience. 32 (4), 1220-1232 (2012).
  24. Collinger, J. L., et al. High-performance neuroprosthetic control by an individual with tetraplegia. The Lancet. 381 (9866), 557-564 (2013).
  25. Lehmann, S. J., Scherberger, H. Reach and gaze representations in macaque parietal and premotor grasp areas. Journal of Neuroscience. 33 (16), 7038-7049 (2013).
  26. Rouse, A. G., Schieber, M. H. Spatiotemporal distribution of location and object effects in reach-to-grasp kinematics. Journal of Neuroscience. 114 (6), 3268-3282 (2015).
  27. Rouse, A. G., Schieber, M. H. Spatiotemporal Distribution of Location and Object effects in Primary Motor Cortex Neurons during Reach-to-Grasp. Journal of Neuroscience. 36 (41), 10640-10653 (2016).
  28. Hao, Y., et al. Neural synergies for controlling reach and grasp movement in macaques. Neuroscience. 357, 372-383 (2017).
  29. Takahashi, K., et al. Encoding of Both Reaching and Grasping Kinematics in Dorsal and Ventral Premotor Cortices. Journal of Neuroscience. 37 (7), 1733-1746 (2017).
  30. Chen, J., et al. An automated behavioral apparatus to combine parameterized reaching and grasping movements in 3D space. Journal of Neuroscience Methods. 312, 139-147 (2019).
  31. Zhang, Q., et al. Development of an invasive brain-machine interface with a monkey model. Chinese Science Bulletin. 57 (16), 2036 (2012).
  32. Hao, Y., et al. Distinct neural patterns enable grasp types decoding in monkey dorsal premotor cortex. Journal of Neural Engineering. 11 (6), 066011 (2014).

Tags

Comportement Numéro 150 appareil automatisé présentation d'objets mouvement de portée à la prise espace 3D primate capture de mouvement
Conception et utilisation d'un apparatus pour la présentation d'objets graspables dans l'espace de travail 3D
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Xu, K., Chen, J., Sun, G., Hao, Y.,More

Xu, K., Chen, J., Sun, G., Hao, Y., Zhang, S., Ran, X., Chen, W., Zheng, X. Design and Use of an Apparatus for Presenting Graspable Objects in 3D Workspace. J. Vis. Exp. (150), e59932, doi:10.3791/59932 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter