Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

3Dワークスペースで把握可能な物体を提示する装置の設計と使用

Published: August 8, 2019 doi: 10.3791/59932

Summary

ここでは、サルが柔軟な手の届く範囲のタスクを実行するように導く自動装置を構築するためのプロトコルを示します。この装置は3D翻訳装置および回転テーブルを結合し、3D空間の任意の位置に複数のオブジェクトを提示する。

Abstract

到達と把握は非常に結合された動きであり、その根底にある神経力学は、過去10年間に広く研究されてきた。エンコーディングの到達と把握を区別するには、その位置に依存しない異なるオブジェクト ID を提示することが不可欠です。この目標を達成するために、回転テーブルと3次元(3D)翻訳装置で組み立てられる自動装置の設計をここに示す。旋回テーブルは異なるグリップタイプに対応する異なるオブジェクトを切り替え、3D変換デバイスは3D空間で回転テーブルを搬送します。どちらもモータによって独立して駆動され、ターゲットの位置とオブジェクトが任意に組み合わされます。一方、手首の軌道とグリップタイプは、それぞれモーションキャプチャシステムとタッチセンサーを介して記録されます。さらに、このシステムを用いて正常に訓練されたサルを実証する代表的な結果が記載されている。この装置は、上肢機能に関連する運動学、神経原理、脳機械インターフェースの研究を容易にすることが期待される。

Introduction

人間以外の霊長類の動きに到達し、把握する根底にある神経原理を研究するために、様々な装置が開発されている。タスクに到達する場合は、タッチスクリーン1、2、ジョイスティック3、4、5、6、7、およびバーチャルリアリティ技術8によって制御される画面カーソル,9,10は、それぞれ2Dターゲットと3Dターゲットを提示するために採用されています。異なるグリップタイプを導入するために、1つの位置に固定された異なる形状の物体または軸の周りを回転させる物体は、把握タスク11、12、13で広く使用された。別の方法として、視覚的な手掛かりを使用して、異なるグリップタイプ 14、15、16、17 で同じオブジェクトを把握するように被験者に通知します。より最近では、到達と把握の動きが一緒に研究されている(すなわち、被験者は、実験セッションで異なるグリップタイプで複数の位置に達し、把握)18、19、20、 21,22,23,24,25,26,27,28,29.初期の実験では、必然的に低時間と空間精度20、21につながるオブジェクトを手動で提示しています。実験精度を向上させ、人手を節約するために、プログラムによって制御される自動プレゼンテーション装置が広く使用されています。ターゲットの位置とグリップタイプを変えるために、実験者は複数のオブジェクトを同時に露出させましたが、ターゲットの相対的な(または絶対)位置とグリップタイプが一緒に結合され、長期的なトレーニングを通じて剛性の発射パターンを引き起こします22 、27、28.オブジェクトは通常、到達する動きと神経活動の多様性を制限する2D平面で提示されます19,25,26.近年、バーチャルリアリティ24やロボットアーム23、29が3D空間に存在する物体を導入している。

ここでは、3D空間における複数のターゲット位置とグリップタイプの任意の組み合わせを達成することができる自動化された装置30を構築および使用するための詳細なプロトコルを示す。オブジェクトを切り替える回転テーブルと3D翻訳デバイスを設計し、3D空間で回転テーブルを搬送しました。回転テーブルおよび翻訳装置は両方とも独立したモーターによって動かされる。一方、被験者の手首と神経信号の3D軌道は、実験全体を通して同時に記録される。装置は、レゲスサルの上肢機能の研究のための貴重なプラットホームを提供する。

Subscription Required. Please recommend JoVE to your librarian.

Protocol

すべての行動および外科的処置は、実験動物のケアと使用のためのガイド(中国保健省)に準拠し、浙江大学の動物ケア委員会によって承認されました。

1.3D翻訳デバイスの組み立て

  1. アルミニウム構造柵(断面:40 mm x 40 mm)のサイズ920のmm x 690のmm x 530のmmのフレームを造る。
  2. ネジでYレールの両端に4台の台座を固定します(図1B)。
  3. 4 つの台座をネジで上面の 4 つのコーナーに固定することにより、フレームの上面に 2 つの Y レールを並列に固定します (図 1B)。
  4. 接続軸と2つのダイヤフラムカップリングで2つのYレールを接続します。カップリングのロックネジを締めて、2本のレールのシャフトを同期させます(図1B)。
  5. Zレールの背面溝に6ナット(M4)を入れてください。直角三角形のフレームの片側をネジでZレールの背面に取り付けます。
  6. 三角形のフレームをシャフトに向かわす端まで引き、ネジを締めます。他の直角三角形フレームを同じ方法で他の Z レールに取り付けます (図 1C)。
  7. 2 つの三角形フレームのもう一方の直角の側面を、ネジ付きの 2 つの Y レールのスライダ (M6) (図 1C)に固定します。
  8. 接続軸とダイヤフラムカップリングで2本のZレールを接続し、カップリングのロックネジを締めます(図1C)。
  9. ナットとネジ(M4)でXレールの背面に2枚のT字型接続ボードを取り付けます。次に、2 つの T 字型ボードを X レールの両端に引っ張り、ネジを締めます (図 1D)。
  10. 2 つの T 字型接続ボードを、それぞれネジ (M6) を使用して 2 つの Z レールのスライダに固定します (図 1D)。
  11. ステッピングモータをギア減速機のシャフト穴に挿入し、フランジを一緒にねじ込みます(図1E)。
  12. 接続リングをネジ(M4)でアクティブXレールのシャフト端に固定します。
  13. Xレールのシャフトをカップリングに挿入し、ギアリデューサをネジ(M4)で接続リングに固定します。 カップリングのロックネジを締めます(図1E)。
  14. ステップ 1.11-1.12 で説明する方法を使用して、他の 2 つのステッピング モータとギア減速装置をアクティブ Y レールと Z レールに固定します。
  15. 3つのステッピングモータの電源ケーブルと制御ケーブルをそれぞれドライバの電源ポートと制御ポートに挿入し、ドライバ側のネジでケーブルを固定します。

2. 旋回テーブルの組み立て

  1. をダウンロードします。このホワイト ペーパーの補足ファイルから DWG デザイン ファイルを設計します。3D印刷または機械加工によってオブジェクト、精神的なシャフト、バー、回転子やケースを配置します。
  2. タッチセンサーをオブジェクト本体の溝に入れ、両面テープであらかじめ定義されたタッチエリアに貼り付けます(図2B)。
    注: 各オブジェクトは、バックボード、内部に溝を持つオブジェクト本体、カバーボード、タッチセンサーの 4 つのサブコンポーネントで構成されます。
  3. オブジェクトバックボードの穴を通してワイヤを渡し、カバーボードをネジでオブジェクト本体に固定します(図2B)。
  4. ローターの側面の穴を通してタッチセンサーのワイヤーを渡し、ねじで回転子にオブジェクトを固定します。(図2C)。
  5. タッチセンサーのワイヤ端を電気スリップリングの回転ワイヤー端部には方式を付け、ジョイントを電気テープで包みます(図2D)。
  6. ケースをネジでXレールのスライダに固定します。ベアリングをボックスの底穴に入れ、ネジ付きケースの上面に位置するバーを固定します(図2E)。
  7. ローターを側面からケースに入れ、回転子、ベアリング、ボックスの軸を一致させる。ケースの上部穴を通して電動スリップリングのワイヤーを渡します(図2F)。
  8. ケースの上部穴からベアリングに金属シャフトを挿入し、シャフトキーを回転子のキーウェイに合わせて(図2G)。
  9. 金属シャフトの周りに電動スリップリングをセットします。外輪が回転するのを防ぐために、位置バーの端を電気スリップリングのノッチに入れきます(図2G)。
  10. ステッピングモーターのシャフトを金属シャフトの穴に挿入し、ネジでボックスの上部にあるモーターを固定します。(図2H)。
  11. モータの電源ケーブルと制御ケーブルをドライバの電源および制御ポートに挿入し、ネジで固定します。
  12. トリコロールLED(RGB)をテープでケースの前面に貼り付け、右側のボードをケースに固定します。

3. 制御システムのセットアップ

  1. 4 つのモータ ドライバの方向およびパルス制御ワイヤを、それぞれデータ集録(DAQ)ボードのデジタルI/Oポート(ピン81、83、85、87)およびデジタルカウンタポート(ピン89、91、93、95)に挿入します。ネジでワイヤーを固定します。
  2. LEDの制御線(「移動」キューに使用される緑色、エラーキューに使用される青色、アイドルを表す赤色)をDAQカードのデジタルI/Oポート(ピン65と66)に挿入し、ネジで固定します。
  3. タッチセンサーの出力ワイヤを挿入し、DAQボードのデジタルI/Oポート(ピン67~77)にスイッチボタンを差し込み、ネジでワイヤを固定します。
  4. 蠕動ポンプの始動止めおよび方向制御ワイヤをそれぞれデジタルI/Oピン1および80に挿入します。流速制御ワイヤをアナログI/OポートAO2に挿入します。ネジでワイヤーを固定します。
  5. 製造元が説明するようにモーション キャプチャ システムをセットアップし、手の軌道を 3D 空間で記録します。
    注:8台のカメラ、パワーハブ、イーサネットスイッチ、サポートソフトウェア(Cortexなど)で構成される商用モーションキャプチャシステム(材料の表を参照)が使用されました。システムのセットアップの詳細については、マニュアルを参照してください。
  6. メーカーが説明するように、被験者からの電気生理学信号を記録する神経信号集録システムをセットアップします。
    注:ニューラル信号プロセッサ(NSP)、フロントエンドアンプ(FEA)、アンプ電源(ASP)、ヘッドステージ、およびサポートソフトウェア(セントラルなど)で構成される商用データ集録システム(材料の表)が使用されました。システムのセットアップの詳細については、マニュアルを参照してください。

4. 実験セッションの準備

  1. 3D変換デバイスと回転テーブルを初期化します。具体的には、すべての線形スライドレールのスライダを開始点(左下隅)に引き出し、回転テーブルの最初のオブジェクト(垂直方向に配置されたハンドル)を回転テーブルの前面に向けます。
  2. モーションキャプチャシステム、ニューラル信号集録、DAQボード、蠕動ポンプ、および4つのモータを含む実験デバイスの電源。
  3. パラダイムソフトウェアをセットアップします(図3A)。
    1. パラダイムソフトウェアを開く(リクエストに応じて利用可能)、Paradigm.exeをダブルクリックします。
    2. 初期位置に対する到達位置とその 3D 座標 (x、y、z、ミリメートル単位)の数を定義します(ステップ 4.2)。
    3. .txt ドキュメント内の行列形式ですべての位置の座標を書き込みます。各行に、スペースで区切られた 1 つの位置の X 座標、Y 座標、および Z 座標が含まれていることを確認します。txt ドキュメントを保存します。
    4. パラダイムソフトウェアのプールパネルで[ファイルを開く]をクリックし、前に保存した.txtドキュメントを選択して、プレゼンテーションの位置をパラダイムソフトウェアに読み込みます。
      注:この研究では、8つの目標位置は、立方体ワークスペース9、10(90 mm x 60 mm x 90 mm)の頂点に位置する動物の到達範囲に従って設定されました。
    5. パラダイムソフトウェアのオブジェクトプールで実験で提示されるオブジェクトを確認します。
    6. パラダイムソフトウェアの[時間パラメータ]パネルで実験パラメータを調整します。ベースライン = 400 ミリ秒、モータラン = 2,000 ミリ秒、計画 = 1,000 ミリ秒、最大反応時間 = 500 ミリ秒、最大到達時間 = 1,000 ミリ秒、最小保留時間 = 500 ミリ秒、特典 = 60 ミリ秒、エラー キュー = 1,000 ミリ秒を設定します。
  4. 首輪を椅子の溝に挿入し、頭部を固定することにより、サルの椅子に(モーター皮質に埋め込まれたマイクロ電極アレイで)レゲスサルを座製します。
  5. サルの椅子をアルミ製の構造フレームに固定します。頭部を立方体の前面から250mm離し、目を立方位置のワークスペースの上側の50mm上に保ちます(水平方向の視野角:20°;垂直方向の視野角:18°)。
  6. モーションキャプチャシステムのトラッキングテンプレートを構築します。
    1. 腕の端(手首に近い)に3つの反射マーカーを両面テープで取り付けます。3 つのマーカーがスケールの三角形を形成していることを確認します。
    2. パラダイム ソフトウェアの[実行]ボタンをクリックしてタスクを開始します。
    3. Cortex ソフトウェアのモーション キャプチャパネルの[録音]ボタンをクリックして、サルがタスクを実行しているときに 3 つのマーカーの軌道を 60 s に記録します。[停止]ボタンをクリックして、実験を中断します。
    4. 記録された軌道を使用してCortexソフトウェア上の3つのマーカーのトラッキングテンプレートを構築し、テンプレートを保存します。
      注:モデルの構築方法の詳細については、Cortex のマニュアルを参照してください。
  7. FEAのGNDポートと、サルのモーター皮質に埋め込まれたマイクロ電極アレイをワイヤーとピンチコックで接続します。次に、マイクロ電極アレイ31のコネクタにヘッドステージを挿入する。
  8. ニューラル信号集録システムの中央ソフトウェアを開き、ストレージパス、ラインノイズキャンセレーション、スパイクフィルタ、スパイクしきい値などの記録パラメータを設定します。
    注:ソフトウェア設定の詳細については、ニューラル信号集録システムのマニュアルを参照してください。
  9. 同期ソフトウェアを開きます (図 3B、要求あり時に使用可能)。Cerebus、モーションキャプチャ、パラダイムパネルの3つの接続ボタンをクリックして、同期ソフトウェアをニューラル信号集録システム、モーションキャプチャシステム、パラダイムソフトウェアとそれぞれ接続します。
  10. パラダイムソフトウェアの実行ボタンをクリックして実験を続行します。
  11. 中央ソフトウェアのファイルストレージパネルの[録音]ボタンをクリックして、ニューラル信号の記録を開始します。
  12. 保存されたトラッキングテンプレートを確認し、Cortexソフトウェアのモーションキャプチャパネルの[録音]ボタンをクリックして、サルの手首の軌跡の記録を開始します。

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

装置の完全なワークスペースのサイズはそれぞれX、Y、およびZ軸で600のmm、300のmmおよび500のmmである。3D翻訳装置の最大負荷は25kgで、旋回テーブル(ステッピングモータを含む)は15kgの重み付けで、最大500mm/sの速度で輸送できます。3D翻訳装置の運動精度は0.1mm未満で、装置のノイズは60dB未満です。

システムの有用性を実証するために、サルはシステム30で遅延到達可能なタスクを行うために(以前に到達タスクで訓練された)訓練を受ける。パラダイムソフトウェアは、上記の手順を使用して、自動的に試行(セッションあたり約500回の試行)で行動実験試験を提示します。具体的には、サルは、ボタンを押して「行く」キューの前にそれを押すことによって、トライアル(図4)を開始する必要があります。最初のステップ(「モータラン」フェーズ)として、3D翻訳デバイスは回転テーブルをランダムに選択された位置に転送し、同時に回転テーブルも回転して、ランダムに選択されたオブジェクトを提示します。このモータの走行相は2sで、4つのモータ(3D翻訳装置に3つ、回転テーブルに1つ)が同時に始動および停止します。モータの走行フェーズに続いて「計画」フェーズ(1秒)が続き、その間にサルは次の動きを計画します。緑色のLED(「go」キュー)がオンになると、サルはボタンを離し、回転テーブルに到達し、できるだけ早く対応するグリップタイプでオブジェクトをつかみます(最大反応時間= 0.5 s;最大移動時間= 1 s)。サルは、0.5sの最小ホールド時間の後に水の報酬を受け取ります。1つのトライアルが中止され、サルが「go」キューの前にボタンを離すか、キューの後の最大反応時間内にボタンを離さない場合、青色のLEDがオンになります。

同期ソフトウェアは、パラダイムソフトウェアとモーションキャプチャシステムからの「スタートレコード」ラベルからイベントラベル(例えば、ボタンオン、ゴーキュー、ボタンオフなど)を受け取り、リアルタイムでニューラル信号集録システムに送信します。実験中に。すべてのラベルは神経信号で保存されますが、手首の軌道は別のファイルに保存されます。ニューラル信号と軌道を時間内に合わせるために、「開始記録」ラベルのタイムスタンプを軌道の最初のサンプルと同じように取り、次いでモーションキャプチャシステムのフレームレートに従って他のサンプルに増分タイムスタンプが割り当てられました。図3は、時間整列イベントラベル、手首の軌道、および例のニューロン活動を示しています。

すべての成功した試験における到達段階における手首の軌道を抽出し、目標位置に基づいて8つのグループに分けた(図5)。軌道の各グループについて、各タイムポイントにおける平均値と95%信頼区間が計算された。図5の軌道プロットは、8つの軌跡群の終端が、定義済みの立方体ワークスペースと同じサイズを持つ立方体を形成することを示しています(ステップ4.3.4)。単一ニューロンに対する回刺激時間ヒストグラム(PSTH)は、それぞれ位置および物体に対してプロットされた。成功した試験のスパイク列車は50ミリ秒のスライドウィンドウでビン化され、ガウスカーネル(σ = 100ミリ秒)で平滑化されました。各グループの平均値と95%信頼区間は、ブートストラップ法(n = 2,000)によって計算された。図6は、到達位置と物体の両方をチューニングする2つの例ニューロンのPSTHを示す。図6Aのニューロンは、到達相および保持段階における有意な選択性を示し、図6Bのニューロンは「モータラン」フェーズの途中から位置および物体の調整を開始する。

Figure 1
図 1: 3D 変換デバイス アセンブリの手順を順を追って説明します。
I-I Xレール、I-III Yレール、I-II Zレール、II接続シャフト、IIIステッピングモーター、IV惑星ギア減速機、Vコネクティングリング、VIダイヤフラムカップリング、VII台座、VIII T字型接続ボード、IX直角フレーム。(A) 翻訳デバイスアセンブリの材料。(B) フレームを構築し、Y レールを取り付けます(手順 1.1 ~ 1.4)。(C) 2 本の Z レールを Y レールに固定する (ステップ 1.5 ~ 1.7)。(D) X レールを Z レールに固定する(ステップ 1.8 および 1.9)。(E) ステッピングモータとギアリキューダの取り付け(ステップ1.10および1.11)。(F) 完全に組み立てられた3D翻訳デバイス(ステップ1.12および1.3)。この図のより大きなバージョンを表示するには、ここをクリックしてください。

Figure 2
図 2: 回転テーブル アセンブリのステップ バイ ステップの手順
(A) テーブルアセンブリを回転するための材料。(B) オブジェクトの組み立てとタッチセンサーの取り付け(ステップ2.2)。(C) オブジェクトを回転子に固定する(ステップ 2.3)。(D) センサーのワイヤーを電動スリップリングに接続する(ステップ2.4)。(E) ベースを 3D 変換デバイスに取り付け、位置決めバーとベアリングを配置します(ステップ 2.5)。(F) ローターをケースに入れる(ステップ2.6)。(G) シャフトと電動スリップリング(ステップ2.7および2.8)を取り付します。(H) ステッピングモータの取り付け(ステップ2.9)。この図のより大きなバージョンを表示するには、ここをクリックしてください。

Figure 3
図 3: パラダイムおよび同期ソフトウェアのグラフィカル ユーザー インターフェイス。
(A) 動作タスクを制御するカスタムメイドの LabView プログラム。(B) パラダイムソフトウェア、ニューラル信号集録システム、モーションキャプチャシステムと通信するためのカスタムメイドのC++プログラム。この図のより大きなバージョンを表示するには、ここをクリックしてください。

Figure 4
図 4: 成功したトライアルでデータを調整した時間。
すべてのイベントタイミング、手首軌道(X、Y、Z)およびニューロン活動(例えばユニット1-3)を同時に記録した。一番上の行の短い黒い線はイベント ラベルです。「ボタンオン」は、サルがボタンを押し下げた時刻を示します。「ポジションインデックス」は、どの位置が提示されたかを示す1~8の数値です。"オブジェクト インデックス" は、表示されるオブジェクトを示す 1 ~ 6 の数値です。「モータオン」は、4つのモータの始動時刻を示します。「モーターオフ」は停止時間を示します。「ゴーキュー」は、緑色のLEDがオンになった瞬間を示します。「ボタンオフ」は、サルがボタンを離した瞬間を示します。「タッチオン」は、オブジェクト内のタッチセンサーが手を検出した瞬間を示します。「リワードオン」は、ポンプが水の報酬を提供し始めた瞬間を示し、トライアルの終了を表します。「ボタンオン」、「位置インデックス」、「オブジェクトインデックス」ラベルは、トライアルの開始時に非常に短い時間で連続して保存されます。行 2 ~4 (X、Y、Z でラベル付け) は、モーション キャプチャ システムによって記録された 3D で手首の軌道をプロットします。行5〜7(ユニット1、2および3で標識)は、神経信号集録システムによって記録された3つの例ニューロンのスパイク列車を示す。一番下の行には、イベントラベルに基づいて 6 つのフェーズに分けられた完全な試用版のタイムラインが表示されます。この図のより大きなバージョンを表示するには、ここをクリックしてください。

Figure 5
図5:モーションキャプチャシステムで記録した手首の軌跡。
すべての成功した試験は、ターゲットの位置に応じて8つのグループに分けられます(文字AからH)。各実線は 1 つのグループの平均軌道であり、影は軌道の分散を表します。この数値は、以前の研究30から変更されています。この図のより大きなバージョンを表示するには、ここをクリックしてください。

Figure 6
図6:2例ニューロン(AおよびB)のPSTHs。
順番に右から左に向かう垂直破線は、モーターオン、モーターオフ、ゴーキューオン、ボタンオフ、タッチオンです。PSTHの各実線(異なる色)は、1つのターゲット位置に向かって試行中の平均発射率を表し、シャドウは95%の信頼区間(ブートストラップ、2,000倍)を表します。ABの両方について、上下のパネルはそれぞれ異なる位置とオブジェクトに対して PSTH を示します。この図のより大きなバージョンを表示するには、ここをクリックしてください。

補足ファイル。 ファイルをダウンロードするには、ここをクリックしてください。

Subscription Required. Please recommend JoVE to your librarian.

Discussion

ここで説明する行動装置は、異なる到達および把握の動きの試行的な組み合わせを可能にする(すなわち、サルは、各試験の任意の3D位置で異なる形状の物体を把握することができる)。これは、異なるオブジェクトを切り替えるカスタム回転テーブルと、3D 空間内の複数の位置に回転テーブルを転送する線形変換デバイスの組み合わせによって実現されます。さらに、サルからの神経信号、手首の軌跡、手の形を記録し、神経生理学的研究のために同期することができました。

この装置は、別々に駆動される3D翻訳装置および回転テーブルを含み、複数のターゲット位置および物体を個別に提示する。すなわち、定義されたすべての位置と物体は任意に組み合わされ、これは多変変数符号化14、25、28を研究する上で重要である。それどころか、把握する物体が位置にリンクされている場合(例えば、オブジェクトがパネル上に固定されている場合)、単一のニューロンが物体をチューニングするか、18、27、32位置をチューニングするかを判断することは困難である。さらに、この装置は、空間変調によりより多くのニューロンを活性化する2D平面19、27の代わりに3D空間に物体を提示する。

ボルト締結は装置のサブコンポーネント間で広く使用されており、高い広がりと柔軟性をもたらします。物体の形状やタッチセンサーの配置を設計することで、多数のグリップタイプを正確に誘導し、同定しました。3D移動デバイスは、3D空間で25 kg未満のサブコンポーネントを移動でき、空間変位を伴うほとんどのタスクに適しています。また、この装置はアカザル(マカカ・ムラッタ)を訓練するように設計されたが、3D翻訳装置の調整可能な範囲のために、それはまた、同様またはより大きい体サイズまたは人間を有する他の霊長類のために有能である。

動きの到達と把握を組み合わせた行動タスクの大きな懸念事項の1つは、サルが同じグリップタイプの物体をつかんでも、手の姿勢が異なる位置で異なるかどうかである。到達と把握は一般的に2つの異なる動きとみなされますが、エフェクタ(腕と手)が接続されています。したがって、到達する動きが把握と相互作用することは避けられません。今回の実験では、同じ物体を異なる位置でつかむと手首の角度が若干変化したが、手の姿勢に大きな違いは認められなかった。

装置の潜在的な制限の1つは、実験室がモーションキャプチャシステムからの赤外線のために完全に暗くならないことです。サルは、計画期間の前に望ましくないチューニングにつながるトレイル全体を通してターゲットオブジェクトを見ることができます。物体への視覚的なアクセスを制御するために、パラダイムソフトウェアによって制御される切り替え可能なガラスは頭部および装置の間に置くことができる。切り替え可能なガラスは、ベースラインおよび計画段階で不透明になり、「go」キューの後に透明になります。このようにして、視覚情報は正確に制御されます。同じように、ホワイトノイズを使用してモータの走行音をマスクできるため、サルがモーターの音で物体の位置を識別できなくなります。装置のもう一つの制限は、指の動きを追跡できないことである。これは、サルが物体をつかむために旋回テーブルに手を伸ばす必要があり、カメラが手にマークを取るのを妨げるためです。

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

著者は何も開示していない。

Acknowledgments

シジャン・シェン氏の装置設計に関するアドバイスと、動物のケアとトレーニングに関する支援を行ってくださったギフア・ワンさんに感謝します。この研究は、中国国家主要研究開発プログラム(2017YFC1308501)、中国国家自然科学財団(31627802)、浙江省公共事業(2016C33059)、および基礎研究基金の支援を受けた。中央大学

Materials

Name Company Catalog Number Comments
Active X-rail CCM Automation technology Inc., China W50-25 Effective travel, 600 mm; Load, 25 kg
Active Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm, Load 35 kg
Active Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Bearing Taobao.com 6004-2RSH Acrylic
Case Custom mechanical processing TT-C Acrylic
Connecting ring CCM Automation technology Inc., China 57/60-W50
Connecting shaft CCM Automation technology Inc., China D12-700 Diam., 12 mm;Length, 700 mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-12 Inner diam., 12-12mm
Diaphragm coupling CCM Automation technology Inc., China CCM 12-14 Inner diam., 14-12mm
Electric slip ring Semring Inc., China SNH020a-12 Acrylic
Locating bar Custom mechanical processing TT-L Acrylic
Motion capture system Motion Analysis Corp. US Eagle-2.36
Neural signal acquisition system Blackrock Microsystems Corp. US Cerebus
NI DAQ device National Instruments, US USB-6341
Object Custom mechanical processing TT-O Acrylic
Passive Y-rail CCM Automation technology Inc., China W60-35 Effective travel, 300 mm; Load 35 kg
Passive Z-rail CCM Automation technology Inc., China W50-25 Effective travel, 500 mm; Load 25 kg
Pedestal CCM Automation technology Inc., China 80-W60
Peristaltic pump Longer Inc., China BT100-1L
Planetary gearhead CCM Automation technology Inc., China PLF60-5 Flange, 60×60 mm; Reduction ratio, 1:5
Right triangle frame CCM Automation technology Inc., China 290-300
Rotator Custom mechanical processing TT-R Acrylic
Servo motor Yifeng Inc., China 60ST-M01930 Flange, 60×60 mm; Torque, 1.91 N·m; for Y- and Z-rail
Servo motor Yifeng Inc., China 60ST-M01330 Flange, 60×60 mm; Torque, 1.27 N·m; for X-rail
Shaft Custom mechanical processing TT-S Acrylic
Stepping motor Taobao.com 86HBS120 Flange, 86×86 mm; Torque, 1.27 N·m; Driving turning table
Touch sensor Taobao.com CM-12X-5V
Tricolor LED Taobao.com CK017, RGB
T-shaped connecting board CCM Automation technology Inc., China 110-120

DOWNLOAD MATERIALS LIST

References

  1. Leone, F. T., Monaco, S., Henriques, D. Y., Toni, I., Medendorp, W. P. Flexible Reference Frames for Grasp Planning in Human Parietofrontal Cortex. eNeuro. 2 (3), (2015).
  2. Caminiti, R., et al. Early coding of reaching: frontal and parietal association connections of parieto-occipital cortex. European Journal of Neuroscience. 11 (9), 3339-3345 (1999).
  3. Georgopoulos, A. P., Schwartz, A. B., Kettner, R. E. Neuronal population coding of movement direction. Science. 233 (4771), 1416-1419 (1986).
  4. Fu, Q. G., Flament, D., Coltz, J. D., Ebner, T. J. Temporal encoding of movement kinematics in the discharge of primate primary motor and premotor neurons. Journal of Neurophysiology. 73 (2), 836-854 (1995).
  5. Moran, D. W., Schwartz, A. B. Motor cortical representation of speed and direction during reaching. Journal of Neurophysiology. 82 (5), 2676-2692 (1999).
  6. Carmena, J. M., et al. Learning to control a brain-machine interface for reaching and grasping by primates. PLoS Biology. 1 (2), E42 (2003).
  7. Li, H., et al. Prior Knowledge of Target Direction and Intended Movement Selection Improves Indirect Reaching Movement Decoding. Behavioral Neurology. , 2182843 (2017).
  8. Reina, G. A., Moran, D. W., Schwartz, A. B. On the relationship between joint angular velocity and motor cortical discharge during reaching. Journal of Neurophysiology. 85 (6), 2576-2589 (2001).
  9. Taylor, D. M., Tillery, S. I., Schwartz, A. B. Direct cortical control of 3D neuroprosthetic devices. Science. 296 (5574), 1829-1832 (2002).
  10. Wang, W., Chan, S. S., Heldman, D. A., Moran, D. W. Motor cortical representation of hand translation and rotation during reaching. Journal of Neuroscience. 30 (3), 958-962 (2010).
  11. Murata, A., Gallese, V., Luppino, G., Kaseda, M., Sakata, H. Selectivity for the shape, size, and orientation of objects for grasping in neurons of monkey parietal area AIP. Journal of Neurophysiology. 83 (5), 2580-2601 (2000).
  12. Raos, V., Umiltá, M. A., Murata, A., Fogassi, L., Gallese, V. Functional Properties of Grasping-Related Neurons in the Ventral Premotor Area F5 of the Macaque Monkey. Journal of Neurophysiology. 95 (2), 709 (2006).
  13. Schaffelhofer, S., Scherberger, H. Object vision to hand action in macaque parietal, premotor, and motor cortices. eLife. 5, (2016).
  14. Baumann, M. A., Fluet, M. C., Scherberger, H. Context-specific grasp movement representation in the macaque anterior intraparietal area. Journal of Neuroscience. 29 (20), 6436-6448 (2009).
  15. Riehle, A., Wirtssohn, S., Grun, S., Brochier, T. Mapping the spatio-temporal structure of motor cortical LFP and spiking activities during reach-to-grasp movements. Frontiers in Neural Circuits. 7, 48 (2013).
  16. Michaels, J. A., Scherberger, H. Population coding of grasp and laterality-related information in the macaque fronto-parietal network. Scientific Reports. 8 (1), 1710 (2018).
  17. Fattori, P., et al. Hand orientation during reach-to-grasp movements modulates neuronal activity in the medial posterior parietal area V6A. Journal of Neuroscience. 29 (6), 1928-1936 (2009).
  18. Asher, I., Stark, E., Abeles, M., Prut, Y. Comparison of direction and object selectivity of local field potentials and single units in macaque posterior parietal cortex during prehension. Journal of Neurophysiology. 97 (5), 3684-3695 (2007).
  19. Stark, E., Asher, I., Abeles, M. Encoding of reach and grasp by single neurons in premotor cortex is independent of recording site. Journal of Neurophysiology. 97 (5), 3351-3364 (2007).
  20. Velliste, M., Perel, S., Spalding, M. C., Whitford, A. S., Schwartz, A. B. Cortical control of a prosthetic arm for self-feeding. Nature. 453 (7198), 1098-1101 (2008).
  21. Vargas-Irwin, C. E., et al. Decoding complete reach and grasp actions from local primary motor cortex populations. Journal of Neuroscience. 30 (29), 9659-9669 (2010).
  22. Mollazadeh, M., et al. Spatiotemporal variation of multiple neurophysiological signals in the primary motor cortex during dexterous reach-to-grasp movements. Journal of Neuroscience. 31 (43), 15531-15543 (2011).
  23. Saleh, M., Takahashi, K., Hatsopoulos, N. G. Encoding of coordinated reach and grasp trajectories in primary motor cortex. Journal of Neuroscience. 32 (4), 1220-1232 (2012).
  24. Collinger, J. L., et al. High-performance neuroprosthetic control by an individual with tetraplegia. The Lancet. 381 (9866), 557-564 (2013).
  25. Lehmann, S. J., Scherberger, H. Reach and gaze representations in macaque parietal and premotor grasp areas. Journal of Neuroscience. 33 (16), 7038-7049 (2013).
  26. Rouse, A. G., Schieber, M. H. Spatiotemporal distribution of location and object effects in reach-to-grasp kinematics. Journal of Neuroscience. 114 (6), 3268-3282 (2015).
  27. Rouse, A. G., Schieber, M. H. Spatiotemporal Distribution of Location and Object effects in Primary Motor Cortex Neurons during Reach-to-Grasp. Journal of Neuroscience. 36 (41), 10640-10653 (2016).
  28. Hao, Y., et al. Neural synergies for controlling reach and grasp movement in macaques. Neuroscience. 357, 372-383 (2017).
  29. Takahashi, K., et al. Encoding of Both Reaching and Grasping Kinematics in Dorsal and Ventral Premotor Cortices. Journal of Neuroscience. 37 (7), 1733-1746 (2017).
  30. Chen, J., et al. An automated behavioral apparatus to combine parameterized reaching and grasping movements in 3D space. Journal of Neuroscience Methods. 312, 139-147 (2019).
  31. Zhang, Q., et al. Development of an invasive brain-machine interface with a monkey model. Chinese Science Bulletin. 57 (16), 2036 (2012).
  32. Hao, Y., et al. Distinct neural patterns enable grasp types decoding in monkey dorsal premotor cortex. Journal of Neural Engineering. 11 (6), 066011 (2014).

Tags

挙動、問題150、自動装置、物体提示、手の届く動き、3D空間、霊長類、モーションキャプチャ
3Dワークスペースで把握可能な物体を提示する装置の設計と使用
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Xu, K., Chen, J., Sun, G., Hao, Y.,More

Xu, K., Chen, J., Sun, G., Hao, Y., Zhang, S., Ran, X., Chen, W., Zheng, X. Design and Use of an Apparatus for Presenting Graspable Objects in 3D Workspace. J. Vis. Exp. (150), e59932, doi:10.3791/59932 (2019).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter