触覚/グラフィックリハビリテーション:仮想環境のライブラリにロボットを統合し、脳卒中治療に適用すること

Bioengineering
 

Summary

最近では、見通しの膨大な量は、人間とロボットの対話的なシステムに利用可能なってきた。本稿では、急速にインタラクティブ機能の可能なライブラリを作ることができるオープンソースソフトウェアを使用して、新しいロボットデバイスの統合の概要を説明します。私たちは、その後、神経リハビリテーションのアプリケーションのための臨床応用を概説する。

Cite this Article

Copy Citation | Download Citations

Sharp, I., Patton, J., Listenberger, M., Case, E. Haptic/Graphic Rehabilitation: Integrating a Robot into a Virtual Environment Library and Applying it to Stroke Therapy. J. Vis. Exp. (54), e3007, doi:10.3791/3007 (2011).

Please note that all translations are automatically generated.

Click here for the english version. For other languages click here.

Abstract

長期治療の​​実践のための対話型デバイスをテストする最近の研究では、バイオフィードバックのグラフィックや他の形態と組み合わせてロボットのための新たな展望を明らかにした。前の人間とロボットの対話型システムでは、新しいシステムが利用可能になるたびに不要な発達オーバーヘッドの時間に至る各ロボットに実装するさまざまなソフトウェアコマンドを必要としてきた。例えば、触覚/グラフィック仮想現実環境は触覚フィードバックを提供するために、ある特定のロボット用にコーディングされている場合、その特定のロボットは、プログラムをコーディングすることなく別のロボットのために取引されることができないだろう。しかし、オープンソースコミュニティの最近の努力に関係なく使用されるロボットのほぼ同じ応答を引き出すことができるラッパークラスのアプローチを提案した。その結果、共有コードを使用して同様の実験を行うために、世界中の研究者を導くことができる。したがって、もう一台のロボットの"アウトスイッチング"モジュラーは、開発時間には影響しません。本稿では、ソフトウェアは最も一般的にすべてのロボットが使用されるコマンドに統合するオープンソースH3DAPI、への1つのロボットのためのラッパークラスの作成に成功したと実装の概要を示します。

Protocol

はじめ

直感的で効率的なインタラクティブな環境のためのヒューマンマシンインタラクション(HMI)のすべてのニーズが高まっています。リハビリテーション用ロボット、自動車産業、金属の製造、包装機械、医薬品、食品、飲料、およびユーティリティ:多くの産業は、次のようなHMIに、より大きく依存し続ける。これらの業界で採用技術が含まれます:表示端末、パーソナルコンピュータ、およびHMIソフトウェア。これらの技術は、無制限の機能を実行するために組み合わせることができます。

ロボットは、音楽講師としてなど、ユーザーと直接対話を促進するために使用されることがあります。例えば、早稲田大学の研究者は、再生する方法を人々に教えるために、学生と教師1の間の相互作用を理解するためにサックスを演奏するロボットを作成しました。他のロボット研究者は人工知能は環境2のインテリジェントな相互作用に発展するかもしれないか決定するために、ビジョンベースの飛行ロボットを行っている。このホワイトペーパーの特定の濃度は、リハビリ用ロボット内に存在する。

研究と産業の領域内に、新製品やユーザー要件の変化の速いペースで成長を続けている。これらの要求は、スケーラビリティに大きな課題を課す。したがって、コード設計は、タイムリーに、これらのエンティティのニーズを満たすのに不可欠となっています。したがって、強力なアーキテクチャの候補者の質は、ドライバのサポートが含まれて簡単に交換可能なグラフィックロボットシステムが含まれます。 H3DAPIアーキテクチャは、これらのニーズを満たしているため、ラッパークラスが作成されました。さらに、H3Dは、リハビリ用ロボットに必要な、仮想現実の環境用に設計されています。

神経リハビリテーションロボティクス、リハビリテーションの専門家を支援する目的のためにロボットを活用しようとしています。これらのロボットが提供する支援は、フォースフィールドの形式で提供されます。外部から印加される力場のようなShadmehrとMussa -イバルディ、使用される力の場のモータの適応を促進するために、そして1を発見したとして渡されたモータコマンドの研究者)の適応が)を含めて動きの異なるクラスで発生するが、到達運動に限定されない、と2適応は、外部フィールドの3の同じ地域を訪問し、異なる動きを越えて一般化する。パフォーマンスベースのプログレッシブロボット介在療法における生体力学的なエンジニアからの研究は、繰り返し、タスク固有の、目標指向は、ロボット介在療法は、脳卒中4の後に、影響を受けた腕の運動障害を低減するのに有効であることを示していますが、正確な治療効果とパラメータ研究の分野であり続ける。

感覚フィードバックは、学習や適応に影響を与えます。したがって、次の論理的な質問は、人為的にそのようなフィードバックの大きさを大きくすると学習/適応速く以上完全促進するかどうかを尋ねるだろう。一部の研究者は、ミスを高めるために大きな感覚フィードバック力や視覚的な手掛かりを適用すると適応/学習5,6のより高いレベルを促進するために十分な神経学的な刺激を提供できることを見出した。これは、"エラーの増大"として知られています。この現象は、モータの制御動作の一度だけの成果が理想から外れているという事実に起因するかもしれない、私たちの内部モデルを自己調整誤差の大きさに応じて。その結果、私たちの内部モデルとして、外部環境、タスクの減少の実行中にエラーが近づく。

多くの現在の医療政策はセラピストとの時間を過ごすことができる時間の患者の量を制限するものの研究は、機能の回復のための機能的に関連する活動の長期実践をサポートし続けています。説得力のある質問は、技術のこれらの新しいアプリケーションは、単にケアの現在の状態のより高い用量を与えるよりも先に進むことができるかどうかです。人間と機械の相互作用の研究は、運動学習の分野で新たな展望を明らかにした、といくつかのケースでは治療のプロセスに付加価値を提供することができます。コンピュータディスプレイとの組み合わせに特化ロボットデバイスは、モータの再学習を、スピードアップの強化、またはトリガするために、エラーのフィードバックを増やすことができます。本稿ではこの技術の応用の一例として、臨床的介入の​​ために開発されたシステムを使用しての方法論を紹介します。

1。ロボットのためHAPIラッパークラスの確立

  1. 独自の。cppファイルおよびヘッダファイルを作成することにより、HAPIハプティックスライブラリのラッパーを作成します。例えば、我々は、名前のHAPIWAM.cppとHAPIWAM.hを使用します。
  2. ソースディレクトリに入れますHAPIWAM.cpp:HAPI / srcに
  3. ヘッダファイルのディレクトリに配置HAPIWAM.h:HAPI /インクルード/ HAPI
  4. HAPIWAM.hの上部に、なるWAMバレット、の場合には、あなたのロボットのメインヘッダーファイル(複数可)が含まれます:

<EM>をextern"C"{
#<include/btwam.h>含まれています
}
#<HAPI/HAPIHapticsDevice.h>含まれています

注:付属のライブラリは、'C'とH3DAPIで書かれているためにextern"C"は、コンパイラのマングリングを解決するために必要なC + +で書かれ。

  1. HAPIWAM.hでは、あなたのクラスを作成し、次の4つの機能が含まれています

ブール値initHapticsDevice(int型);
ブール値releaseHapticsDevice();
ボイドupdateDeviceValues(DeviceValues&DV、HAPITime DT);
ボイドsendOutput(HAPIHapticsDevice::DeviceOutput&D、HAPITime t)は;

  1. あなたのクラスがHAPIhapticsdeviceクラスから公に継承することを確認してください。
  2. あなたのクラスのヘッダーのガードを作成します。
  3. HAPIWAMクラスの下の静的DeviceOutputと静的HapticsDeviceRegistration属性を作成します。
  4. コー​​ルバック用の静的メンバ関数を作成します。
  5. HAPIWAM.cppで、コンストラクタとデストラクタを定義します。
  6. HAPIWAM.cppでデバイスを登録してください。
  7. HAPIWAM.cppであなたの4継承された関数とコールバックを定義します。

2。 HAPIライブラリの作成

  1. 我々はHAPIのラッパークラスを作成したので、我々は、HAPIライブラリにあなたのラッパーを構築する必要があります。 WAMはH3DAPIはその生の形式に依存しないいくつかのライブラリに依存し、従ってこれらのライブラリは、HAPIに追加する必要があります。 HAPI / HAPI /ビルドに移動し、CMakeLists.txtを編集します。 'SET(OptionalLibs)"という行の後に依存ライブラリを追加します。
  2. コマンドコンソールを開き、次の場所に移動します。HAPI / HAPI /ビルドと次の順序で3つのコマンドを入力します。

cmakeの。
sudoは行う
sudoはmake installを

3。 H3Dラッパークラス

  1. あなたのHAPIWAMでH3Dライブラリのラッパークラスを作成するには、最初にソースディレクトリにWAMDevice.cppを作成します。H3DAPI/srcを
  2. ヘッダファイルのディレクトリに配置WAMDevice.h:H3DAPI/include/H3D
  3. WAMDevice.hはあなたが好きに置き換えた名前で、すべてのH3DAPIデバイス用の標準ヘッダファイルを含める必要があります。
  4. WAMDevice.cpp何でも好きなものに置き換えた名前で、すべてのH3DAPIデバイスの標準的なソースが含まれている必要があります。
  5. ラッパークラスが作成されたので、H3DAPIライブラリを再構築。 H3DAPI/build:のみディレクトリの下に、ステップ2.1で実行されたのと同じ方法でCMakeLists.txtを編集することによってこれを行います。
  6. ディレクトリH3DAPI/build下H3DAPIライブラリを再構築

cmakeの。
sudoは行う
sudoはmake installを

4。有限状態マシン

  1. すべてのターゲットに及ぶプログラムは、実験プロトコルや練習の政体を制御するための有限状態マシンを作成する必要があります。代表的なステートマシンは、次のとおりです。トライアルのスタート、打ち上げ、ターゲットの連絡先、および試用版の終了を。各状態、および状態の間で転送するための基準の関数の例を以下に示します。
  2. 試験の開始は、ターゲットの割り当てが必要になります。ターゲットの位置は、各試行ごとにランダムに設定することができますまたはファイルから設定することができます。試験の開始は、一度ユーザーが速度しきい値、毎秒通常は0.06メートル上記の目標に向かって打ち上げている終わります。
  3. 起動状態は、試験開始後に発生します。ユーザーがターゲットに触れるか一定時間、ターゲットの内側に留まると、この状態はどちら終了します。ターゲットをタッチされると、これはターゲットの連絡先の状態が有効になります。
  4. ターゲットのお問い合わせは、起動状態の間に発生します。被験者が一定の期間内のターゲット内に存在した後、ターゲットが触れたりされるとすぐに終了することがあります。この時間が経過すると、試用版の状態の終了が有効になっています。
  5. 試用状態の終了は、ソフトウェア開発者は、各試験の終わりを区切るために、使用した構文解析するものは何でも、データファイルをマークするためにデータ収集ソフトウェアを通知する必要があります。最後の試験が完了している場合を除き、試験状態の終わりの終わりは、試用版の状態の開始を可能にします。

5。アプリケーション:脳卒中患者のリハビリテーション

  1. ロボットインタフェースは、そうでなければ行うことができない何かを有効にするためにロボットを使用しながら、セラピストの専門知識を含むように設計されています。いくつかの既知の理由により、再学習のプロセス(図1)を向上させる患者によって知覚誤差を拡大エラーの増大、、の技術を有効にアプリケーション(詳細は後述)。
  2. 三次元触覚/グラフィックシステムは、バーチャルリアリティ、ロボットと光操作機(VRROOM)と呼ばれる。このシステムは、以前に6を示したが、投影ステレオ、手首の位置を記録し、力のベクトルを(図2)生成されたロボットシステムと半銀ミラーのオーバーレイディスプレイのヘッド追跡レンダリングを組み合わせる。
  3. シネマ品質のディgitalプロジェクター(クリスティミラージュ3000 DLP)が110 °広視野角で、その結果、5フィートワイド1280 × 1024ピクセルのディスプレイにまたがる画像を表示します。赤外線エミッターは、液晶ディスプレイ(LCD)シャッターメガネ(ステレオグラフィックス株式会社)を介して別個の左と右眼の画像を同期。アセンションは、視覚的なディスプレイが適切なヘッドを中心とした視点でレンダリングされたように、磁気素子は、ヘッドの動きを追跡鳥の群れ。
  4. 研究のために予選の際、各参加者の機能的能力は、それぞれの後の一週間のフォローアップと全体の45日間のフォローアップ評価でそれぞれの治療のパラダイムの開始と終了時にブラインド評価者により評価した。各評価は含めVRROOMだけでなく、臨床評価で行われる運動(ROM)評価の範囲から成っていた:ボックスおよびブロックアセスメント、ウルフ運動機能テスト(WMFT)、Fugl - マイヤー(AMFM)のアームのモーター部、およびシンプルな機能リーチ(ASFR)の評価。
  5. 手首の添え木とexotendon手袋は中立手首と手の位置合わせを支援するために利用された。ロボットハンドルのセンターが前腕に装着したその力は、手首で行動したが、手で動きを許可するように橈骨手根関節の後方に置かれた。
  6. 患者の腕の重量がバネ駆動ウィルミントンロボット外骨格(WREX)重力バランス装具を用いて軽減された。患者さんの指示の目標は、彼らの前に提示カーソルがセラピストの手(セラピストの遠隔操作)で追跡装置を経由して移動追いかけていました。
  7. 患者は患​​者、セラピスト、そしてトリオで一緒に働くロボットで、約40〜60分間、週三日の練習。件名とセラピストがside - by - side座って、そして件名は手首でロボットに接続されていた。
  8. 各セッションは、マシンに患者を置くことで約10分、続いセラピストによる動きのエクササイズの受動的な範囲(PROM)、の5分で始まった。被験者は、その後5分ごとに各ブロックの間に2分間の休息期間が続く運動トレーニングの6ブロックを完了した。
  9. 研修中、参加者は、ステレオのディスプレイ上の2つのカーソルを表示。参加者が他を支配しながら治療するセラピストは、つのカーソルを操作する。患者は、それはワークスペース全体に移動したとしてセラピストのカーソルの正確なパスに従うように指示された。
  10. エラーの増大は、視覚的にもロボットによって生じる力によって提供されていました。参加者がセラピストのカーソルから逸脱したとき、瞬時誤差ベクトルeは、セラピストのカーソルと参加者の手との間の位置の違いとして設立されました。エラーが視覚的にエラーの増強の一環として、1.5 E(M)の要因によって拡大された。さらに、100 E(N / m)の誤差増大させる力は、安全上の理由から4 Nの最大値で飽和するようにプログラムされた、適用された。
  11. すべての他の治療法のブロックは、各セッションで同じであった特定の、標準化の動きから成っていた。他のブロックは、セラピストは、セラピストの専門知識とそれらの観察に基づいて、弱点の特定の領域で研修をカスタマイズすることができました。前方に含むと側面が到達する、肩、肘のカップリング、そして身体全体に達する対角線、治療プロトコルは、すべての参加者のための特定の動きの練習が含まれています。
  12. 練習しながら、日々の中央値誤差は、実践の一つの結果として測定した。特別な注意がセッションごとに同じであった標準化の動きのブロックに与えられた。これらは、任意の増分の改善が患者に報告できる日々、、セラピスト、そして介護者(図3)で観察することができるかどうかを決定する前の日と比較した。
  13. 結果の主な施策は、利益の保持を決定するために1週間、治療の終了後、毎週測定、および45日後にされた。主要な成果はFugl - Meyerの運動能力の得点と運動の範囲を測定し、カスタマイズアームリーチテストだった。

6。代表的な結果:

<AnyDevice>ノードがH3DViewerまたはH3DLoadにロードされると、プロトコルが正しく行われると、その後、WAMデバイスが認識され、開始する必要があります。 WAMは、別のロボットに置き換えていた場合は、コード自体を変更する必要はない。

図1
触覚/グラフィック装置に座っている図1。件名。

図2
触覚/理学療法士とのグラフィック装置に座っている図2。件名。

図3
図3。リハビリテーションO用の設定F脳卒中患者。一緒に働くA)の対象とセラピスト、装着され、動きを練習するために大規模ワークスペースハプティック/グラフィックディスプレイを使用して。セラピストは、サブジェクトのキューを提供し、患者のニーズに合わせて調節できる。ロボットは、離れてターゲットから手足をプッシュ力を提供し、視覚フィードバックシステムは、カーソルのエラーを高めます。日から日までB)典型的な慢性脳卒中患者の改善。各ドットは、ステレオタイプの機能運動の2分のブロックのために測定された中央値エラーを表します。患者は2週間の期間にわたって進行し、総合的な利点を示していますが、この人は常に毎日改善しなかった。

Discussion

ラッパークラスの実装のこのメソッドは、H3DAPIを使用する場合は、ソースコードを変更することなく、使用する別のロボットが可能になります。具体的には、H3Dで彼らの触覚/グラフィック環境を書かれ、ファントムのロボットで、その実験をテストした研究者は、WAMバレット、およびその逆を使用して、同じまたは同様の実験を行うことができるだろう。デバイスに依存しないクロスコミュニケーションのこのタイプは、国際的リハビリテーションロボットの研究のための含意を運びます。そのような意味合いでは急速な触覚/グラフィック開発、国際共同研究、および間研究室のコミュニケーションを促進する。

リハビリテーションロボットは、運動学習に関与して多数のパラメータを明らかにまだ持っています。触覚/グラフィックスを開発する際に時間のかかるステップの一つは、コンパイル時間が含まれています。各プログラムのコンパイル時間を配合した数多くのリハビリテーションのパラメータを持つ、すべての可能なグループの組み合わせをテストするために、開発ライフサイクルが急激に上昇。コンパイル要件のその不在とH3Dは、多数の仮想現実シーンの迅速な開発が可能になります。これは、様々な訓練のシナリオの効果を調べるために目指すもの研究者のための利点として提供されます。

この"ハードコードラッパークラスの統合アプローチの限界は、この手順はH3DAPIの新しいディストリビューションがあるたびに繰り返す必要があるという事実が含まれています。 H3DAPIの最新ディストリビューションにラッパークラスを統合するための実行可能な変更はH3DAPIとは別にラッパークラスを作成することです。次に、*.ので、ライブラリファイルにあなたのラッパークラスをかけることになります。これは、元のH3DAPIのディストリビューションからクラスを分離するだろう。

Disclosures

このチュートリアルでラッパークラスは、イアンシャープで、著作権のある。

Acknowledgements

私はブライアンZenowich、ダニエルEvestedtとWinsean林の技術的な助けに感謝します。

Materials

  1. The Display called paris (personal augmented reality immersion system), can be found at www.evl.uic.edu
  2. The large gray robot is the Barrett WAM: www.barrett.com
  3. The smaller, skinnier black robot is the Phantom: www.sensable.com
  4. The arm mount is the T-WREX, developed at the RIC: http://www.ric.org/research/centers/mars2/Projects/development/d3.aspx
  5. The shutter glasses for 3d vision: www.vrlogic.com
  6. Head tracking software. www.mechdyne.com
  7. The H3DAPI itself: www.h3dapi.org

DOWNLOAD MATERIALS LIST

References

  1. Solis, J., Takeshi, N., Petersen, K., Takeuchi, M., Takanishi, A. Development of the anthropomorphic saxophonist robot WAS-1: Mechanical design of the simulated organs and implementation of air pressure. Advanced Robotics Journal. 24, 629-650 (2010).
  2. Evolving Won-Based Flying Robots. Zufferey, J. C., Floreano, D. Proceedings of the 2nd International Workshop on Biologically Motivated Computer Vision, 2002 November, Berlin, Springer-Verlag. 592-600 (2002).
  3. Conditt, M. A., Gandolfo, F., Mussa-Ivaldi, F. A. The motor system does not learn the dynamics of the arm by rote memorization of past experience. Journal of Neurophysiology. 78, 554-554 (1997).
  4. Krebs, H. I., Palazzolo, J. J., Dipietro, L., Ferraro, M., Krol, J., Rannekleiv, K., Volpe, B. T., Hogan, N. Rehabilitation robotics: Performance-based progressive robot-assisted therapy. Autonomous Robots. 15, 7-20 (2003).
  5. Wei, K., Kording, K. Relevance of error: what drives motor adaptation. Journal of neurophysiology. 101, 655-65 (2009).
  6. Wei, Y., Bajaj, P., Scheidt, R., Patton, J. Visual error augmentation for enhancing motor learning and rehabilitative relearning. IEEE International Conference on Rehabilitation Robotics. 505-510 (2005).

Comments

0 Comments


    Post a Question / Comment / Request

    You must be signed in to post a comment. Please or create an account.

    Usage Statistics