Mesurer la cinématique des mouvements de la vie quotidienne avec les systèmes de Capture de mouvement en réalité virtuelle

Behavior

Your institution must subscribe to JoVE's Behavior section to access this content.

Fill out the form below to receive a free trial or learn more about access:

 

Summary

Nous avons conçu un test de réalité virtuelle pour évaluer les activités instrumentales de la vie quotidienne (AIVQ) avec un système de capture de mouvement. Nous vous proposons une analyse détaillée de cinématique du participant d’interpréter divers mouvements, dont la trajectoire, la distance de déplacement et temps d’exécution pour évaluer les capacités de l’AIJD.

Cite this Article

Copy Citation | Download Citations

Seo, K., Lee, A., Kim, J., Ryu, H., Choi, H. Measuring the Kinematics of Daily Living Movements with Motion Capture Systems in Virtual Reality. J. Vis. Exp. (134), e57284, doi:10.3791/57284 (2018).

Please note that all translations are automatically generated.

Click here for the english version. For other languages click here.

Abstract

L’incapacité de terminer les activités instrumentales de la vie quotidienne (AIVQ) est un précurseur à diverses maladies neuropsychologiques. Évaluations basées sur le questionnaire de l’AIJD sont faciles à utiliser mais sujettes à un biais subjectif. Nous décrivons ici un test de la nouvelle réalité virtuelle (RV) pour évaluer deux tâches complexes de l’AIJD : traitement des transactions financières et l’utilisation des transports en commun. Si un participant effectue les tâches dans un cadre de VR, une motion capture système traces la position et l’orientation de la main dominante et la tête dans un système de coordonnées cartésiennes tridimensionnel. Données brutes cinématiques sont collectées et transformé en « mesures performances cinématiques, » c'est-à-dire, mouvement, trajectoire, la distance de déplacement et temps d’exécution. Trajectoire est le chemin d’une partie du corps spécifique (par exemple, main dominante ou chef) dans l’espace. Distance de déplacement se réfère à la distance totale de la trajectoire, et temps d’exécution est de combien de temps il a fallu pour accomplir une tâche IADL. Ces mesures cinématiques pourraient discriminer des patients atteints de troubles cognitifs de contrôles sains. L’élaboration du présent protocole mesure cinématique permet de détecter des déficiences cognitives AIVQ liés au début.

Introduction

Activités instrumentales de la vie (AIJD), comme traitement des transactions financières, en utilisant les transports en commun et la cuisine, sont des marqueurs médicales car ils nécessitent de multiples fonctions neuropsychologiques1quotidienne. Ayant une déficience des capacités AIVQ sont donc considérés comme des précurseurs à des maladies neurologiques, telles que la déficience cognitive légère (DCL) et2de la démence. Examen approfondi de l’or de l’AIJD tâches3 a indiqué que des tâches plus cognitif exigeantes, telles que la gestion des finances et de l’utilisation des transports en commun, étaient le premier prédicteur de MCI et la démence.

A ce jour, les évaluations plus couramment utilisées de l’AIJD sont autodéclarées questionnaires, axée sur l’informateur questionnaires et évaluations fondées sur le rendement4. Évaluations basées sur le questionnaire de l’AIJD sont rentables et faciles à utiliser, mais sont sujettes à un biais subjectif. Par exemple, lorsque l’autodéclaration, patients ont tendance à plus ou moins estimate leurs capacités IADL5. De même, des informateurs méconnaître des capacités en raison des perceptions erronées de l’observateur ou les lacunes de connaissances4IADL. Évaluations fondées sur le rendement qui demandent les patients pour effectuer des tâches spécifiques de l’AIJD ont donc été préférées, bien que bon nombre des tâches ne conviennent pas à un milieu clinique général6.

Récemment, la réalité virtuelle (VR) ont démontré que cette technologie pourrait avoir des applications importantes en médecine et en soins de santé, qui comprend tout, de la formation à la réhabilitation d’évaluation médicale7. Tous les participants peuvent être testés dans les mêmes conditions VR, qui imitent le monde réel. Par exemple, Allain et al. 8 mis au point une tâche de café virtuelle et a montré que les patients avec des troubles cognitifs n’a pas eu la tâche. Klinger et al. 9 mis au point un autre environnement de VR postale et du shopping de tâches et trouvé un lien significatif entre le délai d’exécution de tâche en VR et les résultats des tests neuropsychologiques. Des études antérieures de VR de l’évaluation de l’AIJD ont principalement axés sur les mesures du rendement simples tels que le temps de réaction ou de l’exactitude lorsque vous utilisez des périphériques d’entrée classiques comme une souris et un clavier8,9. Des données de performances plus détaillées sur IADL sont donc nécessaire pour dépister efficacement les patients atteints de MCI4.

L’analyse cinématique des données de capture de mouvement en temps réel est une approche puissante pour documenter quantitativement les données de performances détaillés associées aux tâches IADL. Par exemple, blanc et al. 10 a développé une cuisine virtuelle qui capture les données angle articulaire du participant au cours des tâches de la vie quotidiennes et utilisé les données capturées pour évaluer quantitativement l’efficacité de la thérapie physique. Dimbwadyo-Terrer et al. 11 a développé un environnement immersif de VR pour évaluer les performances supérieurs lorsqu’il effectue des missions fondamentales de la vie quotidienne et ont montré que les données cinématiques enregistrement dans un environnement de VR fortement corrélé avec les échelles fonctionnelles du membre supérieur. Ces analyses cinématiques avec les systèmes de capture de mouvement pourront fournir d’évaluer rapidement un patient des troubles cognitifs12. Inclusion des données cinématiques détaillées dans le dépistage des patients avec MCI a considérablement amélioré la classification des patients par rapport aux témoins sains,13.

Nous décrivons ici un protocole afin d’évaluer la cinématique des mouvements de la vie quotidienne avec systèmes de capture de mouvement dans un environnement immersif de VR. Le protocole comprend deux tâches complexes de l’AIJD : « tâche 1 : retirer de l’argent » (qui gère les transactions financières) et « tâche 2 : prenez le bus » (en utilisant les transports en commun). Tandis que les tâches sont exécutées, un système de capture de mouvement retracer la position et l’orientation de la main dominante et la tête. Après avoir terminé la tâche 1, la trajectoire de la main dominante, la distance de mouvement et temps d’exécution ont été recueillis. Dans la tâche 2, tête trajectoire, la distance de mouvement et temps d’exécution ont été recueillis. La section de résultats représentant dans cet article détaille l’essai préliminaire des patients avec MCI (c.-à-d.AIVQ capacités sont affaiblies) par rapport aux témoins sains (c.-à-d., les capacités de l’AIJD sont intactes).

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Toutes les procédures expérimentales décrites ici ont été approuvées par le Conseil institutionnel revue de l’Université de Hanyang, selon la déclaration d’Helsinki (HYI-15-029-2). 6 témoins sains (4 mâles et 2 femelles) et 6 patients MCI (3 mâles et 3 femelles) ont été recrutés dans un centre médical tertiaire, Hanyang University Hospital.

1. recruter des Participants

  1. Recruter les patients MCI (c.-à-d., des capacités IADL avec facultés affaiblies) et les témoins sains (c.-à-d., capacités normales de IADL) âgés de 70 à 80 ans.
  2. Avec l’aide d’un neurologue avec plus de 10 ans d’expérience clinique, examen des antécédents médicaux du patient et exclure les patients ayant des antécédents de maladies neurologiques et psychiatriques ou une chirurgie du cerveau.
    Remarque : Utilisez les tests neuropsychologiques suivants : Mini Mental State examen-démence dépistage, Korean activités instrumentales de la vie courante, gratuit et sélectif de Cued rappelant Test, Digit Span Test-avant/arrière, Trail Making Test-A/B13 , ainsi que les critères d’Albert et al. 14 pour diagnostiquer la MCI.

2. Installez le logiciel VR et de connecter des ordinateurs

  1. Installation du matériel dans la salle dédiée semblable à la Figure 1. Effectuer ce protocole dans un environnement virtuel immersif taille chambre (4 x 2,5 x 2,5 m3) contenant 4 ordinateurs, 4 stéréoscopique tridimensionnel (3D) projecteurs et 8 caméras de suivi de mouvement pour suivre la position et l’orientation de la main dominante et tête pendant les deux tâches IADL.
    Remarque : Les technologies VR utilisées dans cet article sont matériel informatique et logiciels qui offrent des expériences 3D immersives et interactives, par lequel des événements et objets réalistes peuvent être présentés dans un environnement virtuel. Les détails du matériel et du logiciel sont décrites dans la Table des matières.
  2. S’assurer que tous les ordinateurs sont équipés avec les logiciels nécessaires (package redistribuable Visual Studio 2012 (x86), DirectX et MiddleVR ou équivalent). Pour MiddleVR, c'est-à-dire, les logiciels middleware, consultez le site15 pour obtenir les dernières versions des bibliothèques pour les périphériques d’entrée, stéréoscopie, clusters et les interactions.
  3. Connecter des ordinateurs à des projecteurs 3D stéréoscopiques. Paramètres graphiques sont résolution de 1920 x 1080 pixels.
  4. Créer un groupe résidentiel au 10 Windows pour connecter les 4 ordinateurs à un réseau domestique. Sur l’ordinateur principal, créez un dossier et de le partager avec d’autres ordinateurs du groupe résidentiel.
  5. Sur l’ordinateur principal, lancez le logiciel middleware. Cliquez sur le bouton « Cluster ». Définissez l’ordinateur principal comme un serveur et d’autres ordinateurs en tant que clients. Cela va synchroniser l’état de tous les périphériques. Cliquez sur le bouton « 3D noeuds ». Spécifiez la position, l’orientation et la taille de l’écran de l’environnement virtuel.
  6. Remplissez les paramètres basés sur le site Internet15 et enregistrez le fichier de configuration.

3. mettre en place des systèmes de Capture de mouvement dans un environnement virtuel

  1. Monter 8 caméras de suivi de mouvement dans un environnement virtuel pour couvrir entièrement le volume de capture. Fixez solidement caméras afin qu’elles restent stationnaires pendant la capture. S’assurer que les objets dans un environnement virtuel sera visibles au moins 2 caméras en tout temps.
  2. Installer le logiciel de traqueur mobile, c'est-à-dire, logiciel de capture de mouvement, sur l’ordinateur principal à l’aide de l’installation manuelle16. Se connecter à l’ordinateur principal avec les systèmes de capture de mouvement avec des câbles Ethernet de catégorie 6.
  3. Calibrer les systèmes de capture de mouvement avec les étapes suivantes, comme indiqué dans le manuel du logiciel16.
    1. Retirez toutes les réflexions superflues ou marqueurs inutiles du volume de capture.
    2. Cliquez sur le bouton « Masque Visible » pour masquer les reflets indésirables ou brouillage ambiant.
    3. Cliquez sur le bouton « Start Wanding ». Utilisez la baguette de calibration pour recueillir des images de l’échantillon afin de calculer les positions respectives et les orientations dans l’espace 3D.
    4. Cliquez sur le bouton « Calculer » pour étalonner le système en utilisant des échantillons recueillis.
    5. Vérifier les résultats de l’étalonnage (en ordre du pire au meilleur) : pauvres, Fair, bon, grand, Excellent et exceptionnel. Si le résultat est meilleur que grand, cliquez sur le bouton « Appliquer ». Si ce n’est pas le cas, cliquez sur le bouton « Annuler » et répétez le processus wanding.
    6. Placer le carré de calibrage à l’intérieur de l’espace 3D où vous voulez l’origine seront placés. Cliquez sur le bouton « Définir le plan de masse » pour établir un système de coordonnées 3D chenilles origine.
    7. Sélectionnez marqueurs réfléchissants associés pour la main dominante et la tête. Cliquez sur le bouton « Corps rigide » et puis cliquez sur le bouton « Créer de marqueurs sélectionnés ».
  4. Sur la motion capture logiciel, ouvrez le menu « Streaming ». Vérifiez que le numéro de port répertorié est 3883, puis sélectionnez la case « Diffuser les données de trame » dans la catégorie « VRPN Streaming Engine ». Cliquez sur « Ctrl » + « S » pour enregistrer le fichier de calibration.
  5. Sur l’ordinateur principal, lancez le logiciel middleware. Cliquez sur le bouton « Périphériques ». Ajouter un Tracker VRPN afin d’obtenir des données de suivi du système de capture de mouvement et puis enregistrez le fichier de configuration.

4. préparer un environnement virtuel à utiliser

  1. Supprimer tous les objets réfléchissants(p. ex., montres, bagues, boucles d’oreilles, métaux, etc.) de l’environnement virtuel.
  2. Allumez les ordinateurs, les projecteurs 3D stéréoscopiques et systèmes de capture de mouvement (360 images par seconde).
  3. Une fois les 4 ordinateurs sont en cours d’exécution, lancez le logiciel VRDaemon. Par exemple, double-cliquez sur « VRDaemon.exe » situé dans « C:\Program Files (x86) \MiddleVR\bin. »
  4. Sur l’ordinateur principal, lancez le logiciel de capture de mouvement. Cliquez sur le bouton menu principal intitulé « Ouvrir un projet existant. » Chargez le fichier de calibration de caméra.
  5. Sur l’ordinateur principal, lancez le logiciel middleware. Cliquez sur le bouton « Simulations ». Charger les fichiers appropriés de la simulation et la configuration d’un dossier partagé.
  6. Sur le logiciel middleware, appuyez sur le bouton « Exécuter » pour exécuter une application virtuelle immersive avec les fichiers sélectionnés de la simulation et la configuration.

5. familiariser le Participant avec l’environnement virtuel

  1. Fournir le participant à des lunettes stéréoscopiques, pesant environ 50 g. La fréquence d’affichage des lunettes stéréoscopiques est 192 Hz. veiller à ce que les lunettes stéréoscopiques sont confortablement placés au-dessus des yeux et des oreilles ; Voir la Figure 2 a.
  2. Fixez les marqueurs réfléchissants pesant moins de 1 g à la main dominante du participant et la tête. Veillez à serrer les marqueurs réfléchissants ; Voir la Figure 2 b. Informer les participants qu’ils peuvent se déplacer librement ou faire pivoter dans l’environnement virtuel à l’aide de mouvements de la tête et pouvez cliquer sur des objets virtuels avec la main dominante. Une main virtuelle s’affiche dans l’environnement virtuel pour imiter la position d’index du participant ; Voir la Figure 3.
  3. Demander aux participants de se déplacer librement (c'est-à-dire, se lever, s’asseoir, allez à gauche et tournez à droite) dans l’environnement virtuel pendant 5 min à se familiariser avec l’environnement de VR. Puis demander au participant de cliquer sur les boutons virtuels pendant 5 min afin de se familiariser avec la façon d’interagir avec des objets virtuels avec la main dominante. Offrir une autre session de formation de 10 min si le participant demande à un.
  4. Vérifier si le participant est insensible aux maladie VR avec un simulateur maladie questionnaire17.
    ATTENTION : Le suivi sur l’affichage stéréoscopique de mouvement synchronisé peut causer la maladie VR, ce qui peut entraîner des malaises, maux de tête, sensibilisation de l’estomac, nausées, vomissements, pâleur, transpiration, fatigue, somnolence, désorientation et apathie. Si le participant se plaint de la fatigue ou le score de maladie de simulateur est trop élevé, arrêter le protocole.

6. effectuer « tâche 1 : retirer de l’argent »

ATTENTION : Contrebalancer les séquences de tâche 1 et 2 de la tâche pour supprimer l’effet rémanent.

  1. Expliquer au participant les détails de la tâche et fournir les 8 mesures pour achever la tâche dans l’environnement virtuel. Les étapes sont (1) insérer la carte dans le distributeur, (2) sélectionnez le menu « retirer », (3) sélectionnez le montant à retirer, (4), sélectionnez le type de projet de loi, (5) Entrez le code PIN (numéro d’identification personnel), (6), sélectionnez l’option de réception, (7) Retirez la carte et (8) prennent l’argent de l’ATM (voir Figure 4).
  2. Sur l’ordinateur principal, lancez le logiciel middleware. Sous l’onglet « Simulations », sélectionnez un fichier de simulation pour la tâche 1 et un fichier de configuration. Appuyez sur le bouton « Exécuter » ; « Tâche 1 : retirer de l’argent » se déroulera dans l’environnement virtuel.
    Remarque : Pour le fichier de tâche 1, voir la pièce jointe « Tâche 1 retirer Money.zip » dans le dossier supplémentaire de 1. Notez que la tâche virtuelle a été développée avec le moteur 3D de l’unité.
  3. Si la « tâche 1 : retirer de l’argent » s’exécute dans l’environnement virtuel, demander au participant d’effectuer comme suit : « s’il vous plaît retirer 70 000 KRW (équivalent à environ 60 USD) de l’ATM pour faire du shopping. Sélectionnez deux différents types de notes, une note KRW 50 000 50 000 KRW et deux 10 000 KRW notes pour 20 000 KRW. Le mot de passe pour votre transaction est publiée aujourd'hui. Par exemple, si l’expérience est réalisée sur le 11 novembre, la goupille est 1111. S’il vous plaît garder le reçu pour plus de renseignements. »
  4. Une fois la tâche terminée, vérifiez les données cinématiques enregistrées dans des fichiers CSV (valeurs séparées par des virgules) pour une analyse plus approfondie d’un dossier partagé.
    Remarque : L’utilisation des systèmes de capture de mouvement, au cours de « tâche 1 : retirer de l’argent » enregistrer la position et l’orientation de la main dominante lorsqu’il effectue une tâche avec une fréquence d’enregistrement de 1 ms.
  5. Donne environ 5 min pause au participant avant de commencer « tâche 2 : prenez le bus. »

7. effectuer la « tâche 2 : prenez le bus »

  1. Expliquer au participant les détails de la tâche et de fournir des instructions sur la façon de remplir « tâche 2 : prenez le bus » comme suit : « s’il vous plaît attendre à l’arrêt de bus et prendre le bus de la cible. L’information d’autobus cible se verront à l’écran VR par un numéro de ligne, couleur et de destination. Quand l’autobus cible arrive, n’oubliez pas de marcher hors de l’arrêt de bus et à la porte de l’autobus de la cible. 8 bus de cibles différents seront aléatoirement générés et présentés. » Voir la Figure 5.
  2. Sur l’ordinateur principal, lancez le logiciel middleware. Sous l’onglet « Simulations », sélectionnez un fichier de simulation pour la tâche 2 et un fichier de configuration. Appuyez sur le bouton « Exécuter », puis « tâche 2 : prenez le bus » se déroulera dans l’environnement virtuel.
    Remarque : Pour le fichier de tâche 2, voir la pièce jointe « Tâche 2 prendre un Bus.zip » dans les 2 fichier supplémentaire. Notez que la tâche virtuelle a été développée avec le moteur 3D de l’unité.
  3. Si la « tâche 2 : prenez le bus » s’exécute dans l’environnement virtuel, demandez aux participants d’attendre à l’arrêt de bus. Cliquez sur la touche « Espace » du clavier pour faire les autobus arrivent à l’arrêt de bus.
  4. Une fois que la tâche est terminée, vérifiez les données cinématiques enregistrées dans des fichiers CSV pour une analyse plus approfondie d’un dossier partagé.
    Remarque : L’utilisation des systèmes de capture de mouvement, au cours de « tâche 2 : prendre le bus « enregistrer la position et l’orientation de la tête lorsqu’il procède à la tâche avec une fréquence d’enregistrement de 1 ms.
  5. Le protocole est terminé. Aider le participant à enlever les lunettes stéréoscopiques et détacher les marqueurs réfléchissants de la main dominante et la tête.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

CSV files de « tâche 1 : retirer de l’argent » ont été analysées à l’aide du logiciel statistique R pour calculer la trajectoire de la main dominante, la distance mobile et temps d’exécution. La trajectoire du mouvement de la main dominante est visualisée (Figure 6). La distance de déplacement de la main dominante est calculée en additionnant la distance totale entre les positions de main séquentiel lors de l’exécution de la tâche 1. La distance entre les positions est la distance euclidienne. Temps d’exécution, on entend le temps nécessaire pour terminer la tâche entière (c'est-à-direde l’étape 1 « Insérez la carte dans l’ATM » à l’étape 8 « prendre de l’argent de l’ATM »). Pour obtenir le code R pour l’analyse statistique, voir la pièce jointe « Tâche 1 R Code.docx » complémentaire fichier3.

CSV files de « tâche 2 : prenez le bus » sont analysés afin de calculer la trajectoire en tête, se déplaçant à distance et le temps de réalisation en utilisant le logiciel de statistique R. La trajectoire du mouvement de la tête est visualisée (Figure 7). La distance de déplacement de la tête est calculée en additionnant les distances totales entre les positions tête séquentielles lorsque vous effectuez la tâche 2. La distance entre deux positions est la distance euclidienne. Le temps d’exécution, le temps pris dès le début à la fin de la tâche entière avec huit autobus cible. Pour obtenir le code R pour l’analyse statistique, voir la pièce jointe « Tâche 2 R Code.docx » 4 de fichier supplémentaire.

Caractéristiques anthropométriques et les mesures cinématiques de patients atteints de MCI et témoins sains sont indiquées dans le tableau 1. Ce test VR avec motion capture systems présente nouvelles opportunités pour la mesure de la cinématique des tâches complexes de IADL. En suivant le protocole présenté ici, les chercheurs peuvent obtenir des données de performances cinématiques « tâche 1 : retirer de l’argent » (gestion des transactions financières) et « tâche 2 : prenez le bus » (en utilisant les transports en commun).

En effet, il a réalisé une étude cas-témoins avec ce protocole avec plusieurs analyses statistiques (c.-à-d., analyse de variance multivariée, une analyse de corrélation de Pearson et une analyse discriminante linéaire par étape vers l’avant), qui se trouve dans notre étude empirique13.

Figure 1
Figure 1 : un environnement virtuel immersif taille chambre S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 2
Figure 2 : préparation avant l’évaluation. (A), le sujet porte des lunettes stéréoscopiques. (B) marqueurs réfléchissants sont attachés à la main dominante et la tête. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 3
Figure 3 : représentation de main virtuelle dans l’environnement virtuel. (A) une sphère blanche représente la position de l’index. Le participant clique sur un bouton virtuel numéro « 2 ». (B) Le participant clique sur un bouton de numéro virtuel « 4 ». S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 4
Figure 4 : tâche 1 : retirer de l’argent de l’ATM Un code PIN de Participant (A) conclut l’ATM (B) Participant retire l’argent de l’ATM s’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 5
Figure 5 : tâche 2 : prendre un bus (A) Participant attend à l’arrêt de bus. (B) Participant promenades hors de l’arrêt de bus et dans le bus de la cible. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 6
Figure 6 : la tâche 1 : trajectoire de mouvement de main en 3D espace cartésien. (A) contrôles sains. (B), MCI les patients. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 7
Figure 7 : tâche 2 : trajectoire de mouvement de tête en 3D espace cartésien. (A) contrôles sains. (B), MCI les patients. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Patients MCI Témoins en bonne santé
Nombre (mâle) 6 (3) 6 (4)
Âge (an) 72,4 ± 1,9 72,6 ± 1,7
Tâche 1 : Retirer de l’argent
Distance de déplacement (m) 34,7 ± 9,1 52,5 ± 10,5
Temps d’exécution (min) 1.8 ± 0,3 1,3 ± 0,2
Tâche 2 : Prenez le bus
Distance de déplacement (m) 100,3 ± 11,4 128,5 ± 14,2
Temps d’exécution (min) 13.5 ± 0,2 13.5 ± 0,2

Tableau 1 : Les caractéristiques anthropométriques et mesures cinématiques . Les valeurs sont moyen ± SD

Fichier supplémentaire 1 : tâche 1 retirer Money.zip. S’il vous plaît cliquez ici pour télécharger ce fichier.

Fichier supplémentaire 2 : tâche 2 prendre un Bus.zip. S’il vous plaît cliquez ici pour télécharger ce fichier.

Fichier supplémentaire 3 : tâche 1 Code.docx R. S’il vous plaît cliquez ici pour télécharger ce fichier.

Fichier supplémentaires 4 : tâche 2 R Code.docx. S’il vous plaît cliquez ici pour télécharger ce fichier.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Nous avons détaillé d’un protocole de mesure cinématique des mouvements de la vie quotidienne avec systèmes de capture de mouvement dans un environnement immersif de VR. Tout d’abord, le paramètre expérimental guidé à la façon de mettre en place, préparer et de familiariser les participants avec l’environnement immersif de VR. Deuxièmement, nous avons développé deux tâches normalisées de l’AIJD en VR. En troisième lieu, étape 3 et l’étape 5 de la section de protocole sont des opérations plus critiques afin de minimiser la maladie VR. Lorsque vous configurez les systèmes de capture de mouvement dans l’environnement virtuel (étape 3), il est important de monter la caméra de suivi suffisamment élevée pour parfaitement couvrir le volume de capture, fixer les caméras stable pour empêcher tout mouvement pendant la capture, assurez-vous qu’au moins deux caméras peut en même temps saisir un objet et supprimer toute réflexions superflues ou marqueurs inutiles de l’environnement virtuel. Familiariser les participants avec VR (étape 5), il est crucial de fournir assez de formation pour qu’ils s’habituent à l’expérience virtuelle. Si les participants éprouvent aucun symptôme de maladie VR (p. ex., malaise, maux de tête, nausées, vomissements, pâleur, transpiration, fatigue, somnolence, désorientation et apathie), l’expérience doit être arrêtée. Enfin, les données brutes cinématiques ont été traduites par un logiciel de statistique R.

Un défi de notre protocole et limitation est que les tâches de l’AIJD virtuels doivent être validées par comparaison avec des tâches de l’AIJD réelles. Bien que des études antérieures ont démontré que les tâches virtuelles et réelles étaient fortement corrélés en termes de temps de réaction, précision8, cliniques et les mesures fonctionnelles11, le protocole de mesure cinématique actuel devrait être compatible avec de nombreux évaluations neuropsychologiques classiques. S’appuyant sur cette validation, nous devons intensifier ce protocole avec des tâches différentes de IADL. Une autre limitation est que ce protocole analyse uniquement les mesures typiques de cinématiques, donc plus de mesures du rendement de cinématique sophistiquée dans un environnement virtuel, telles que l’accélération, la précision de mouvement et efficacité, devraient être inclus.

L’importance de l’actuel protocole de mesure cinématique est qu’il est rapide, sûr, facile à réaliser et non invasive pour la détection des premiers déficits IADL. Une étude ancienne utilisant ce protocole a confirmé que mesures cinématiques en conjonction avec un résultat de tests neuropsychologiques meilleure victime les patients MCI de contrôles sains13. Quantification des déficits fonctionnels spécifiques pourrait bien fournir une base pour localiser la source et l’étendue des dommages neurologiques et donc de l’aide à la prise de décisions clinique pour l’individualisation des traitements18. Dans ce contexte, le protocole proposé dans cet article pourrait être utilisé pour prendre des décisions cliniques fondées sur des preuves.

Compte tenu des applications futures, ce protocole pourrait servir pour d’autres maladies neuropsychologiques tels que traumatisme cérébral lésion19. En outre, il pourrait être intéressant d’analyser des subordonnées dans le protocole actuel pour identifier quels types sont les plus difficiles. En outre, des études récentes de VR pour former les AVC ont montré des améliorations dans les fonctions de mémoire et d’attention suite à une intervention jeu VR en20. Il serait intéressant d’appliquer ce protocole aux contextes de réhabilitation neuropsychologique supplémentaires.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Les auteurs ne déclarent aucun conflit d’intérêt.

Acknowledgments

K.S. et A.L. contribuent également. Cette recherche a été financée par le programme de recherche sciences fondamentales grâce à la Fondation de la recherche nationale de Corée (NRF) financé par le ministère de la Science, TIC & avenir planification (FRO-2016R1D1A1B03931389).

Materials

Name Company Catalog Number Comments
Computer N/A N/A Computer requirements:                                                            - Single socket H3 (LGA 1150) supports
- Intel® Xeon® E3-1200 v3, 4th gen. Core i7/i5/i3 processors
- Intel® C226 Express PCH
- Up to 32GB DDR3 ECC/non-ECC 1600MHz UDIMM in 4 sockets
- Dual Gigabit Ethernet LAN ports
- 8x SATA3 (6Gbps)
- 2x PCI-E 3.0 x16, 3x PCI-E 2.0 x1, and 2x PCI 5V 32-bit slots
- 6x USB 3.0 (2 rear + 4 via headers)
- 10x USB 2.0 (4 rear + 6 via headers)
- HD Audio 7.1 channel connector by Realtek ALC1150
- 1x DOM power connector and 1x SPDIF Out Header
- 800W High Efficiency Power Supply
- Intel Xeon E3-1230v3
- DDR3 PC12800 8GB ECC
- WD 1TB BLUE WD 10EZEX  3.5"
- NVIDIA QUADRO K5000 & SYNC
Stereoscopic 3D Projector Barco F35 AS3D WUXGA Resolution:
- WQXGA (2,560 x 1,600)
- Panorama (2,560 x 1,080)
- WUXGA (1,920 x 1,200), 1080p (1,920 x 1,080)
Stereoscopic Glasses Volfoni Edge 1.2 For further information, visit http://volfoni.com/en/edge-1-2/
Motion Capture Systems NaturalPoint OptiTrack 17W For further information, visit http://optitrack.com/products/prime-17w/
OptiTrack (Motion capture software) NaturalPoint OptiTrack Motive 2.0 For further information, visit https://optitrack.com/downloads/motive.html
MiddleVR (Middleware software) MiddleVR MiddleVR For Unity For further information, visit http://www.middlevr.com/middlevr-for-unity/
VRDaemon (Middleware software) MiddleVR MiddleVR For Unity For further information, visit http://www.middlevr.com/middlevr-for-unity/
Unity3D (Game engine) Unity Technologies Personal For further information, visit https://unity3d.com/unity

DOWNLOAD MATERIALS LIST

References

  1. Reppermund, S., et al. Impairment in instrumental activities of daily living with high cognitive demand is an early marker of mild cognitive impairment: the Sydney Memory and Ageing Study. Psychol. Med. 43, (11), 2437-2445 (2013).
  2. Graf, C. The Lawton instrumental activities of daily living scale. Am. J. Nurs. 108, (4), 52-62 (2008).
  3. Gold, D. A. An examination of instrumental activities of daily living assessment in older adults and mild cognitive impairment. J. Clin. Exp. Neuropsychol. 34, (1), 11-34 (2012).
  4. Jekel, K., et al. Mild cognitive impairment and deficits in instrumental activities of daily living: a systematic review. Alzheimers. Res. Ther. 7, (1), 17 (2015).
  5. Suchy, Y., Kraybill, M. L., Franchow, E. Instrumental activities of daily living among community-dwelling older adults: discrepancies between self-report and performance are mediated by cognitive reserve. J. Clin. Exp. Neuropsychol. 33, (1), 92-100 (2011).
  6. Desai, A. K., Grossberg, G. T., Sheth, D. N. Activities of Daily Living in patients with Dementia. CNS drugs. 18, (13), 853-875 (2004).
  7. Ma, M., Jain, L. C., Anderson, P. Virtual, augmented reality and serious games for healthcare 1. 68, Springer Science & Business Pubs. Berlin. (2014).
  8. Allain, P., et al. Detecting everyday action deficits in Alzheimer's disease using a nonimmersive virtual reality kitchen. J. Int. Neuropsychol. Soc. 20, (5), 468-477 (2014).
  9. Klinger, E., et al. AGATHE: A tool for personalized rehabilitation of cognitive functions based on simulated activities of daily living. IRBM. 34, (2), 113-118 (2013).
  10. White, D., Burdick, K., Fulk, G., Searleman, J., Carroll, J. A virtual reality application for stroke patient rehabilitation. ICMA. 2, 1081-1086 (2005).
  11. Dimbwadyo-Terrer, I., et al. Activities of daily living assessment in spinal cord injury using the virtual reality system Toyra: functional and kinematic correlations. Virtual Real. 20, (1), 17-26 (2016).
  12. Preische, O., Heymann, P., Elbing, U., Laske, C. Diagnostic value of a tablet-based drawing task for discrimination of patients in the early course of Alzheimer's disease from healthy individuals. J. Alzheimers. Dis. 55, (4), 1463-1469 (2017).
  13. Seo, K., Kim, J. K., Oh, D. H., Ryu, H., Choi, H. Virtual daily living test to screen for mild cognitive impairment using kinematic movement analysis. PLOS ONE. 12, (7), e0181883 (2017).
  14. Albert, M. S., et al. The diagnosis of mild cognitive impairment due to Alzheimer's disease: Recommendations from the National Institute on Aging-Alzheimer's Association workgroups on diagnostic guidelines for Alzheimer's disease. Alzheimers. Dement. 7, (3), 270-279 (2011).
  15. MiddleVR. User Guide. [FR]. Available from: http://www.middlevr.com/doc/current/ c2014-c2017 (2017).
  16. OptiTrack. Motive Quick Start Guide. Available from: https://optitrack.com/public/documents/motive-quick-start-guide-v1.10.0.pdf c1996-c2017 (2017).
  17. Kennedy, R. S., Lane, N. E., Berbaum, K. S., Lilienthal, M. G. Simulator sickness questionnaire: An enhanced method for quantifying simulator sickness. Int. J. Aviat. Psychol. 3, (3), 203-220 (1993).
  18. Singh, N. B., Baumann, C. R., Taylor, W. R. Can Gait Signatures Provide Quantitative Measures for Aiding Clinical Decision-Making? A Systematic Meta-Analysis of Gait Variability Behavior in Patients with Parkinson's Disease. Front. Hum. Neurosci. 10, 319 (2016).
  19. Hernandez, F., et al. Six degree-of-freedom measurements of human mild traumatic brain injury. Ann. Biomed. Eng. 43, (8), 1918-1934 (2015).
  20. Gamito, P., et al. Cognitive training on stroke patients via virtual reality-based serious games. Disabil. Rehabil. 39, (4), 385-388 (2017).

Comments

0 Comments


    Post a Question / Comment / Request

    You must be signed in to post a comment. Please or create an account.

    Usage Statistics