Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Analyse vidéo image par image des mouvements de Reach à comprendre idiosyncrasiques chez l’homme

Published: January 15, 2018 doi: 10.3791/56733

Summary

Ce protocole décrit comment utiliser analyse vidéo image par image pour quantifier idiosyncrasiques portée à comprendre les mouvements chez les humains. Une analyse comparative des atteignant en aperçue par rapport aux non-voyants adultes en bonne santé est utilisé pour démontrer la technique, mais la méthode peut également être appliquée à l’étude des populations cliniques et du développement.

Abstract

Préhension, la Loi d’atteindre pour saisir un objet, est au cœur de l’expérience humaine. Nous l’utilisons pour nous nourrir, panser nous-mêmes et manipuler les objets et outils dans notre environnement. Ces comportements sont affaiblies par les nombreux troubles sensorimoteurs, pourtant notre compréhension actuelle de leur contrôle neural est loin d’être terminée. Les technologies actuelles pour des mouvements humains chargée de l’enquête de portée à comprendre utilisent souvent des systèmes qui peuvent être coûteux, nécessite la fixation de marqueurs ou de capteurs sur les mains, entraver le mouvement naturel et rétroaction sensorielle et fournir cinématique de suivi de mouvement sortie qui peut être difficile à interpréter. Alors que généralement efficaces pour étudier les mouvements de portée à comprendre stéréotypées des malvoyants adultes en bonne santé, bon nombre de ces technologies face à limitations supplémentaires lorsque vous tentez d’étudier les mouvements de portée à comprendre imprévisibles et singulière de des jeunes enfants, adultes aveugles et les patients atteints de troubles neurologiques. Ainsi, nous présentons un protocole nouveau, peu coûteux et très fiable mais souple pour quantifier la structure temporelle et cinématique des mouvements de portée à comprendre idiosyncrasiques chez les humains. Caméras vidéo à haute vitesse capture plusieurs vues du mouvement portée à comprendre. Analyse vidéo image par image est ensuite utilisé pour documenter le timing et l’ampleur des prédéfinis événements comportements comme le début du mouvement, collection, hauteur maximale, ouverture max., premier contact et saisir final. La structure temporelle du mouvement est reconstruite en documentant le numéro du cadre relative de chaque événement, tandis que la structure cinématique de la main est quantifiée à l’aide de la fonction de dirigeant ou de mesure dans le logiciel de retouche photo pour calibrer 2 dimensions linéaires distance entre les deux parties du corps, ou entre une partie du corps et la cible. Analyse vidéo image par image peut fournir une description quantitative et globale de singulière portée à comprendre les mouvements et permettra aux chercheurs d’étendre leur domaine de recherche à inclure un plus grand nombre de naturalistes préhensile comportements, guidés par une plus grande variété de modalités sensorielles, dans les populations cliniques et en santé.

Introduction

Préhension, la Loi d’atteindre pour saisir un objet, est utilisée pour de nombreuses fonctions quotidiennes, y compris l’acquisition de produits alimentaires pour manger, toilettage, manipulant des objets, maniant les outils et la communication par le geste et parole écrite. La théorie plus importante concernant le contrôle neurocomportementales de la préhension, la mémoire bicanale Visuomotor théorie1,2,3,4, propose que la préhension consiste en deux mouvements - une portée qui transporte la main à l’emplacement de la cible et une compréhension qui s’ouvre, les formes et ferme la main à la taille et la forme de la cible. Les deux mouvements sont véhiculées par des voies nerveuses dissociables mais qui interagissent de visual cortex moteur via le lobe pariétal1,2,3,4. Soutien comportemental pour la théorie de Visuomotor bicanale a été ambigu, en grande partie dû au fait que le mouvement de portée à comprendre apparaît comme un acte unique sans soudure et se déroule avec peu d’effort conscient. Néanmoins, la préhension est presque toujours étudiée dans le contexte de la préhension visuellement guidée au cours duquel un participant en bonne santé atteint pour saisir un objet cible visible. Dans ces circonstances, l’action apparaît comme un mouvement unique qui se déroule d’une manière prévisible et stéréotypée. Avant le début de la portée, les yeux se focaliser sur la cible. Que le bras s’étend les chiffres ouvrir, preshape à la taille de l’objet et par la suite commencent à fermer. Les yeux se désengager de la cible juste avant le contact de la cible et dernière portée de la cible suit presque immédiatement par la suite5. Lorsque la vision est supprimée, cependant, la structure du mouvement est fondamentalement différente. Le mouvement se dissocie de ses éléments constitutifs tels qu’un accès généreux est tout d’abord utilisé pour localiser la cible en appuyant sur elle et puis haptiques cues associés à la cible contact guide mise en forme et de fermeture de la main de saisir6.

Quantification du mouvement portée à comprendre est plus souvent réalisée à l’aide d’un système de suivi 3 Dimensions (3D) motion. Il peut s’agir des systèmes de suivi infrarouge, électromagnétiques des systèmes, de suivi ou vidéo à partir des systèmes de suivi. Ces systèmes sont efficaces pour l’acquisition des mesures cinématiques de la préhension chez les participants adultes sains, effectuant des mouvements stéréotypés de portée à comprendre vers objets cibles visibles, ils ont un certain nombre d’inconvénients. En plus d’être très coûteux, ces systèmes nécessitent la fixation des capteurs ou des marqueurs sur le bras, la main et les chiffres du participant. Ceux-ci sont généralement attachés à l’aide de ruban adhésif médical, ce qui peut entraver la rétroaction tactile de la main, modifier le comportement moteur naturel et distraire les participants7. Comme ces systèmes produisent généralement des sortie numérique associé à différentes variables cinématiques comme accélération, décélération et vitesse, ils ne sont pas aussi idéales pour étudier comment la main entre en contact avec la cible. Quand à l’aide de ces systèmes, des capteurs supplémentaires ou des équipements sont nécessaires pour déterminer quelle partie de la main fait entrer en contact avec la cible, où sur la cible de contact se produit, et comment la configuration de la main peut changer en commander pour manipuler la cible. En outre, les systèmes de suivi infrarouge, qui sont les plus couramment utilisés, nécessitent l’utilisation d’un appareil spécialisé pour suivre l’emplacement des bornes sur la main dans un espace 3D6. Cela nécessite une ligne de vue directe entre la caméra et les capteurs sur la main. À ce titre, les idiosyncrasies dans le mouvement risquent d’occulter cette ligne de mire et entraîner la perte de données critiques de cinématiques. Il y a, cependant, un grand nombre d’instances dans lesquelles idiosyncrasies dans le mouvement de portée à comprendre sont en fait la norme. Il s’agit au début du développement quand les enfants apprennent juste atteindre et saisir des objets ; Lorsque l’objet cible n’est pas visible et tactiles indices doivent servir à orienter la portée et l’emprise ; Lorsque l’objet cible est une forme étrange ou la texture ; et lorsque le participant présente avec l’un d’une variété de troubles sensorimoteurs comme un accident vasculaire cérébral, maladie de Huntington, maladie de Parkinson, paralysie cérébrale, etc. dans tous ces cas, le mouvement de portée à comprendre n’est ni prévisible ni stéréotypée, ni est il nécessairement guidé par vision. Par conséquent, la capacité de mouvement 3D, systèmes de suivi pour mesurer avec fiabilité la structure temporelle et cinématique de ces mouvements peut être très limitée en raison de perturbations dans la rétroaction sensorielle de la main, les changements dans le comportement moteur naturel, perte de données, et/ou de difficultés d’interprétation de la sortie de cinématique idiosyncrasique de ces dispositifs.

Le présent document décrit une technique originale pour quantifier idiosyncrasiques portée à comprendre les mouvements dans diverses populations humaines qui est abordable, n’entrave pas la rétroaction sensorielle de la main ou du comportement moteur naturel et est fiable mais peut être avec souplesse modifié pour convenir à une variété de paradigmes expérimentaux. La technique consiste à l’aide de multiples caméras de vidéo à haute vitesse pour enregistrer le mouvement portée à comprendre sous plusieurs angles. La vidéo est ensuite analysée en mode hors connexion par progresse grâce aux images un à la fois et à l’aide d’une inspection visuelle pour documenter les événements comportementaux clés qui, ensemble, fournissent une description quantifiée de l’organisation temporelle et la cinématique de la portée à comprendre mouvement. Le présent document décrit une analyse comparative des visuellement - versus nonvisually guidée de mouvements portée à comprendre dans les adultes en bonne santé humaine6,8,9,10 afin de démontrer l’efficacité de la technique ; Toutefois, des versions modifiées de la technique ont également été utilisées pour quantifier les actions de portée à comprendre des bébés humains11 et les primates non humains12. Les résultats complets de l’analyse vidéo image par image de ces études sont parmi les premiers à fournir la preuve comportementale à l’appui de la théorie de Visuomotor bicanale de la préhension.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Toutes les procédures avec des participants humains ont été approuvés par le Comité de recherche sujets humains Université de Lethbridge et l’éthique de la recherche Université Thompson Rivers pour Conseil de sujets humains.

1. les participants

  1. Obtenir le consentement éclairé des adultes qui ont une vision normale ou corrigée-à la normale et sont d’une bonne santé sans antécédents de troubles neurologiques ou sensorimotrices (à moins que l’objectif est d’étudier une population clinique particulière).

2. expérimental

  1. Sélectionnez les bleuets, boules de donut et tranches d’orange à servir pour atteindre les objectifs. Mesurez un sous-ensemble de dix de chacune des cibles dans leur axe le plus long pour déterminer la longueur moyenne de chaque cible.
    NOTE : Utiliser les cibles qui sont uniformes en taille et la forme. La taille moyenne des cibles aux bleuets était 12.41 ± 0,33 mm, la taille moyenne des cibles ball donut 28.82 ± 1,67 mm et la taille moyenne des cibles tranche d’orange était 60.53 ± 0,83 mm.
  2. Déterminer le nombre de procès et l’ordre pour l’expérience. Informe les participants qu’ils auront accompli un total de 60 pour atteindre essais séparés en 4 blocs (2 blocs dans la condition de la Vision) et 2 blocs dans la Vision de No avec chaque bloc composé de 15 pour atteindre les essais (5 répétitions pour chacun des objets 3 cible). Informer le participant que les objets cibles seront présentés dans un ordre quelconque, tel que déterminé par un générateur de nombres aléatoires pour chaque bloc. Veiller à ce que l’ordre de présentation du bloc est contrebalancée participants.
  3. Siège du participant sur une chaise sans bras fixe dans une pièce calme et bien éclairée libre des distractions. Dire le participant à s’asseoir à la droite dans la chaise avec les pieds posés à plat et carré sur le sol et les mains ouvertes de repos et paume vers le bas sur les sommets du haut des cuisses.
  4. Régler la hauteur d’un piédestal autonome, réglables en hauteur longueur de tronc du participant assis afin que la partie supérieure de la colonne se trouve à mi-chemin entre le haut de la hanche du participant et du sternum du participant. Placer la colonne directement en face de la ligne médiane du participant.
  5. Dire le participant à étendre leur main dominante directement vers le haut de la colonne. Ajustez l’emplacement du piédestal alors qu’il est positionné sur la ligne médiane du participant, mais à une distance équivalant à bras complètement tendu et la main du participant tels que du participant tendu le doigt du milieu entre en contact avec le bord distal de la colonne. Après avoir positionné le piédestal, demander au participant de retourner leur main tendue à leur tour.
  6. Caméra de vidéo haute vitesse position 1 sagittale au participant, sur le même côté que la main non dominante du participant à une distance de 1 m de la colonne pour enregistrer une vue axée sur la portée de la main dominante du participant. Ajustez la position et le zoom de la caméra jusqu'à ce que le dessus de la tête du participant, la position de départ de la main sur le haut de la cuisse, et la cible pour atteindre sur le piédestal sont tous clairement visible sous cet angle de caméra.
  7. Placez une seconde caméra vidéo 1 m devant le piédestal pour capturer une vue avant-sur le participant. Ajustez la position et le zoom de la caméra jusqu'à ce que le dessus de la tête du participant, la position de départ de la main sur la cuisse et la cible pour atteindre sur le piédestal sont tous clairement visible sous cet angle de caméra.
    Remarque : Des caméras vidéo supplémentaires peut être positionnées au-dessus, au-dessous ou en face du participant et le piédestal comme vous le souhaitez.
  8. La valeur de chaque caméra d’enregistrer des vidéos avec la meilleure résolution possible à raison de 60, 120 ou 300 images par seconde avec une vitesse d’obturation de 1/250ème (ou jusqu'à 1/1000ème si le mouvement se fera très rapidement) de seconde. Définissez les deux caméras pour enregistrer chaque fichier vidéo en tant que fichier un AVI, MP4 ou MOV. Utilisez une lampe forte contenant cool lampes à del (qui génèrent de la chaleur négligeable) pour éclairer la zone de participants et d’essai. Définissez chaque caméra de se concentrer sur le centre du piédestal.
    NOTE : À ces cadences élevées et les vitesses d’obturation une lampe forte est nécessaire pour éclairer la zone participante et d’essai. Cela garantira que les images vidéo individuelles sont suffisamment éclairée et libre d’artefacts de mouvement.
  9. Demandez aux participants de commencer chaque essai pour atteindre les mains ouvertes, détendu et repose paume vers le bas sur le dos de leurs haut des cuisses.
  10. Dire le participant qu’au début de chaque essai, l’expérimentateur place un objet de cible – une myrtille, une boule de beignet ou une tranche d’orange – sur le piédestal et que le participant est d’attendre que l’expérimentateur fournit un verbal 1, 2, 3 , Aller "commande à tendre la main avec leur main dominante, saisir l’objet cible et puis placer l’objet cible dans leur bouche comme si ils vont manger.
  11. Dire le participant qu’il doivent effectuer la tâche aussi naturellement que possible, mais qu’ils n’ont pas réellement de manger l’objet cible. Informer le participant qu’après avoir placé l’objet cible dans la bouche, qu'ils devraient alors utiliser leur main non-dominante pour récupérer la cible de leur bouche et placez-le dans un contenant de récupération situé sur le sol adjacent à la main non dominante du participant. Demander au participant de retour puis les deux mains à la position de départ sur leurs haut des cuisses en préparation pour le prochain procès.
  12. Sélectionnez un bandeau qui n’est pas encombrant mais occlure vision fovéale et de périphérique de la cible. Fournir ce bandeau à tous les participants au début de tous les blocs de première instance N° Vision et s’assurer qu’ils portent il avant que l’objet cible est placée sur le piédestal.
    Remarque : Lorsque vous remplissez des blocs du procès sans Vision, les participants sont les yeux bandés avant la première Vision de No procès commence. Ainsi, ils sont les yeux bandés avant un objet cible est placé sur le piédestal qui garantit que le participant ne voit pas les objets cible possible qui sont placé sur le piédestal pour n’importe quel procès No Vision donné.
  13. Appuyez sur le bouton « enregistrement » sur les deux caméras vidéo avant de lancer l’expérience et faire en sorte que la position et l’emplacement de chaque caméra ne change pas pendant la durée de la tâche expérimentale pour un participant donné.

3. collecte des données

  1. Commencer l’expérience en appuyant rapidement sur la surface centrale supérieure de la colonne avec l’index.
    NOTE : L’instant du contact entre votre index et le socle servira de repère de temps qui sera visible dans tous les enregistrements vidéo.
  2. Placer un objet de calibrage de taille connue, comme un cube en plastique de 1 cm3 , au centre de la partie supérieure de la colonne telle que chaque caméra a une vue fronto-parallèle sur un côté du cube. Laissez l’objet de calibrage sur le piédestal pour environ 5 s pour que chaque caméra vidéo capte une vue dégagée, puis supprimer l’objet de calibrage avant le premier procès pour atteindre.
  3. Informer le participant que l’expérience est sur le point de commencer, s’assurer que le participant porte le bandeau sur les yeux s’ils sont sur le point de terminer un bloc d’essai No Vision et demander au participant pour confirmer verbalement si ils sont prêts à commencer.
  4. Posez le premier objet de la cible sur le piédestal et un repère « 1, 2, 3, Go » pour signaler au participant d’effectuer l’essai pour atteindre.
  5. Répétez l’étape 3.4. jusqu'à ce que le participant a effectué un total de 60 pour atteindre les essais. Veiller à ce que le participant porte seulement le bandeau pour les blocs de première instance N° Vision.
  6. Après que 60 atteignant les essais sont terminés, arrêter l’enregistrement de la caméra vidéo. Répondre à n’importe quel final questions que le participant peut avoir et leur permettre de quitter.

4. préparer des vidéos pour l’analyse vidéo image par image

  1. Télécharger les fichiers vidéo de la caméra vidéo sur un ordinateur sécurisé disposant d’un logiciel de montage vidéo logiciel installé dessus.
  2. Ouvrir les fichiers vidéo dans le programme de logiciel de montage vidéo. Dans la Fenêtre de démarrage qui s’ouvre, cliquez sur le bouton Nouveau projet . Pour l’option de Format d’affichage vidéo , sélectionnez les images. Pour l' option Format de Capture sélectionnez DV. Cliquez sur OK | Oui.
  3. Cliquez sur onglet Navigateur multimédia et recherchez les fichiers vidéo pour votre participant. Cliquez et maintenez enfoncé un des fichiers vidéo pour faire glisser et déposez-le dans l' adjacent chronologie. Cela entraînera l’enregistrement vidéo s’affichent dans la fenêtre du programme . Utilisez les touches fléchées du clavier pour des progrès vers l’avant ou vers l’arrière par le biais de l’enregistrement vidéo.
  4. Utilisez les touches fléchées du clavier pour naviguer dans l’image vidéo qui dépeint le moment que l’expérimentateur robinets haut du piédestal avec son index. Mettre en pause la vidéo enregistrer sur ce cadre afin que la tête de lecture (sur la chronologie) est positionné sur le cadre exact où les doigts de l’expérimentateur fait tout d’abord contact avec le piédestal.
  5. Utilisez la fonction SUPPRESPACE dans la vidéo éditant le logiciel pour couper (remove) toutes les trames avant le frame en cours. Pour ce faire, cliquez sur le marque de | Fichier | Export | Media options. Dans la fenêtre de Réglages d’exportation qui s’ouvre, sélectionnez H.264 pour l’option format et Source de Match pour l’option prédéfinie.
  6. Cliquez sur le Nom de sortie et parcourir pour rechercher le dossier où vous souhaitez enregistrer l’enregistrement vidéo nouvellement Paré. Fournir un nouveau nom de fichier pour l’enregistrement vidéo nouvellement taillée que vous créez, puis cliquez sur le bouton Enregistrer . Ceci vous renverra à l' Exportation de paramètres. Cliquez sur l’option d’exportation .
  7. Répétez les étapes 4.1 à 4.6 pour tous les enregistrements vidéo de chacun des participants créer un fichier vidéo nouvellement taillé qui correspond à chacun des fichiers vidéo originales. Utilisez uniquement les fichiers vidéo nouvellement parés pour toutes les analyses vidéo image par image.
    Remarque : Dans les fichiers vidéo nouvellement parés, cadre 1 de chaque fichier vidéo représentent le même événement comportementale (p. ex., instant du premier contact entre le doigt de l’expérimentateur et le socle) et sont essentiellement synchronisés. Cela permet rapidement et facilement basculer entre des vues vidéo différentes d’un même événement comportemental au sein d’une seule session de test pour un seul participant.
  8. Fermer et ré-ouvrir le logiciel de montage vidéo. Répétez les étapes 4.2. et 4.3. Sélectionnez et faites glisser tous les enregistrements vidéo nouvellement parés pour un seul participant dans les délais les séparés dans la vidéo éditant le logiciel pour l’analyse vidéo image par image. Cela vous permettra de naviguer à travers les multiples vues vidéo pour chaque participant d’une manière synchronisés. Pour modifier l’enregistrement vidéo (p. ex.., frontal ou latéral) s’affiche dans la fenêtre du programme , il suffit de cliquer et faire glisser le panneau de montage vidéo qui contient la vue vidéo préférée vers le haut de la vidéo autres chronologies.
    Remarque : L’étape 4,8. est réalisée en utilisant le logiciel de montage vidéo et sert à temporairement temps-synchroniser la totalité des vues vidéo d’un seul participant.

5. image-par-image analyse vidéo : organisation temporelle

  1. Pour chaque essai pour atteindre, veuillez décrire l’organisation temporelle du mouvement portée à comprendre en utilisant les touches fléchées sur le clavier afin de progresser dans l’enregistrements vidéo synchronisés image par image. Enregistrer, dans une feuille de calcul (Supplemental tableau 1), le premier numéro de cadre pour chaque événement comportemental clé décrite dans les étapes 5.1.1-5.1.6, qui sont également décrits dans le tableau 1 et illustré à la Figure 1.
    Remarque : Alors que tous les 6 principaux événements comportements sont généralement présents dans chaque Vision du procès, certains ne pas toujours présent dans les essais sans Vision.
    1. Identifier le début de mouvement, qui se définit comme la première levée visible de la paume de la main loin de la face dorsale de la cuisse.
    2. Identifier la collection qui correspond à la formation d’une posture de main fermée dans laquelle les chiffres au maximum flex et ferment. Collection se produit généralement, après le début du mouvement et avant l’ouverture du sommet.
    3. Identifier la hauteur maximale, qui est définie comme la hauteur maximale de la jointure la plus proximale de l’index, comme la main se tend vers l’objet cible.
    4. Identifier les ouverture de pointe, ce qui correspond à l’ouverture maximale de la main (telle que mesurée entre la pointe centrale de l’index et la pointe centrale du pouce) qui intervient après la collecte mais avant premier contact. Parfois les chiffres reprendra après le premier contact avec l’objet cible, dans ce cas, également enregistrer le numéro du cadre de cette deuxième ouverture de pointe.
    5. Identifier le premier contact, qui se définit comme le premier point de contact entre la main et l’objet cible.
    6. Identifier la portée finale, qui est définie comme le moment où toutes les manipulations de l’objet cible est terminée et le participant a une emprise ferme sur l’objet cible.

6. image-par-image analyse vidéo : échelle de Calibration cinématique

  1. Créer une échelle de calibration pour chaque participant qui peut être utilisé pour convertir les mesures de distance contenues dans l’enregistrement vidéo de pixels, centimètres.
    1. Glissez et déposez l’enregistrement vidéo d’intérêt dans la chronologie de la programme de logiciel de montage vidéo tout comme aux étapes 4.2. et 4.3. Déplacez le curseur de lecture sur l’image qui représente l’objet de l’étalonnage et cliquez sur le Cadre à l’exportation. Dans la fenêtre Exporter image que s’ouvre, entrez un nom pour l’image de trame fixe dans la zone nom de l’option, saisissez TIFF dans la case d’option Format et cliquez sur la case d’option chemin d’accès pour naviguer vers le dossier que vous souhaitez enregistrer l’image de cadre fixe en.
    2. Ouvrez toujours ce fichier d’image de trame dans un logiciel de retouche photo. Cliquez sur l’Image de | Analyse | Définissez l’échelle de mesure | Custom pour transformer le pointeur de la souris en un outil règle. Utilisez l’outil règle pour cliquer sur un côté du cube 1 cm3 d’étalonnage, faites glisser l’outil règle vers le côté opposé du cube d’étalonnage, en gardant la ligne aussi horizontale que possible et relâcher le clic de l’autre côté du cube.
      Remarque : Une fois l’étape 6.1.2. compléter le logiciel de retouche photo programme automatiquement calculer la longueur de la ligne qui a été dessinée en pixels et affiche cette valeur dans l’option Longueur de Pixel dans la fenêtre ouverte d’Échelle de mesure .
    3. Dans la fenêtre de l’Échelle de mesure , entrez 10 dans la zone option Longueur logique millimètres dans la case d’option Unités logiques . Cliquez sur l' enregistrement prédéfinie. Dans la fenêtre de Mesure échelle prédéfinie , entrer dans le mode vidéo et/numéro de code du participant pertinent (p. ex., SideView-Participant1) dans la case d’option Preset Name et puis cliquez sur OK.
    4. Cliquez sur OK dans la fenêtre de l’Échelle de mesure .
      Remarque : Répétez les étapes 6.1.1 à 6.1.4. pour chaque mode d’affichage vidéo pour chaque participant.

7. image-par-image analyse vidéo : Structure cinématique

  1. Pour chaque essai atteignant, décrire la structure cinématique du mouvement portée à comprendre à l’aide de l’outil règle dans le logiciel de retouche de photo pour enregistrer les mesures de distance pertinents décrits aux étapes 7.4-7,9 et tableau 1.
  2. Utilisez le logiciel de montage vidéo pour exporter une image fixe de la trame (étape 6.1.1.) illustrant chacune des manifestations comportementales suivantes : collection, hauteur maximale, ouverture max., premier contact et prise finale (pour chaque essai).
  3. Ouvrez l’image cadre fixe qui dépeint l’événement comportemental clé d’intérêt dans le logiciel de retouche photo. Cliquez sur l’Image de | Analyse | Échelle de mesure de la valeur et sélectionnez l’échelle de calibration prédéfini qui correspond à l’affichage vidéo et le participant représenté dans l’image que vous souhaitez prendre une mesure de distance de (par exemple, SideView-Participant1).
    Remarque : En sélectionnant l’échelle de calibration prédéfini approprié assurera que toutes les distances suivantes, mesurées à l’aide de l’outil règle seront convertis avec précision des pixels en millimètres. L’échelle de calibration prédéfini restera automatiquement sélectionné pour tous les fichiers d’image suivants qui sont ouvertes. Ainsi, il n’y a pas besoin de répéter l’étape 7.3. jusqu'à ce que vous passez à analyser encore encadrer des images depuis une vue différente vidéo ou un autre participant.
  4. Ouvrez l’image cadre fixe qui dépeint l’événement comportemental clé de collection dans le logiciel de retouche photo. Sélectionnez l’outil règle et utilisez-le pour dessiner une ligne droite entre la pointe centrale du pouce et le Conseil central de l’index.
  5. Cliquez sur l’Image de | Analyse | Consigner les mesures, qui entraîne le Journal des mesures ouvrir. La longueur de cette ligne, noter que la distance de la collection dans la feuille de calcul (Supplemental tableau 1).
  6. Ouvrez l’image cadre fixe qui représente la hauteur maximale dans le logiciel de retouche photo. Utilisez l’outil règle pour mesurer la distance verticale entre le haut de la colonne et la partie supérieure du pivot index du participant. La longueur de cette ligne, noter que la distance de la hauteur maximale de la feuille de calcul.
  7. Ouvrez l’image cadre fixe que représente l’ouverture du sommet dans le logiciel de retouche photo. Utilisez l’outil règle pour mesurer la distance entre l’extrémité centrale du pouce et le Conseil central de l’index. La longueur de cette ligne, noter que la distance d’ouverture maximale de la feuille de calcul.
  8. Ouvrez l’image cadre fixe qui représente le premier contact dans le logiciel de retouche photo. Utilisez l’outil règle pour mesurer la distance entre l’extrémité centrale du pouce et le Conseil central de l’index. Noter la longueur de cette ligne que le premier contact a distance ouverture dans la feuille de calcul.
  9. Ouvrez l’image cadre fixe qui représente la portée finale dans le logiciel de retouche photo. Utilisez l’outil règle pour mesurer la distance entre l’extrémité centrale du pouce et le Conseil central de l’index. La longueur de cette ligne, noter que la distance d’ouverture final portée dans la feuille de calcul.

8. image-par-image analyse vidéo : mesures topographiques

  1. Tout en effectuant l’analyse vidéo image par image ci-dessus, également des caractéristiques topographiques supplémentaires de document du mouvement portée à comprendre comme la partie de main pour établir le premier contact, points de contact, points de maîtrise, ajustements, type grip et stratégie de portée ( Tableau 2).
    1. Document, dans la feuille de calcul, quelle partie de la main sert à fabriquer le premier contact avec la cible pour chaque essai, pour chaque participant. Utiliser la notation suivante : 1 = pouce, 2 = doigt, 3 = majeur, 4 = annulaire, 5 = pinky, 6 = paume, 7 = dos de la main.
    2. Déterminer les premiers points de contact en exporter une image fixe de la trame de la cible, de l’ouvrir dans le logiciel de retouche photo et utilisant l’outil Pinceau du programme pour marquer l’emplacement de la cible au cours de laquelle les premier contact entre la main et la cible a été effectué pour chacun procès. Ajuster la taille, opacité et la couleur de l’outil pinceau en fonction de vos besoins. Répétez cette étape jusqu'à ce que vous avez créé une carte topographique unique qui indique l’emplacement des premiers points de contact sur la cible pour chaque participant.
      Remarque : Pour obtenir un exemple de points de contact premiers agrégées sur l’ensemble des participants à une seule étude, voir représentant résultats ci-dessous.
    3. Déterminer les points de prise par exporter une image fixe de la trame de la cible, de l’ouvrir dans le logiciel de retouche photo et utilisant l’outil Pinceau du programme pour marquer l’emplacement de la cible au cours de laquelle la main entre en contact avec la cible au moment de la portée finale pour chaque essai. Ajuster la taille, opacité et la couleur de l’outil pinceau en fonction de vos besoins. Répétez cette étape jusqu'à ce que vous avez créé une carte topographique unique qui indique l’emplacement des points de maîtrise sur la cible pour chaque participant.
      Remarque : Pour obtenir un exemple de points grasp agrégées sur l’ensemble des participants à une seule étude, voir représentant résultats ci-dessous.
      1. Déterminer visuellement les emplacements contact de moyenne portée pour le pouce et le chiffre adverse sur la cible pour les participants voyants. Désigner ces deux endroits de contact comme les « base grasp points de contact »
      2. Utilisez l’outil Pinceau pour marquer les « base grasp points de contact » sur la carte topographique qui illustre les premiers points de contact pour chaque participant. Puis utilisez l’outil règle (voir étapes 6.1. à 6.1.4. et 7.5.) pour mesurer la distance linéaire 2D entre chaque premier point de contact et le point de contact de base respectifs. Répétez cette étape pour chaque premier point de contact pour chaque participant dans la vision et pas les conditions de vision. Calculer la moyenne « distance au point de contact de référence » pour chaque participant, qui indiquera jusqu’où, en moyenne, emplacement d’un participant du premier contact diffère du point de contact de portée de base.
      3. Utilisez l’outil Pinceau pour marquer les « base points de contact » sur la carte topographique illustrant les points de prise de contact pour chaque participant. Puis utilisez l’outil règle (voir étapes 6.1. et 6.1.4. et 7.5.) pour mesurer la distance linéaire 2D entre chaque point de maîtrise et le point de contact de base respectifs. Répétez cette étape pour chaque point de maîtrise pour chaque participant dans la vision et sans conditions de vision. Calculer la moyenne « distance au point de contact de référence » pour chaque participant, qui vous indiquera comment loin, en moyenne points de contact de saisir un participant diffèrent du point de contact de portée de base.
    4. Déterminer le nombre d’ajustements effectués sur chaque essai, en inspectant l’enregistrement vidéo, notant toutes les instances où le participant libéré et rétabli le contact avec la cible entre le cadre du premier contact et le cadre de la portée finale. Enregistrer le nombre total des rajustements par procès pour chaque participant dans la feuille de calcul.
    5. Déterminer la poignée type utilisé pour ramasser la cible pour chaque essai et inscrivez-la dans la feuille de calcul : poignée de la pince (i) : caractérisée en attrapant la cible entre les touches du pouce et un autre chiffre de la même main, poignée de précision (ii) : caractérisée en la saisissant par la la cible entre les touches du pouce et au moins deux autre chiffres de la même main, ou la poignée d’alimentation (iii) : caractérisées en attrapant la cible entre la paume et les chiffres de la même main.
    6. Déterminer la stratégie de portée (dégrossir, touch-alors-grasp, variante 1, variante 2 ou stratégie de variation 3 ; voir représentant résultats ci-dessous) utilisé pour chaque essai et inscrivez-la dans la feuille de calcul.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Cette section fournit des exemples des résultats pouvant être obtenus lorsque vous utilisez analyse vidéo image par image pour enquêter sur idiosyncrasiques mouvements portée à comprendre sous direction sensorielle non visuelle. La principale conclusion est que, lorsque les participants peuvent utiliser vision d’identifier préventivement les deux l’extrinsèque (emplacement/orientation) et propriétés intrinsèques (taille/forme) d’une cible d’objet qu'ils intègrent la portée et du saisir en un seul acte de préhension sans couture dans lequel ils preshape la main à la taille et la forme de la cible avant de le toucher (Figure 2 a). Quand la vision n’est pas disponible, cependant, ils dissocient les deux mouvements afin que la rétroaction tactile permet de diriger tout d’abord la main en ce qui concerne l’extrinsèque et puis en ce qui concerne les propriétés intrinsèques de la cible, dans ce qu’on appelle un généralisée stratégie de Touch-alors-grasp (Figure 2 b). Les résultats d’analyse vidéo image par image sont comparables à celle des systèmes sans la dépense, sans tracas et autres inconvénients d’attacher des capteurs aux mains du participant de suivi de mouvement traditionnel. Les résultats aussi soutenir le postulat de la double visuomotrices canal théorie de préhension que la portée et la portée sont séparables mouvements qui apparaissent comme des cas intégrés ensemble sous guidage visuel.

Tous les principaux événements comportements sont généralement présents dans la Vision et les Conditions de Vision de No. Cependant, il y a un changement notable dans la condition N° Vision, telle qu’une quantité significativement plue de temps est nécessaire à la transition d’ouverture maximale au premier contact, puis de premier contact au final grasp (Figure 3). Examen des résultats de l’analyse vidéo image par image cinématiques fournit un certain nombre d’explications à cette augmentation de la durée de mouvement dans la condition N° Vision.

La main prend une approche plus élevée à la cible et ainsi, permet d’obtenir une plus grande hauteur maximale dans l’état de non Vision par rapport à la condition de la Vision (Figure 4). Cette hauteur maximale supérieure est une caractéristique constante du mouvement No Vision portée à comprendre, même après 50 essais de pratique. L’utilisation d’une trajectoire pour atteindre plus élevée, où la main est augmentée au-dessus de la cible et puis descend sur elle par le haut, contribue probablement à la plus grande quantité de temps nécessaire à la transition d’ouverture maximale au premier contact dans la Vision de No par rapport aux conditions de Vision.

Dans la condition de la Vision de No, la main maintient une posture neutre, dans lequel les chiffres restent ouverts et prolongée pendant le transport vers la cible. Cela diffère de la condition de la Vision dans lequel les chiffres flex et fermer dans une configuration qui correspond à la taille de la cible en approche vers elle. Par conséquent, dans l’état de non Vision l’ouverture de la main ne pas preshape à la taille de la cible à chaque ouverture de pointe (Figure 5, haut) ou lors du premier contact (Figure 5, milieu). Ce manque de dégrossir dans la condition N° Vision signifie qu’un délai supplémentaire est nécessaire pour modifier la configuration de la main après un premier contact afin de correspondre à celle de la cible. Ceci contribue à l’augmentation du montant de temps nécessaire à la transition du premier contact au grasp final dans la condition N° Vision. Malgré les différences dans l’ouverture de la main avant et lors du premier contact avec la cible, une ouverture main à saisir final est identique dans les conditions de Vision et de la Vision de No (Figure 5, en bas).

Dans la Condition de Vision No, l’emplacement où le pouce (rouge) ou le doigt d’index (bleu) fait premier contact avec la cible est aléatoire dans l’ensemble de la surface dorsale de l’objet cible de façon désordonnée, indiquant l’absence d’un chiffre préféré-pouce orientation ( La figure 6, en bas à gauche). Cela diffère de la condition de la Vision dans lequel l’index et le pouce systématiquement établi premier contact avec opposer des côtés de la cible, indiquant la présence d’une orientation préférée à chiffres-pouce avant le premier contact (Figure 6, haut à gauche). L’absence d’une orientation préférée à chiffres-pouce avant le premier contact dans la condition N° Vision signifiait qu’un délai supplémentaire était nécessaire après le premier contact de réajuster la configuration et la position des doigts vers les points de maîtrise appropriées qui ont été propice à saisir en fait la cible. Finalement, ceci est réalisé au moment de saisir final (Figure 6, bas à droite) avec une consistance semblable à celle observée dans la condition de la Vision (Figure 6, coin supérieur droit).

Dans la condition N° Vision, les participants font généralement au moins un ajustement après le premier contact avec la cible (Figure 7), habituellement pour rediriger les chiffres points de compréhension plus appropriés sur la cible. En revanche, dans la condition de la Vision, les participants réglez jamais contact main-à-cible après un premier contact. Ainsi, les ajustements apportés par les participants à la condition No Vision susceptibles de contribuent à la plus grande quantité de temps nécessaire à la transition du premier contact au final grasp.

La figure 8 illustre la partie de la main utilisée pour fabriquer le premier contact avec la cible dans la condition de la Vision (Figure 8 aa gauche) et dans l’état de Vision de No (Figure 8 b, à gauche). Dans la condition de la Vision, les participants utilisent généralement le doigt index et/ou le pouce prendre premier contact avec la cible. En revanche, la partie de la main pour faire le premier contact avec la cible est beaucoup plus variable dans la condition N° Vision, avec les participants, souvent en utilisant les chiffres ou la paume pour établir le premier contact. Notamment, à la condition de Vision les chiffres pour faire le premier contact avec la cible sont les mêmes ceux qui font contact lors de la prise finale. En revanche, les parties de la main utilisés pour fabriquer le premier contact dans la condition N° Vision sont généralement différentes des parties de la main utilisée lors de la prise finale (Figure 8 a et 8 b de la Figure, droite).

La figure 9 illustre la proportion des essais sur lequel les participants utilisé une prise de pince ou de précision pour acquérir l’objet cible. Participants à la condition de Vision non utilisé une poignée de précision significativement plus qu’une pince grip, contrairement aux participants à la condition de la Vision, qui a préféré une poignée de la pince.

Dans la condition de la Vision, les participants utilisent systématiquement une stratégie preshaping dans lequel la main façonne et s’oriente vers la cible avant le premier contact afin de faciliter la saisie immédiate de la cible. Dans la condition de la Vision de No, la main ne forme ni orienter vers la cible avant le premier contact. Plutôt, dans l’état de non Vision la stratégie préféré saisir est une stratégie de touch-alors-portée. Cette stratégie se caractérise par un contact initial avec la cible, suivie d’une libération de contact au cours de laquelle la main des ré-formes et réoriente, ayant pour résultat modifié chiffres-cible lieux contact qui finalement facilitent la préhension réussie de la cible (Figure 10 a). Selon la configuration de la main au moment du premier contact, on observe des variations de la stratégie de touch-alors-portée. Dans la première variante (Figure 10 b), la main est semi en forme lors du premier contact et premier contact est établi avec l’index ou le pouce, mais dans un endroit inapproprié de contact, ce qui a entraîné des modifications dans les deux main forme et emplacement avant de contacter mise en place de la posture de l’emprise définitive. Dans la deuxième variante (Figure 10), la main ne façonne pas du tout avant le premier contact, mais le premier contact est établi avec une partie appropriée de la main à un endroit approprié sur la cible. Ainsi, une simple flexion des doigts restants permet la capture réussie de la cible entre les chiffres et le pouce dans une posture de préhension efficace. Dans la troisième variation (Figure 10), la main ne façonne pas du tout avant le premier contact et premier contact est fait à un endroit inapproprié sur la cible, mais avec une partie appropriée de la main. Ainsi, le chiffre qui fait le premier contact maintient le contact alors que les chiffres adjacents manipulent la cible dans une position que plus facilement facilite la préhension de la cible entre le pouce et l’index ou du majeur.

Figure 1
Figure 1 : Six épreuves comportementales. Encore des images qui illustrent les 6 épreuves comportementales clés qui constituent un mouvement stéréotypé de portée à comprendre visuellement guidée adultes en bonne santé humaines. Les flèches blanches indiquent les aspects de l’action de la main/qui sont les plus pertinents pour identifier chaque épreuve comportementale. Les participants ont atteint avec leur main dominante. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 2
Figure 2 : saisir les stratégies utilisées par les adultes dans les conditions de Vision et Vision No. Encore des images illustrant la stratégie preshaping (A) qui a été favorisée par les participants à la condition de la Vision et la stratégie générale de touch-alors-portée (B) qui a été favorisée par les participants à la condition de la Vision de No. Les participants ont atteint avec leur main dominante. Ce chiffre a été modifié par Karl et coll. 6 et Whishaw et al. 11 S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 3
Figure 3 : organisation temporelle du mouvement portée à comprendre. Temps (moyenne ± écart (SE)) à l’ouverture (gris clair) de pointe, premier contact (gris moyen) et final grasp (noir) du mouvement portée à comprendre des participants (n = 12) dans la Vision (en haut) et les conditions de Vision de No (en bas). Ce chiffre a été modifié par Karl et coll. 6 S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 4
Figure 4 : hauteur Maximum. Hauteur maximale (moyenne ± écart type) de la trajectoire de portée à comprendre pour les cinq premiers par rapport aux dernière cinq essais de chaque participant (n = 20) dans les conditions de la Vision et la Vision de No (A). Ces résultats sont confirmés par des mesures répétées analyse de variance (ANOVA) qui a trouvé un effet principal de la Condition F(1,17) = 35.673, p < 0,001 mais aucun effet principal d’essai F(9 153) = 1.173, p > 0,05 (*** = p < 0,001). Images fixes représentant du bras et de main au moment de la hauteur maximale sur les premières et la dernières des essais expérimentaux dans la condition de la Vision et la Vision de No (B). Les participants ont atteint avec leur main dominante. Ce chiffre a été modifié et présente des données initialement publiées dans Karl et coll. 8 S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 5
Figure 5 : ouverture. Ouverture max. (moyenne ± écart type ; haut), l’ouverture lors du premier contact (moyenne ± écart type ; moyen) et une ouverture à saisir final (moyenne ± écart type ; bas) des participants (n = 12) pour atteindre la Vision (gris) et des conditions de Vision No (noir). Ces résultats ont été confirmés par des mesures répétées ANOVA qui trouve une interaction significative de la Condition X cible pour ouverture max. F(2,20) = 101.088, p < 0,001 et ouverture dans un premier temps contacter F(2,20) = 114.779, p < 0,001 , mais pas pour une ouverture à saisir final F(2,20) = 0.457, p > 0,05 (*** = p < 0,001). Noter que les mesures d’ouverture indiquent les graphiques ont été calculées en utilisant à la fois un mouvement 3D traditionnel suivi de système et analyse vidéo image par image. Les participants ont atteint avec leur main dominante. B = myrtille, D = boule de donut, O = tranche d’orange. Ce chiffre a été modifié et présente des données initialement publiées dans Karl et coll. 6 S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 6
Figure 6 : tout d’abord les points de contact et de saisir les points de contact. Emplacement des points de contact au moment du premier contact avec la cible (à gauche) et final se saisir de la cible (à droite). Les participants ont atteint avec leur main dominante. Ce chiffre a été modifié et présente des données initialement publiées dans Karl et coll. 6 S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 7
Figure 7 : ajustements. Nombre d’ajustements (moyenne ± écart type) entre le premier contact et saisir final pour tous les participants (n = 18) dans les conditions de Vision de No et de Vision. Ces résultats sont confirmés par une analyse de la variance qui a donné un effet significatif de la Condition F(1,17) des mesures répétées = 55.987, p < 0,001 (*** = p < 0,001). Les participants ont atteint avec leur main dominante. Ce chiffre a été modifié et présente des données initialement publiées dans Karl et coll. 10 S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 8
Figure 8 : partie de la main pour faire contact avec la cible. Partie de la main au premier contact contact (à gauche) et final saisir contacts (à droite) avec l’objet cible sur les cinq premiers et durent cinq essais expérimentaux sur la Vision (en haut) et les conditions de Vision No (en bas). Les participants ont atteint avec leur main dominante. Ce chiffre a été modifié et présente des données initialement publiées dans Karl et coll. 8 S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 9
Figure 9 : type de poignée : Proportion des essais (moyenne ± écart type) pour lesquels les participants (n = 12) utilisé une pince ou une précision grip pour acquérir la cible dans les conditions de Vision (A) et N° Vision (B). Ces résultats sont confirmés par une analyse de la variance qui a trouvé un effet significatif de la Condition X Grip F(1,11) à mesures répétées = 32.301, p < 0,001 (*** = p < 0,001). Les participants ont atteint avec leur main dominante. Ce chiffre a été modifié et présente des données initialement publiées dans Karl et coll. 6 S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 10
Figure 10 : saisir les stratégies. Images fixes représentant illustrent la stratégie générale de touch-alors-saisir (A), ainsi que 3 variantes de celui-ci (B-D) par les participants à la condition de la Vision de No. Les participants ont atteint avec leur main dominante. Ce chiffre a été modifié et présente des données initialement publiées dans Karl et coll. 6 S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Principaux événements comportementaux Description Compte rendu
1. mouvement démarrer Définie comme la première levée visible de la paume de la main loin de la face dorsale de la cuisse > Numéro d’image
2. collection Défini comme la formation d’une posture de main fermée dans laquelle les chiffres au maximum flex et ferment. Collection peut être très évident ou très subtile > Numéro d’image
> Distance entre la pointe centrale de l’index et la pointe centrale du pouce
3. hauteur Définie comme la hauteur maximale de la jointure la plus proximale de l’index > Numéro d’image
> La dénivellation entre le haut de la colonne et la partie supérieure de la jointure de l’index
4. ouverture max. Définie comme l’ouverture maximale de la main, mesurée entre les deux chiffres utilisés pour garantir la prise définitive de l’objet, généralement l’index et le pouce. Dans certains cas que les chiffres reprendra après contact de la cible et il sera nécessaires d’enregistrer une deuxième ouverture de pointe après contact de la cible > Numéro d’image
> Distance entre la pointe centrale de l’index et la pointe centrale du pouce
5. premier Contact Défini comme le moment du premier contact entre la main et la cible > Numéro d’image
> Distance entre la pointe centrale de l’index et la pointe centrale du pouce
> La partie de la main pour faire le premier contact avec la cible (Figure 8)
> Points de contact premiers (Figure 6)
6. final Grasp Défini comme le moment où toutes les manipulations de la cible est terminée et le participant établit une prise ferme sur la cible > Numéro d’image
> Distance entre la pointe centrale de l’index et la pointe centrale du pouce
> Saisir les points de contact (Figure 6)
> Type grip
> La partie de la main pour faire contact avec la cible à la finale grasp (Figure 8)

Tableau 1 : Description des principaux événements comportements. Répertorie les 6 principaux événements comportements pouvant être acquis à l’aide de l’analyse vidéo image par image (première colonne). Chaque événement comportementale est accompagné d’une description ((deuxième colonne) ainsi qu’une liste des informations temporelles et cinématiques qui doivent être enregistrées pour chaque ((troisième colonne).

Mesure topographique Description Compte rendu
Partie de la main d’établir un premier Contact Décrit de quelle partie de la main était utilisée pour fabriquer le premier contact avec la cible (1 = pouce, 2 = doigt, 3 = majeur, 4 = annulaire, 5 = petit doigt, 6 = paume, 7 = dos de main) > Quelle partie de la main était utilisée pour fabriquer le premier contact avec la cible
Points de contact Montre où l’objectif premier contact avec la main a eu lieu > Voir l’étape 8.1.2.
GRASP Points Illustre où sur la cible, la main faite contact tout en établissant la portée définitive de la cible > Voir l’étape 8.1.3.
Ajustements Est considéré comme un mouvement de portée à comprendre comportent un rajustement si, entre le premier contact et prise finale, le participant libère et rétablit le contact avec la cible > Nombre d’ajustements par procès
Type de poignée Décrit la configuration d’adhérence utilisée pour acquérir l’objet cible > Voir l’étape 8.1.5.
Saisir la stratégie Se réfère à l’utilisation de différentes manipulations de chiffre à l’objectif après un premier contact afin de faciliter le succès de préhension de la cible > Type de stratégie de portée utilisée (Figure 10)

Tableau 2 : Description des mesures topographiques. Énumère les mesures topographiques qui peuvent être acquises à l’aide de l’analyse vidéo image par image (première colonne). Chaque mesure est accompagnée d’une description ((deuxième colonne) ainsi qu’une liste des types d’informations qui doivent être enregistrées pour chaque ((troisième colonne).

La Table 1 : feuille de calcul pour la collecte des données. Un modèle pour l’Organisation les mesures temporelles, cinématiques et topographiques (sans compter les points de contact et saisir) prélevés analyse vidéo image par image dans une feuille de calcul unique. S’il vous plaît cliquez ici pour télécharger ce fichier.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Le présent document explique comment utiliser l’analyse vidéo image par image pour quantifier l’organisation temporelle, structure cinématique et un sous-ensemble des caractéristiques topographiques de mouvements humains de portée à comprendre. La technique permet d’étudier les mouvements de portée à comprendre visuellement guidée typiques, mais aussi singulière portée à comprendre les mouvements. Ces mouvements sont difficiles à étudier à l’aide de systèmes de suivi de mouvement 3D traditionnel, mais sont fréquentes chez les nourrissons en voie de développement, les participants avec traitement sensoriel altéré et les patients atteints de troubles sensorimoteurs comme la cécité, la maladie de Parkinson, accidents vasculaires cérébraux, ou Paralysie cérébrale. Ainsi, l’utilisation de l’analyse vidéo image par image permettra aux chercheurs d’étendre leur domaine de recherche à inclure un plus grand éventail de comportements préhensiles, guidé par une plus grande variété de modalités sensorielles, de populations cliniques et en santé. Les avantages spécifiques de l’analyse vidéo image par image comprennent son coût relativement abordable, la facilité à mettre en œuvre, le manque de capteurs ou des marqueurs qui entravent les capacités sensorielles et motrices des mains, compatibilité avec d’autres systèmes de suivi de mouvement et la capacité de décrire les changements subtils dans le mouvement de portée à comprendre qui sont souvent difficiles à interpréter de la cinématique sortie fournie par les systèmes de suivi de mouvement 3D plus traditionnel. Ensemble, ces fonctionnalités d’analyse vidéo image par image ont permis de faire progresser notre compréhension théorique du contrôle de la préhension neurocomportementales.

Bien qu’il existe de nombreux cas qui analyse vidéo image par image peut être l’option seulement fiable permettant d’analyser la singulière portée à comprendre les mouvements, il est important de noter que la technique fait face à certaines limitations. Tout d’abord, les mesures de distance (p. ex., ouverture max.) acquis en utilisant l’analyse vidéo image par image sont 2D et moins précis par rapport aux traditionnel systèmes de suivi de mouvement 3D. Néanmoins, si nécessaire, des caméras supplémentaires pourraient se concentrer sur la région d’intérêt. Cela permet l’expérimentateur sélectionner l’affichage de la caméra qui fournit l’affichage plus clair fronto-parallèle de la manifestation comportementale d’intérêt et ainsi augmenter la précision de la mesure de la distance pour cet événement particulier. En outre, si la très grande précision est requise pour les mesures de distance puis analyse vidéo image par image peut facilement être combiné avec le traditionnel mouvement 3D suivi techniques (voir la Figure 4, 5et 10) comme il n’entrave pas données collection du système traditionnel. Deuxièmement, le succès ultime de la technique est critique dépend de l’intégrité de l’enregistrement vidéo. Vues de tournages qui captent bien le comportement de choix, en utilisant une vitesse d’obturation de 1/1000ème de seconde avec une forte source de lumière et veiller à ce que le focus de la caméra reste stabilisé sur l’action d’intérêt seront contribuent tous à faire en sorte que des images individuelles dans l’enregistrement vidéo sont croquants, sans artefacts de mouvement et facile à analyser. Enfin, lorsque tout d’abord apprendre à mettre en œuvre la technique, les chercheurs souhaitera peut-être d’utiliser plusieurs moteurs aveugles pour assurer haute objectivité pour la notation des divers événements comportements. Une fois formés, cependant, notation est très fiable et fiabilité inter-évaluateur peut être facilement établie à l’aide d’un petit sous-ensemble d’exemples de données.

Analyse vidéo image par image, contrairement aux traditionnelles 3D motion des systèmes de suivi, peut fournir une description plus éthologique valide de naturel pour atteindre et saisir le comportement car elle ne nécessite pas la mise en place de marqueurs ou des capteurs sur le participant bras ou des mains. En outre, de nombreux systèmes de suivi de mouvement 3D nécessitent une visibilité constante et directe entre la caméra et capteurs/marqueurs placés sur les mains. Pour y parvenir, la plupart des utilisateurs de cette technologie de demandent aux participants de commencer le mouvement portée à comprendre avec la main en forme dans une configuration anormale entre l’index et le pouce pincé ensemble. Ils demandent également aux participants d’appréhender l’objet de cible de façon prédéfinie (généralement une poignée pince) avec une orientation prédéfinie. Ces directives sont nécessaires pour assurer que le mouvement de portée à comprendre se déroule d’une manière prévisible et stéréotypée que les systèmes traditionnels d’enregistrement peuvent subir une perte de données significatives lorsque la trajectoire du bras et la configuration de la main ne suivent pas une cours prévisible qui maintient la ligne de visée entre la caméra et capteurs/marqueurs. Néanmoins, imposer ces contraintes sévèrement limite la validité éthologique de la tâche et peut même modifier l’organisation du mouvement ; par exemple, il n’est pas possible d’observer l’événement comportemental clé de la « collection », lorsque la configuration de la main initiale est celle d’un pincement entre le pouce et l’index doigt13,14. Ces limitations sont largement dépassées lorsque vous utilisez l’analyse vidéo image par image comme atteignent de variations de trajectoire et de configuration de la main sont beaucoup moins susceptibles de se traduire par une perte complète des données dans l’enregistrement vidéo, donc il n’y a pas lieu d’imposer ces contre nature contraintes sur le mouvement portée à comprendre.

Analyse vidéo image par image permet aussi d’observer des modifications subtiles du mouvement portée à comprendre au-delà de ce qui est généralement possible avec le traditionnel mouvement 3D tracking systems, surtout lorsque la modification n’est pas une prévision spécifique du l’étude. Un exemple illustrera : Figure 5 (en haut) montre les mesures d’ouverture max. acquis d’objets participants atteignant à comprendre trois différentes taille avec vision ou sans vision. Les résultats suggèrent que les participants échelle préventivement ouverture de pointe pour correspondre à la taille de la cible dans la condition de la Vision, mais pas dans la condition N° Vision. Dans la condition N° Vision participants utilisent une ouverture de pointe conforme malgré pour atteindre des cibles de taille variable. Si l'on devait considérer uniquement le type de données d’un système de suivi de mouvement 3D traditionnel, semblable à celui illustré à la Figure 5 (en haut à gauche), il y a deux explications possibles de cette anomalie. Tout d’abord, il pourrait être que la condition N° Vision participants façonnent la main dans une posture de préhension qui correspond à la taille « moyenne » ou « moyenne » des trois cibles possibles. Sinon, ils ne peuvent pas former une posture de préhension du tout, mais plutôt, ils peuvent former une main légèrement plus ouverte pendant le transport vers la cible, d’augmenter les chances de faire un contact tactile avec la cible, qui comme par hasard correspond à la taille du « milieu » cible. Pour différencier ces deux possibilités, il est nécessaire d’examiner les données de l’analyse vidéo image par image, dont un modèle est donné dans la Figure 5 (en haut à droite), qui indique clairement que les participants ne sont pas façonner leur main un saisir la posture qui correspond au « milieu » taille objet dans l’état de non Vision ; au contraire, ils forment une forme de main ouverte mais neutre qui pourrait être utilisé non plus localiser la cible grâce à la rétroaction tactile et/ou à saisir la cible. Ainsi, analyse vidéo image par image peut fournir des éclaircissements lorsque les systèmes de capture de données de mouvement 3D traditionnel sont ambigu et peuvent permettre à une plus véritable interprétation des résultats.

L’utilisation de l’analyse vidéo image par image pour étudier les mouvements de portée à comprendre des non-voyants adultes6,8,9,10, bébés humains11, les primates non humains12et rongeurs 15 a déjà grandement amplifié notre compréhension du contrôle neurocomportementales de la préhension. Plus précisément, les résultats de ces études montrent invariablement que dans les premiers stades de développement préhensile et l’évolution la stratégie touch-alors-portée , dont la portée et la compréhension sont temporellement dissociés pour capitaliser sur des repères tactiles, est préférable à la stratégie de préparation où les deux mouvements sont intégrées dans un seul acte sans soudure sous guidage visuel. Ces résultats fournissent un soutien comportemental important pour la théorie de Visuomotor bicanale et suggèrent en outre que la théorie devrait être révisée pour tenir compte du fait que séparer la portée et saisir mouvements susceptibles sont créés sous le contrôle tactile bien avant ils sont intégrés ensemble sous guidage visuel1,2.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Les auteurs n’ont aucun intérêt financier concurrentes de divulguer.

Acknowledgments

Les auteurs aimeraient remercier Alexis M. Wilson et Marisa E. Bertoli pour leur aide avec le tournage et la préparation de la vidéo de ce manuscrit. Cette recherche a été financée par les Sciences naturelles et génie conseil de recherches (JMK, JRK, IQW), Alberta Innovates-Health Solutions (JMK) et l’instituts de recherche en santé du Canada (IQW).

Materials

Name Company Catalog Number Comments
High Speed Video Cameras Casio http://www.casio-intl.com/asia-mea/en/dc/ex_f1/ or http://www.casio-intl.com/asia-mea/en/dc/ex_100/ Casio EX-F1 High Speed Camera or Casio EX-100 High Speed Camera used to collect high speed video records
Adobe Photoshop Adobe http://www.adobe.com/ca/products/photoshop.html Software used to calibrate and measure distances on individual video frames
Adobe Premiere Pro Adobe http://www.adobe.com/ca/products/premiere.html?sdid=KKQOM&mv=search&s_kwcid=AL!3085!3!193588412847!e!!g!!adobe%20premiere%20pro&ef_id=WDd17AAABAeTD6-D:20170606160204:s Software used to perform Frame-by-Frame Video Analysis
Height-Adjustable Pedestal Sanus http://www.sanus.com/en_US/products/speaker-stands/htb3/ A height adjustable speaker stand with a custom made 9 cm x 9 cm x 9 cm triangular top plate attached to the top with a screw is used as a reaching pedestal
1 cm Calibration Cube Learning Resources (Walmart) https://www.walmart.com/ip/Learning-Resources-Centimeter-Cubes-Set-500/24886372 A 1 cm plastic cube is used to transform distance measures from pixels to centimeters
Studio Light Dot Line https://www.bhphotovideo.com/c/product/1035910-REG/dot_line_rs_5620_1600w_led_light.html Strong lamp with cool LED light used to illumate the participant and testing area
3 Dimensional (3D) Sleep Mask Kfine https://www.amazon.com/Kfine-Sleeping-Contoured-lightweight-Comfortable/dp/B06W5CDY78?th=1 Used as a blindfold to occlude vision in the No Vision condition
Orange Slices N/A N/A Orange slices served as the large sized reaching targets
Donut Balls Tim Hortons http://www.timhortons.com/ca/en/menu/timbits.php Old fashion plain timbits from Tim Hortons served as the medium sized reaching targets
Blueberries N/A N/A Blueberries served as the small sized reaching targets

DOWNLOAD MATERIALS LIST

References

  1. Karl, J. M., Whishaw, I. Q. Different evolutionary origins for the Reach and the Grasp: an explanation for dual visuomotor channels in primate parietofrontal cortex. Front Neurol. 4 (208), (2013).
  2. Whishaw, I. Q., Karl, J. M. The contribution of the reach and the grasp to shaping brain and behaviour. Can J Exp Psychol. 68 (4), 223-235 (2014).
  3. Jeannerod, M. Intersegmental coordination during reaching at natural visual objects. Attention and Performance IX. Long, J., Badeley, A. , Hillsdale: Lawrence Erlbaum Associates. 153-169 (1981).
  4. Arbib, M. A. Perceptual structures and distributed motor control. Handbook of Physiology. Brooks, V. B. 2, American Psychological Society. 1449-1480 (1981).
  5. De Bruin, N., Sacrey, L. A., Brown, L. A., Doan, J., Whishaw, I. Q. Visual guidance for hand advance but not hand withdrawal in a reach-to-eat task in adult humans: reaching is a composite movement. J Mot Behav. 40 (4), 337-346 (2008).
  6. Karl, J. M., Sacrey, L. A., Doan, J. B., Whishaw, I. Q. Hand shaping using hapsis resembles visually guided hand shaping. Exp Brain Res. 219 (1), 59-74 (2012).
  7. Domellöff, E., Hopkins, B., Francis, B., Rönnqvist, L. Effects of finger markers on the kinematics of reaching movements in young children and adults. J Appl Biomech. 23 (4), 315-321 (2007).
  8. Karl, J. M., Sacrey, L. A., Doan, J. B., Whishaw, I. Q. Oral hapsis guides accurate hand preshaping for grasping food targets in the mouth. Exp Brain Res. 221 (2), 223-240 (2012).
  9. Karl, J. M., Schneider, L. R., Whishaw, I. Q. Nonvisual learning of intrinsic object properties in a reaching task dissociates grasp from reach. Exp Brain Res. 225 (4), 465-477 (2013).
  10. Hall, L. A., Karl, J. M., Thomas, B. L., Whishaw, I. Q. Reach and Grasp reconfigurations reveal that proprioception assists reaching and hapsis assists grasping in peripheral vision. Exp Brain Res. 232 (9), 2807-2819 (2014).
  11. Karl, J. M., Whishaw, I. Q. Haptic grasping configurations in early infancy reveal different developmental profiles for visual guidance of the Reach versus the Grasp. Exp Brain Res. 232 (9), 3301-3316 (2014).
  12. Whishaw, I. Q., Karl, J. M., Humphrey, N. K. Dissociation of the Reach and the Grasp in the destriate (V1) monkey Helen: a new anatomy for the dual visuomotor channel theory of reaching. Exp Brain Res. 234 (8), 2351-2362 (2016).
  13. Timmann, D., Stelmach, G. E., Bloedel, J. R. Grasping component alterations and limb transport. Exp Brain Res. 108 (3), 486-492 (1996).
  14. Saling, M., Mescheriakov, S., Molokanova, E., Stelmach, G. E., Berger, M. Grip reorganization during wrist transport: the influence of an altered aperture. Exp Brain Res. 108 (3), 493-500 (1996).
  15. Whishaw, I. Q., Faraji, J., Kuntz, J., Mirza Ahga, B., Patel, M., Metz, G. A. S., et al. Organization of the reach and grasp in head-fixed vs freely-moving mice provides support for multiple motor channel theory of neocortical organization. Exp Brain Res. 235 (6), 1919-1932 (2017).

Tags

Comportement numéro 131 préhension atteindre saisir analyse vidéo image par image cinématique linéaire main dégrossir troubles sensorimoteurs double canal visuomoteur visuellement guidé pour atteindre non visuellement guidé pour atteindre vision somatosensation
Analyse vidéo image par image des mouvements de Reach à comprendre idiosyncrasiques chez l’homme
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Karl, J. M., Kuntz, J. R., Lenhart,More

Karl, J. M., Kuntz, J. R., Lenhart, L. A., Whishaw, I. Q. Frame-by-Frame Video Analysis of Idiosyncratic Reach-to-Grasp Movements in Humans. J. Vis. Exp. (131), e56733, doi:10.3791/56733 (2018).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter