Waiting
Login-Verarbeitung ...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Engineering

Évaluation des aspects d’utilisabilité d’une solution de réalité mixte pour l’analyse immersive dans les scénarios de l’industrie 4.0

Published: October 6, 2020 doi: 10.3791/61349

Summary

Ce protocole définit le cadre technique d’une application de réalité mixte développée qui est utilisée pour l’analyse immersive. Sur cette base, des mesures sont présentées, qui ont été utilisées dans une étude pour mieux comprendre les aspects d’utilisabilité de la solution technique développée.

Abstract

En médecine ou dans l’industrie, l’analyse d’ensembles de données de grande dimension est de plus en plus nécessaire. Cependant, les solutions techniques disponibles sont souvent complexes à utiliser. Par conséquent, de nouvelles approches telles que l’analyse immersive sont les bienvenues. L’analyse immersive promet de faire l’expérience d’ensembles de données de grande dimension de manière pratique pour divers groupes d’utilisateurs et ensembles de données. Techniquement, les dispositifs de réalité virtuelle sont utilisés pour permettre des analyses immersives. Dans l’industrie 4.0, par exemple, des scénarios tels que l’identification de valeurs aberrantes ou d’anomalies dans des ensembles de données de grande dimension sont des objectifs poursuivis de l’analyse immersive. Dans ce contexte, deux questions importantes doivent être abordées pour toute solution technique développée sur l’analyse immersive : premièrement, les solutions techniques sont-elles utiles ou non ? Deuxièmement, l’expérience corporelle de la solution technique est-elle positive ou négative? La première question vise la faisabilité générale d’une solution technique, tandis que la seconde vise le confort de port. Les études et protocoles existants, qui abordent systématiquement ces questions, sont encore rares. Dans ce travail, un protocole d’étude est présenté, qui étudie principalement la facilité d’utilisation de l’analyse immersive dans les scénarios de l’industrie 4.0. Plus précisément, le protocole repose sur quatre piliers. Tout d’abord, il catégorise les utilisateurs en fonction des expériences précédentes. Deuxièmement, des tâches sont présentées, qui peuvent être utilisées pour évaluer la faisabilité de la solution technique. Troisièmement, des mesures sont présentées, qui quantifient l’effet d’apprentissage d’un utilisateur. Quatrièmement, un questionnaire évalue le niveau de stress lors de l’exécution des tâches. Sur la base de ces piliers, un cadre technique a été mis en œuvre qui utilise des lunettes intelligentes de réalité mixte pour appliquer le protocole de l’étude. Les résultats de l’étude menée montrent l’applicabilité du protocole d’une part et la faisabilité de l’analyse immersive dans les scénarios de l’industrie 4.0 d’autre part. Le protocole présenté comprend une discussion sur les limites découvertes.

Introduction

Les solutions de réalité virtuelle (solutions VR) sont de plus en plus importantes dans différents domaines. Souvent, avec les solutions de RV (y compris la réalité virtuelle, la réalité mixte et la réalité augmentée), l’accomplissement de nombreuses tâches et procédures quotidiennes doit être facilité. Par exemple, dans le domaine automobile, la procédure de configuration d’une voiture peut être prise en charge par l’utilisation de la réalité virtuelle1 (VR). Les chercheurs et les praticiens ont étudié et développé une multitude d’approches et de solutions dans ce contexte. Cependant, les études qui étudient les aspects de la convivialité sont encore rares. D’une manière générale, ces aspects doivent être examinés à la lumière de deux grandes questions. Tout d’abord, il faut évaluer si une solution de RV surpasse réellement une approche qui n’utilise pas de techniques de RV. Deuxièmement, comme les solutions de RV reposent principalement sur des dispositifs matériels lourds et complexes, des paramètres tels que le confort de port et l’effort mental devraient être étudiés plus en profondeur. En outre, les aspects mentionnés doivent toujours être étudiés par rapport au domaine d’application en question. Bien que de nombreuses approches existantes voient la nécessité d’étudier ces questions2, il existe moins d’études qui ont présenté des résultats.

Un sujet de recherche dans le domaine de la RV, qui est actuellement important, est désigné par l’analyse immersive. Il est dérivé du domaine de recherche de l’analyse visuelle, qui tente d’inclure la perception humaine dans les tâches d’analyse. Ce processus est également connu sous le nom d’exploration visuellede données 4. L’analyse immersive comprend des sujets issus des domaines de la visualisation de données, de l’analyse visuelle, de la réalité virtuelle, de l’infographie et de l’interaction homme-machine5. Les avantages récents des casques d’affichage (HMD) ont permis d’améliorer les possibilités d’exploration des données de manière immersive. Le long de ces tendances, de nouveaux défis et questions de recherche émergent, comme le développement de nouveaux systèmes d’interaction, la nécessité d’étudier la fatigue des utilisateurs ou le développement de visualisations 3D sophistiquées6. Dans une publication précédente6, les principes importants de l’analyse immersive sont discutés. À la lumière du big data, des méthodes telles que l’analyse immersive sont de plus en plus nécessaires pour permettre une meilleure analyse de pools de données complexes. Il n’existe que quelques études qui étudient les aspects d’utilisabilité des solutions d’analyse immersive. En outre, le domaine ou le domaine en question devrait également être pris en compte dans ces études. Dans ce travail, un prototype d’analyse immersive a été développé et, sur cette base, un protocole qui étudie la solution développée pour les scénarios de l’industrie 4.0. Le protocole exploite ainsi la méthode d’expérience2, basée sur des aspects subjectifs, performants et physiologiques. Dans le protocole en question, les aspects subjectifs sont mesurés par le stress perçu des utilisateurs de l’étude. La performance, à son tour, est mesurée par le temps requis et les erreurs qui sont faites pour accomplir les tâches d’analyse. Enfin, un capteur de conductance cutanée a mesuré les paramètres physiologiques. Les deux premières mesures seront présentées dans ce travail, tandis que la conductance cutanée mesurée nécessite des efforts supplémentaires pour être évaluée.

L’étude présentée implique plusieurs domaines de recherche, notamment les aspects neurosciences et les systèmes d’information. Il est intéressant de noter que des considérations sur les aspects neurosciences des systèmes d’information ont récemment attiré l’attention de plusieurs groupes de recherche7,8, montrant la demande d’explorer l’utilisation des systèmes informatiques également d’un point de vue cognitif. Un autre domaine pertinent pour ce travail est l’étude des facteurs humains des systèmes d’information 9,10,11. Dans le domaine de l’interaction homme-machine, il existe des instruments pour étudier la facilité d’utilisation d’une solution. Notez que l’échelle d’utilisabilité du système est principalement utilisée dans ce contexte12. Thinking Aloud Protocols13 est une autre technique d’étude largement utilisée pour en savoir plus sur l’utilisation des systèmes d’information. Bien qu’il existe de nombreuses approches pour mesurer les aspects d’utilisabilité des systèmes d’information, et que certaines d’entre elles aient été présentées il y a longtemps14, des questions émergent encore qui nécessitent d’étudier de nouvelles mesures ou méthodes d’étude. Par conséquent, la recherche dans ce domaine est très active12,15,16.

Dans ce qui suit, les raisons pour lesquelles deux méthodes couramment utilisées n’ont pas été prises en compte dans le présent travail seront discutées. Premièrement, l’échelle de convivialité du système n’a pas été utilisée. L’échelle est basée sur dix questions17 et son utilisation peut également être trouvée dans plusieurs autres études VR18. Comme cette étude vise principalement la mesure du stress19, un questionnaire lié au stress était plus approprié. Deuxièmement, aucun protocole20 de réflexion à voix haute n’a été utilisé. Bien que ce type de protocole ait montré son utilité en général13, il n’a pas été utilisé ici car le niveau de stress des utilisateurs de l’étude pourrait augmenter uniquement en raison du fait que la session de réflexion à voix haute doit être réalisée parallèlement à l’utilisation d’un appareil de RV lourd et complexe. Bien que ces deux techniques n’aient pas été utilisées, les résultats d’autres études récentes ont été incorporés dans l’étude en question. Par exemple, dans les travaux précédents21,22, les auteurs font la distinction entre novices et experts dans leurs études. Sur la base des résultats positifs de ces études, le protocole en question utilise cette séparation présentée des utilisateurs de l’étude. La mesure des contraintes, à son tour, est basée sur les idées des travaux suivants 15,19,21,22.

Dans un premier temps, pour mener l’étude, un scénario Industrie 4.0 approprié doit être trouvé pour accomplir les tâches analytiques. Inspirés par un autre travail des auteurs23, deux scénarios (c’est-à-dire les tâches d’analyse) ont été identifiés, (1) Détection des valeurs aberrantes et (2) Reconnaissance des clusters. Les deux scénarios sont difficiles et sont très pertinents dans le contexte de la maintenance des machines de production à haut débit. Sur la base de cette décision, six considérations majeures ont guidé le protocole d’étude présenté dans ce travail :

  1. La solution développée pour l’étude sera techniquement basée sur des lunettes intelligentes de réalité mixte (voir Tableau des matériaux) et sera développée en tant qu’application de réalité mixte.
  2. Un test approprié doit être développé, capable de distinguer les novices des utilisateurs avancés.
  3. Les mesures du rendement devraient tenir compte du temps et des erreurs.
  4. Une application de bureau doit être développée, qui peut être comparée à la solution d’analyse immersive.
  5. Une mesure doit être appliquée pour évaluer le niveau de stress perçu.
  6. En plus de ce dernier point, des caractéristiques doivent être développées pour atténuer le niveau de contrainte pendant qu’un utilisateur accomplit la procédure des deux tâches d’analyse mentionnées (c’est-à-dire (1) Détection des valeurs aberrantes et (2) Reconnaissance des clusters).

Sur la base des six points mentionnés, le protocole de l’étude intègre la procédure suivante. Les tâches de détection des valeurs aberrantes et d’analyse de reconnaissance de cluster doivent être accomplies de manière immersive à l’aide de lunettes intelligentes de réalité mixte (voir Tableau des matériaux). Par conséquent, une nouvelle application a été développée. Les sons spatiaux doivent faciliter l’exécution des tâches d’analyse sans augmenter l’effort mental. Une fonction vocale doit faciliter la navigation utilisée pour l’application développée des lunettes intelligentes de réalité mixte (voir Tableau des matériaux). Un test de rotation mentale doit servir de base pour distinguer les novices des utilisateurs avancés. Le niveau de stress est mesuré à l’aide d’un questionnaire. Les performances, à leur tour, sont évaluées en fonction du (1) temps dont un utilisateur a besoin pour les tâches d’analyse et en fonction des (2) erreurs commises par un utilisateur pour les tâches d’analyse. Les performances dans le smartglass de réalité mixte sont comparées à l’accomplissement des mêmes tâches dans une application de bureau 2D nouvellement développée et comparable. En outre, un dispositif de conductance cutanée est utilisé pour mesurer le niveau de conductance cutanée comme indicateur possible de stress. Les résultats de cette mesure font l’objet d’une analyse plus approfondie et ne seront pas abordés dans le cadre de ce travail. Les auteurs ont révélé dans une autre étude avec le même appareil que des considérations supplémentaires sont nécessaires24.

Sur la base de ce protocole, les cinq questions de recherche (QR) suivantes sont abordées :

QR1 : Les capacités d’imagination spatiale des participants affectent-elles l’exécution des tâches de manière significative?
QR2 : Y a-t-il un changement important dans l’exécution des tâches au fil du temps?
QR3 : Y a-t-il un changement significatif dans les performances des tâches lors de l’utilisation de sons spatiaux dans la solution d’analyse immersive ?
QR4 : L’analytique immersive développée est-elle perçue comme stressante par les utilisateurs ?
QR5 : Les utilisateurs sont-ils plus performants lorsqu’ils utilisent une solution d’analyse immersive qu’une approche 2D ?

La figure 1 résume le protocole présenté par rapport à deux échelles. Il montre les mesures développées et utilisées et leur nouveauté par rapport au niveau d’interaction. Comme le niveau d’interaction constitue un aspect important lors du développement de fonctionnalités pour un paramètre VR, la figure 1 montrera mieux la nouveauté de l’ensemble du protocole développé dans ce travail. Bien que l’évaluation des aspects dans les deux échelles utilisées soit subjective, leur évaluation globale est basée sur les travaux connexes actuels et les considérations majeures suivantes: Un principe important consiste à utiliser des abstractions d’un environnement pour une interaction naturelle, dans laquelle l’utilisateur s’est familiarisé. En ce qui concerne le protocole en question, la visualisation des nuages de points semble être intuitive pour les utilisateurs et la reconnaissance des modèles dans ces nuages a été reconnue comme une tâche gérable en général. Un autre principe important consiste à superposer les affordances. Ainsi, l’utilisation de sons spatiaux tels qu’utilisés dans le protocole en question est un exemple, car ils sont en corrélation avec la proximité d’un objet recherché. Les auteurs recommandent d’ajuster les représentations de manière à ce que la plupart des informations soient situées dans la zone intermédiaire, ce qui est le plus important pour la perception humaine. La raison pour laquelle les auteurs n’ont pas inclus ce principe était d’encourager l’utilisateur à trouver le meilleur endroit par lui-même ainsi que d’essayer de s’orienter dans un espace de visualisation de données, trop grand pour être montré immédiatement. Dans l’approche présentée, aucune autre considération des caractéristiques des données 3D à montrer n’a été faite. Par exemple, si une dimension est supposée temporelle, des nuages de points auraient pu être affichés. Les auteurs considèrent ce type de visualisation généralement intéressant dans le contexte de l’industrie 4.0. Cependant, il doit se concentrer sur un ensemble raisonnablement petit de visualisations. De plus, une publication précédente portait déjà sur l’analyse collaborative des données. Dans ce travail, cette question de recherche a été exclue en raison de la complexité des autres questions abordées dans cette étude. Dans la configuration présentée ici, l’utilisateur peut explorer l’espace immersif en se promenant. D’autres approches proposent aux contrôleurs d’explorer l’espace virtuel. Dans cette étude, l’accent est mis sur la convivialité à l’aide de l’échelle d’utilisabilité du système (SUS). Une autre publication précédente a mené une étude pour des experts économiques, mais avec des casques VR. En général, et surtout, cette étude se plaint du champ de vision limité pour d’autres appareils comme les lunettes intelligentes de réalité mixte utilisées dans ce travail (voir Tableau des matériaux). Leurs résultats montrent que les débutants dans le domaine de la RV ont pu utiliser efficacement l’outil analytique. Cela correspond aux expériences de cette étude, bien que dans ce travail, les débutants n’aient pas été classés pour avoir des expériences de réalité virtuelle ou de jeu. Contrairement à la plupart des solutions VR, la réalité mixte n’est pas figée sur une position car elle permet de suivre l’environnement réel. Les approches VR telles que mentionnent l’utilisation de chaises spéciales pour une expérience à 360° afin de libérer l’utilisateur de son bureau. Les auteurs de indiquent que les problèmes de perception influencent la performance de l’analyse immersive; par exemple, en utilisant des ombres. Pour l’étude en cours, ce n’est pas faisable, car les lunettes intelligentes de réalité mixte utilisées (voir tableau des matériaux) ne sont pas en mesure d’afficher des ombres. Une solution de contournement pourrait être un plancher virtuel, mais une telle configuration n’entrait pas dans le cadre de cette étude. Une étude d’enquête dans le domaine de l’analyse immersive a identifié les nuages de points 3D comme l’une des représentations les plus courantes de données multidimensionnelles. Dans l’ensemble, les aspects présentés à la figure 1 ne peuvent pas être trouvés actuellement compilés dans un protocole qui étudie les aspects d’utilisabilité de l’analyse immersive pour les scénarios de l’industrie 4.0.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Tous les matériaux et méthodes ont été approuvés par le Comité d’éthique de l’Université d’Ulm et ont été réalisés conformément aux directives approuvées. Tous les participants ont donné leur consentement éclairé écrit.

1. Établir un environnement d’étude approprié

REMARQUE: L’étude a été menée dans un environnement contrôlé pour faire face à la complexité du matériel. Les lunettes intelligentes de réalité mixte utilisées (voir le tableau des matériaux) et l’ordinateur portable pour l’application 2D ont été expliqués aux participants à l’étude.

  1. Vérifier la solution technique avant chaque participant ; défini en mode par défaut. Préparez les questionnaires et placez-les à côté d’un participant.
  2. Laissez les participants résoudre des tâches à partir des cas d’utilisation Détection des valeurs aberrantes et reconnaissance de cluster en une seule session (c’est-à-dire que la durée moyenne était de 43 minutes).
  3. Commencez l’étude en accueillant les participants et en présentant l’objectif de l’étude, ainsi que la procédure globale.
  4. Les participants qui utilisent l’appareil de mesure de la conductance cutanée (voir le tableau des matériaux) doivent respecter une courte phase de repos pour recevoir une mesure de référence. Seulement la moitié des participants ont utilisé cet appareil.
  5. Tous les participants doivent remplir le questionnaireSTAI (State-Trait Anxiety Inventory) 31, avant le début de l’expérience.
    1. Ensuite, les participants doivent effectuer le test de rotation mentale (voir la figure 4, ce test a évalué les capacités d’imagination spatiale), qui a servi de base pour distinguer les très performants des moins performants (les plus performants sont des utilisateurs avancés, tandis que les moins performants sont des novices), suivi du test de son spatial pour mesurer les capacités auditives spatiales d’un participant.
      REMARQUE : Une division médiane des résultats du test de rotation mentale32 a été utilisée pour distinguer les élèves peu performants des élèves très performants.
  6. Séparez les participants au hasard en deux groupes; Commencez par la tâche de détection des valeurs aberrantes ou de reconnaissance de cluster, tout en continuant avec l’autre cas d’utilisation par la suite. Pour la tâche de reconnaissance de cluster, la moitié des participants ont d’abord commencé avec les lunettes intelligentes de réalité mixte utilisées (voir Tableau des matériaux), puis ont utilisé l’application 2D, tandis que l’autre moitié a d’abord commencé avec l’application 2D, puis a utilisé les lunettes intelligentes de réalité mixte (voir Tableau des matériaux). Pour la tâche de détection des valeurs aberrantes, sélectionnez au hasard un groupe qui reçoit une prise en charge sonore, tandis que l’autre partie du groupe ne reçoit aucun soutien sonore.
  7. À la fin de la session, les participants doivent répondre à nouveau au questionnaire STAI (State-Trait Anxiety Inventory)31 , ainsi qu’au questionnaire auto-développé et à un questionnaire démographique.
  8. Stockez les données générées, qui ont été automatiquement enregistrées par chaque application développée, sur le stockage de l’ordinateur portable après la session.

2. Protocole d’étude pour les participants

  1. Préparez l’expérience (voir la figure 2 pour la salle de l’expérience) pour chaque participant. Présentez le PC de bureau, les lunettes intelligentes de réalité mixte utilisées et distribuez les questionnaires.
  2. Informez les participants que l’expérience durera de 40 à 50 minutes et que la moitié d’entre eux commencent après les prétests (voir les points 3 à 6 du protocole de l’étude), d’abord par le test de détection des valeurs aberrantes (voir le point 7 du protocole de l’étude), suivi du test de reconnaissance des grappes (voir le point 8 du protocole de l’étude), tandis que les autres accomplissent ces deux tests vice versa (c.-à-d. Point 8 du protocole d’étude avant le point 7).
  3. Décidez au hasard si une mesure de conductance cutanée est effectuée. En cas de oui, préparer l’appareil de mesure de la conductance cutanée33 et informer le participant de le mettre. Demandez aux participants une courte phase de repos pour recevoir une mesure de base de leur niveau de stress.
  4. Demandez aux participants de remplir le questionnaire STAI (State-Trait Anxiety Inventory)31 et informez-les qu’il mesure le stress perçu actuel avant l’expérience.
  5. Effectuez un test de rotation mentale.
    1. Informez les participants que leurs capacités de rotation mentale sont évaluées et conduisez-les devant un ordinateur de bureau. Informer les participants sur la procédure de test. Notez qu’ils devaient identifier des objets similaires qui avaient des positions différentes dans un espace 3D simulé.
    2. Informez les participants que seulement deux des cinq objets montrés sont similaires et qu’ils auront 2 minutes pour l’ensemble du test. Informez les participants que sept tâches pourraient être accomplies dans les 2 minutes données et dites-leur que des mesures de rendement sont enregistrées pour chaque tâche accomplie.
  6. Évaluer les capacités sonores spatiales.
    1. Informez les participants que leurs capacités sonores spatiales sont évaluées et conduisez-les devant un ordinateur de bureau. Informer les participants sur la procédure de test. Expliquez aux participants que six échantillons sonores doivent être détectés, qui seront joués pendant 13 secondes chacun.
    2. Informez les participants qu’ils doivent détecter la direction (analogue aux quatre directions de la boussole) d’où provient le son.
  7. Évaluer les compétences de détection des valeurs aberrantes.
    1. Demandez aux participants de mettre les lunettes intelligentes de réalité mixte. Expliquez-leur que les valeurs aberrantes doivent être trouvées dans le monde créé pour les lunettes intelligentes de réalité mixte.
    2. Informez-les en outre qu’une valeur aberrante est un point marqué en rouge, tous les autres points sont marqués en blanc. Expliquez-leur alors qu’ils doivent diriger leur regard vers le point de couleur rouge pour le détecter.
    3. Informez également les participants que non seulement une aide visuelle est fournie, mais aussi que les sons environnementaux les aident à trouver des valeurs aberrantes. Fournir aux participants l’information qu’ils doivent accomplir 8 tâches aberrantes, ce qui signifie que 8 fois dans le monde virtuel, le point de couleur rouge doit être trouvé. Pour chaque participant, 4 tâches sont prises en charge par le son, tandis que 4 tâches ne sont pas prises en charge par le son. Pour chaque participant, il est sélectionné au hasard s’il commence une tâche avec ou non un son. Ensuite, en fonction de la première tâche, il change d’une tâche à l’autre, qu’un support solide soit fourni ou non.
    4. Dites aux participants quelles informations seront enregistrées : le temps requis pour chaque tâche, la longueur de la marche et l’apparence de leur position de déplacement finale par rapport à leur position de départ. Enfin, dites aux participants que le point marqué en rouge devient vert s’il a été détecté (voir la figure 3).
  8. Évaluer les compétences de reconnaissance des clusters.
    1. Décidez au hasard pour le participant s’il doit d’abord utiliser les lunettes intelligentes de réalité mixte ou l’amener à un ordinateur de bureau. Dans ce qui suit, seule la procédure pour le paramètre de réalité mixte est décrite. Si un participant démarre d’abord avec l’ordinateur de bureau, la procédure est la même dans l’ordre modifié et à l’exception des commandes vocales, elles ne sont fournies que lors de l’utilisation de la solution de réalité mixte.
    2. Pour les participants utilisant la réalité mixte : Demandez aux participants de mettre les lunettes intelligentes de réalité mixte. Informez les participants sur la façon de trouver des grappes dans le monde créées avec les lunettes intelligentes de réalité mixte utilisées. Insistez auprès des participants sur le fait qu’ils devaient faire la distinction entre les groupes qui se chevauchaient en se déplaçant autour d’eux.
    3. Pour les participants utilisant la réalité mixte : Expliquez aux participants qu’ils peuvent naviguer dans le monde virtuel et autour des clusters à l’aide de commandes vocales. Enfin, dites aux participants qu’ils devaient détecter six grappes.
    4. Pour les participants utilisant la réalité mixte : demandez aux participants de retirer les lunettes intelligentes de réalité mixte utilisées. Conduisez les participants à un ordinateur de bureau et dites-leur d’utiliser le logiciel affiché à l’écran de l’ordinateur de bureau. Informez-les que le même type de grappes que celles montrées dans les lunettes intelligentes de réalité mixte utilisées a dû être détecté à l’aide du logiciel sur l’ordinateur de bureau (voir Figure 7 et Figure 8).
  9. Demandez aux participants de remplir trois questionnaires, à savoir le questionnaire STAI (State-Trait Anxiety Inventory)31, un questionnaire auto-élaboré pour recueillir des commentaires subjectifs et un questionnaire démographique pour recueillir des informations à leur sujet.
  10. Demandez aux participants de retirer l’appareil de mesure de la conductance cutanée33 si on leur a demandé au début de le mettre.
  11. Soulager les participants de l’expérience en les remerciant pour leur participation.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Mise en place de mesures pour l’expérience
Pour la tâche de détection des valeurs aberrantes, les mesures de performance suivantes ont été définies : temps, trajectoire et angle. Voir la figure 6 pour les mesures.

Le temps a été enregistré jusqu’à ce qu’un point marqué en rouge (c.-à-d. la valeur aberrante) soit trouvé. Cette mesure du rendement indique combien de temps un participant a eu besoin pour trouver le point marqué en rouge. Le temps est désigné comme la variable « temps » (en millisecondes) dans les résultats.

Alors que les participants essayaient de trouver le point marqué en rouge, la longueur de leur chemin de marche a été déterminée. La base de ce calcul était que les lunettes intelligentes de réalité mixte utilisées (voir Tableau des matériaux) collectent la position actuelle sous forme de vecteur 3D par rapport à la position de départ à une fréquence d’images de 60 images par seconde. Sur cette base, la longueur du chemin parcouru par un participant a pu être calculée. Cette mesure du rendement indique si les participants marchaient beaucoup ou non. Path est noté PathLength dans les résultats. Sur la base de PathLength, trois autres mesures de performance ont été dérivées : PathMean, PathVariance et BoundingBox. PathMean indique la vitesse moyenne des participants en mètre par image, PathVariance le caractère erratique d’un mouvement et BoundingBox indique si les participants ont utilisé intensivement leur cadre de sélection. Ce dernier est déterminé en fonction des positions maximale et minimale de tous les mouvements (c’est-à-dire que les participants qui changent souvent de position de marche ont révélé des valeurs BoundingBox plus élevées).

La dernière valeur mesurée est notée AngleMean et constitue une valeur dérivée de l’angle, qui est notée AngleMean. Ce dernier désigne la rotation entre la position actuelle et la position de départ d’un participant à une fréquence d’images de 60 par seconde. Sur cette base, la vitesse de rotation moyenne en degrés par image a été calculée. Dérivé de cette valeur, le caractère erratique de la rotation à l’aide de la variance a été calculé, qui est noté AngleVariance.

Pour résumer les objectifs des valeurs de trajectoire et d’angle calculées, le chemin indique si les utilisateurs marchent beaucoup ou non. S’ils ne marchent pas beaucoup, cela pourrait indiquer leur manque d’orientation. L’angle, à son tour, devrait indiquer si les participants font des mouvements de tête rapides ou soudains. S’ils font des mouvements brusques de la tête à plusieurs reprises, cela pourrait indiquer à nouveau un manque d’orientation.

Pour la tâche de détection de cluster, les mesures de performance suivantes ont été définies : temps et erreurs. Le temps a été enregistré jusqu’au moment où les participants ont indiqué le nombre de grappes qu’ils avaient détectées. Cette mesure du rendement indique le temps nécessaire aux participants pour trouver des grappes. Le temps est noté Temps (en millisecondes). Les erreurs sont identifiées dans le sens d’une décision binaire (vrai/faux). Le nombre de clusters signalés était correct (vrai) ou incorrect (faux). Les erreurs sont signalées par des erreurs.

La version étatique du questionnaire STAI (State-Trait Anxiety Inventory)31 a été utilisée pour mesurer l’anxiété d’état, un concept similaire au stress d’état. Le questionnaire comprend 20 items et a été distribué avant le début de l’étude, ainsi qu’après pour évaluer les changements dans l’anxiété de l’état. Pour l’évaluation de ce questionnaire, tous les attributs positifs ont été inversés (p. ex., une réponse « 4 » devient un « 1 »), et toutes les réponses sont additionnées à une note finale de l’IATC. La conductance cutanée a été mesurée pour 30 participants choisis au hasard à l’aide de l’appareil de mesure de la conductance cutanée (voir le tableau des matériaux)33.

Une fois les deux types de tâches accomplis, un questionnaire auto-élaboré a été distribué à la fin de l’étude pour demander la rétroaction des participants. Le questionnaire est présenté dans le tableau 1. En outre, un questionnaire démographique a posé des questions sur le sexe, l’âge et l’éducation de tous les participants.

Procédure générale de l’étude et informations sur l’étude
La procédure globale de l’étude menée est illustrée à la figure 9. 60 participants ont rejoint l’étude. Les participants ont été principalement recrutés à l’Université d’Ulm et dans des sociétés de logiciels d’Ulm. Les étudiants participants provenaient principalement des domaines de l’informatique, de la psychologie et de la physique. Dix étaient des femmes et 50 étaient des hommes.

Sur la base du prétest de rotation mentale, 31 ont été classés comme peu performants, tandis que 29 ont été classés comme très performants. Plus précisément, 7 femmes et 24 hommes ont été classés comme étant peu performants, tandis que 3 femmes et 26 hommes ont été classés comme très performants. Pour les évaluations statistiques, 3 outils logiciels ont été utilisés (voir le tableau des matériaux).

Les fréquences, les pourcentages, les moyennes et les écarts-types ont été calculés à titre de statistiques descriptives. Les performances faibles et élevées ont été comparées dans les variables démographiques de base à l’aide des tests exacts de Fisher et des tests t pour des échantillons indépendants. Pour le QR1 -QR5, des modèles linéaires à plusieurs niveaux avec l’estimation complète du maximum de vraisemblance ont été réalisés. Deux niveaux ont été inclus, où le niveau un représente les évaluations répétées (soit dans la détection des valeurs aberrantes, soit dans la reconnaissance des grappes) et le niveau deux dans les participants. Les mesures du rendement (à l’exception des erreurs) étaient les variables dépendantes de ces modèles. Dans le QR 1, les tests exacts de Fisher pour les probabilités d’erreur ont également été utilisés. Dans le QR3, la performance dans le temps dans les sons spatiaux par rapport à l’absence de sons a été étudiée (le son par rapport au son sans son a été inclus comme prédicteur dans les modèles). Les scores STAI ont été évalués à l’aide de tests t pour des échantillons dépendants pour le QR4. Dans le QR5, l’effet de l’application 2D par rapport aux lunettes intelligentes de réalité mixte utilisées (voir le tableau des matériaux) a été étudié, en utilisant le test de McNemar pour la probabilité d’erreur. Tous les tests statistiques ont été effectués à deux extrémités; la valeur de signification a été fixée à P<.05.

Les résultats de la conductance cutanée n’ont pas été analysés et font l’objet de travaux futurs. Fait important, les auteurs ont révélé dans une autre étude avec le même appareil que des considérations supplémentaires sont nécessaires24.

Pour le test de rotation mentale, les différences entre les résultats du test de rotation mentale entre les participants ont été utilisées pour distinguer les élèves peu performants des très performants. Pour le test d’aptitude spatiale, tous les participants ont obtenu de bons résultats et ont donc tous été classés dans la catégorie des plus performants en ce qui concerne leurs capacités spatiales.

Dans un premier temps, les résultats importants des participants sont résumés: les performances faibles et élevées dans la rotation mentale n’ont montré aucune différence dans leurs variables de base (sexe, âge et éducation). Sur le plan descriptif, les participants les moins performants avaient un pourcentage plus élevé de participantes que les plus performants et les plus performants étaient plus jeunes que les moins performants. Le tableau 2 résume les caractéristiques des participants.

En ce qui concerne les résultats pour le QR1, pour la tâche de reconnaissance de cluster, les performances faibles et élevées ne différaient pas significativement pour l’application 2D (4 erreurs pour les applications faibles et 2 erreurs pour les plus performantes) et l’approche 3D (8 erreurs pour les performances faibles et 2 erreurs pour les performances élevées). Pour la tâche de détection des valeurs aberrantes, les plus performants étaient significativement plus rapides que les moins performants. En outre, les personnes très performantes avaient besoin d’une distance de marche plus courte pour résoudre les tâches. Pour la tâche de l’exception, le tableau 3 résume les résultats détaillés.

En ce qui concerne les résultats pour le QR2, des résultats significatifs n’ont émergé que pour la tâche de détection de la valeur aberrante. Le BoundingBox, le PathLength, le PathVariance, le PathMean, l’Angle-Variance et l’AngleMean ont augmenté de manière significative d’une tâche à l’autre (voir le Tableau 4). Le temps enregistré, quant à lui, n’a pas changé de manière significative d’une tâche à l’autre à l’aide des lunettes intelligentes de réalité mixte (voir Tableau des matériaux).

En ce qui concerne les résultats du QR3, basés sur les sons spatiaux, les participants ont pu résoudre les tâches dans le cas de détection des valeurs aberrantes plus rapidement que sans utiliser de sons spatiaux (voir le tableau 5).

En ce qui concerne les résultats du QR4, lors de la pré-évaluation, l’état moyen des scores STAI était M = 44,58 (ET = 4,67). À la post-évaluation, il était de M = 45,72 (ET = 4,43). Ce changement n’a pas atteint la signification statistique (p = 0,175). Les statistiques descriptives des réponses au questionnaire auto-élaboré sont présentées à la figure 10.

En ce qui concerne les résultats pour le QR5, l’approche des lunettes intelligentes de réalité mixte (voir tableau des matériaux) indique des temps de reconnaissance des clusters nettement plus rapides que l’utilisation d’un ordinateur de bureau (voirT able 6). Cependant, l’avantage de vitesse lors de l’utilisation des lunettes intelligentes de réalité mixte (voir Tableau des matériaux) était plutôt faible (c.-à-d. dans une gamme de millisecondes).

Enfin, notez que les données de cette étude peuvent être trouvées à36.

Figure 1
Figure 1 : Aspects étudiés sur l’échelle Interaction versus nouveauté. La figure montre les mesures utilisées et leur nouveauté par rapport au niveau d’interaction. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 2
Figure 2 : Photos de la salle d’étude. Deux photos de la salle d’étude sont présentées. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 3
Figure 3 : Valeurs aberrantes détectées. La capture d’écran montre une valeur aberrante détectée. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 4
Figure 4 : Exemple de test de rotation mentale. La capture d’écran montre les objets 3D auxquels les participants ont été confrontés; c’est-à-dire que deux objets sur cinq dans des positions différentes avec la même structure d’objet ont dû être détectés. Cette figure a été modifiée sur la base de ce travail35. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 5
Figure 5 : Réglage du test d’aptitude spatiale. Dans (A), la configuration audio de la tâche Back est affichée, tandis que dans (B), l’interface utilisateur schématique du test est affichée. Cette figure a été modifiée sur la base de ce travail35. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 6
Figure 6 : Illustration du paramètre de détection de la tâche aberrante. Trois aspects majeurs sont présentés. Tout d’abord, les valeurs aberrantes sont illustrées. Deuxièmement, les mesures de rendement sont présentées. Troisièmement, la façon dont le support sonore a été calculé est montrée. Cette figure a été modifiée sur la base de ce travail35. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 7
Figure 7 : Illustration du paramètre de reconnaissance du groupe de tâches. Considérez les scénarios A-C pour une meilleure impression, les participants ont dû changer leur regard pour identifier correctement les grappes. Cette figure a été modifiée sur la base de ce travail35. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 8
Figure 8 : Illustration du paramètre de reconnaissance du cluster de tâches dans Matlab. La figure illustre les clusters fournis dans Matlab, qui était la base de l’application de bureau 2D. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 9
Figure 9 : Aperçu de la procédure globale de l’étude. Cette figure présente les étapes que les participants ont dû accomplir, dans leur ordre chronologique. Cette figure a été modifiée sur la base de ce travail35. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 10
Figure 10 : Résultats du questionnaire élaboré par l’auto-ordinateur (voir le tableau 1). Les résultats sont présentés à l’aide de diagrammes en boîtes. Cette figure a été modifiée sur la base de ce travail35. Veuillez cliquer ici pour voir une version agrandie de cette figure.

#Question Question Cible Écaille Signification
1 À quel point avez-vous ressenti le stress en portant les lunettes? Porter 1-10 10 signifie élevé, 1 signifie faible
2 À quel point la tâche de l’exception était-elle stressante? Outliers 1-10 10 signifie élevé, 1 signifie faible
3 À quel point avez-vous ressenti les sons spatiaux ? Son 1-10 10 signifie élevé, 1 signifie faible
4 À quel point la recherche de tâches de clusters en réalité mixte était-elle stressante ? Cluster MR 1-10 10 signifie élevé, 1 signifie faible
5 À quel point la recherche de tâches de clusters était-elle stressante dans l’approche de bureau ? Cluster DT 1-10 10 signifie élevé, 1 signifie faible
6 À quel point l’utilisation des commandes vocales était-elle stressante? Voix 1-10 10 signifie élevé, 1 signifie faible
7 Vous êtes-vous senti soutenu par les sons spatiaux ? Son 1-10 10 signifie élevé, 1 signifie faible

Tableau 1 : Questionnaire auto-élaboré pour les commentaires des utilisateurs. Il comprend 7 questions. Pour chaque question, les participants devaient déterminer une valeur à l’intérieur d’une échelle de 1 à 10, où 1 signifie une valeur faible (c.-à-d. une mauvaise rétroaction) et 10 une valeur élevée (c.-à-d. une très bonne rétroaction).

Variable Faible rendement (n=31) Très performant Valeur P
(n=31) (n=29)
Sexe, n(%)
Femelle 7 (23%) 3 (10%)
Mâle 24 (77%) 26 (90%) .302 a)
Catégorie d’âge, n(%)
<25 1 (3%) 5 (17%)
25-35 27 (87%) 21 (72%)
36-45 0 (0%) 2 (7%)
46-55 1 (3%) 0 (0%)
>55 2 (6%) 1 (3%) .099 a)
Niveau de scolarité le plus élevé, n(%)
Lycée 3 (10%) 5 (17%)
Célibataire 7 (23%) 6 (21%)
Maître 21 (68%) 18 (62%) .692 a)
Test de rotation mentale, moyenne (ET)
Bonnes réponses 3.03 (1.40) 5.31 (0.76) .001 b)
Mauvaises réponses 2.19 (1.47) 1.21 (0.56) .000 b)
Test auditif spatial, moyenne (ET) ©
Bonnes réponses 4.39 (1.09) 4.31 (1.00) .467 b)
Mauvaises réponses 1.61 (1.09) 1.69 (1.00) .940 b)
a:Test exact de Fisher
b:Test t à deux échantillons
c : Écart-type du DD

Tableau 2 : Description de l’échantillon de participants et comparaison entre les participants peu performants et les plus performants dans les variables de référence. Le tableau présente des données pour les trois questions démographiques sur le sexe, l’âge et le niveau de scolarité. De plus, les résultats des deux prétests sont présentés.

Variable Estimer SE (a) Résultat
BoundingBox pour les tâches peu performantes 2,224 .438 t(60,00) = 5,08; p<.001
Modification de BoundingBox pour les tâches les plus performantes +.131 .630 t(60,00) = 0,21; p = 0,836
Temps pour les moins performants dans toutes les tâches 20,919 1,045 t(60,00) = 20,02; p<.001
Modification de l’heure pour les personnes les plus performantes dans toutes les tâches -3,863 1,503 t(60,00) = -2,57; p=0,013
Longueur du parcours pour les tâches peu performantes 5,637 .613 t(60,00) = 9,19; p<.001
Modification de la longueur du chemin pour les tâches les plus performantes -1,624 .882 t(60,00) = -1,84; p = 0,071
PathVariance pour les tâches peu performantes 4.3E-4 4.7E-5 t(65,15) = 9,25; p<.001
Modification de PathVariance pour les tâches les plus performantes +4.3E-6 6.7E-5 t(65,15) = 0,063; p = 0,950
PathMean pour les tâches peu performantes .0047 5.3E-4 t(60,00) = 8,697; p<.001
Modification de PathMean pour les tâches les plus performantes +3.8E-5 7.7E-4 t(60,00) = 0,05; p = 0,960
AngleVariance pour les tâches peu performantes .0012 7.3E-5 t(85,70) = 16,15; p<.001
Modification d’AngleVariance pour les tâches les plus performantes -2,7E-5 1.0E-4 t(85,70) = -0,26; p = 0,796
AngleMean pour les tâches peu performantes .015 .001 t(60,00) = 14,27; p<.001
Modification d’AngleMean pour les tâches les plus performantes -3.0E-4 1,5E-3 t(60,00) = -0,20; p = 0,842
(a) SE = Erreur-type

Tableau 3 : Résultats des modèles à plusieurs niveaux pour RQ1 (détection des valeurs aberrantes à l’aide des lunettes intelligentes). Le tableau montre les résultats statistiques du QR1 pour la tâche de détection de la valeur aberrante (pour toutes les mesures de rendement).

Variable Estimer SE (a) Résultat
BoundingBox à la première tâche .984 .392 t(138,12) = 2,51; p=0,013
Modification de BoundingBox d’une tâche à l’autre +.373 .067 t(420,00) = 5,59; p<.001
Temps à la première tâche 19,431 1,283 t(302,08) = 15,11; p<.001
Modification du temps d’une tâche à l’autre -.108 .286 t(420,00) = -0,37; p = 0,709
Longueur du chemin à la première tâche 3,903 .646 t(214,81) = 6,05; p<.001
Modification de la longueur du chemin d’une tâche à l’autre +.271 .131 t(420,00) = 2,06; p = 0,040
PathVariance à la première tâche 3.1E-4 3.7E-5 t(117,77) = 8,43; p<.001
Modification de PathVariance d’une tâche à l’autre +3.5E-5 4.5E-6 t(455,00) = 7,90; p<.001
PathMean à la première tâche .0033 4.2E-4 t(88,98) = 7,66; p<.001
Modification de PathMean d’une tâche à l’autre +4.1E-4 5.2E-5 t(420,00) = 7,81; p<.001
AngleVariance à la première tâche .001 5.7E-5 t(129,86) = 17,92; p<.001
Modification de AngleVariance d’une tâche à l’autre +4.1E-5 6.5E-6 t(541,75) = 6,34; p<.001
AngleMean à la première tâche .0127 8.1E-4 t(82,17) = 15,52; p<.001
Modification d’AngleMean d’une tâche à l’autre +6.1E-4 9.0E-5 t(420,00) = 6,86; p<.001
(a) SE = Erreur-type

Tableau 4 : Résultats des modèles à plusieurs niveaux pour RQ2 (détection des valeurs aberrantes à l’aide des lunettes intelligentes). Le tableau présente les résultats statistiques du QR2 pour la tâche de détection de la valeur aberrante (pour toutes les mesures de rendement).

Variable Estimer SE (a) Résultat
BoundingBox sans son entre les tâches 2,459 .352 t(93,26) = 6,98; p<.001
Modification de BoundingBox avec son entre les tâches -.344 .316 t(420,00) = -1,09; p = 0,277
Temps sans son dans toutes les tâches 20,550 1,030 t(161,17) = 19,94; p<.001
Modification de l’heure avec le son d’une tâche à l’autre -2,996 1,319 t(420,00) = -2,27; p=0,024
Longueur du chemin sans son pour toutes les tâches 5,193 .545 t(121,81) = 9,54; p<.001
Modification de la longueur du chemin avec le son d’une tâche à l’autre -.682 .604 t(420,00) = -1,13; p = 0,260
PathVariance sans son entre les tâches .0004 3.5E-5 t(79,74) = 12,110; p<.001
Modification de PathVariance avec le son entre les tâches +1.3E-5 2.2E-5 t(429,20) = 0,592; p = 0,554
PathMean sans son entre les tâches .005 4.0E-4 t(73,66) = 11,35; p<.001
Altération de PathMean avec du son entre les tâches +1.4E-4 2.5E-4 t(420,00) = 0,56; p = 0,575
AngleVariance sans son d’une tâche à l’autre .0012 5.4E-5 t(101,32) = 21,00; p<.001
Modification de l’AngleVariance avec le son d’une tâche à l’autre +3.3E-5 3.1E-5 t(648,56) = 1,07; p = 0,284
AngleMean sans son entre les tâches .0145 7.8E-4 t(70,17) = 18,51; p<.001
Modification d’AngleMean avec le son d’une tâche à l’autre +6.0E-4 4.3E-4 t(420,00) = 1,39; p=0,166
(a) SE = Erreur-type

Tableau 5 : Résultats des modèles à plusieurs niveaux pour le QR3 (détection des valeurs aberrantes à l’aide des lunettes intelligentes). Le tableau présente les résultats statistiques du QR3 pour la tâche de détection de la valeur aberrante (pour toutes les mesures de rendement).

Variable Estimer SE (a) Résultat
Temps passé avec le bureau dans toutes les tâches 10,536 .228 t(156,43) = 46,120; p<.001
Modification de l’heure avec Hololens à travers les tâches -.631 .286 t(660,00) = -2,206; p = 0,028
(a) SE = Erreur-type

Tableau 6 : Résultats des modèles à plusieurs niveaux pour le QR5 (reconnaissance des clusters à l’aide des lunettes intelligentes). Le tableau montre les résultats statistiques du QR5 pour la tâche de reconnaissance de cluster (pour toutes les mesures de rendement).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

En ce qui concerne l’application développée de lunettes intelligentes de réalité mixte (voir Tableau des matériaux), deux aspects ont été particulièrement bénéfiques. L’utilisation de sons spatiaux pour la tâche de détection de l’aberrant a été perçue positivement d’une part (voir les résultats du QR3). D’autre part, l’utilisation des commandes vocales a également été perçue positivement (voir la figure 10).

En ce qui concerne les participants à l’étude, bien que le nombre de participants recrutés soit plutôt faible pour une étude empirique, le nombre est compétitif par rapport à de nombreux autres travaux. Néanmoins, une étude à plus grande échelle est prévue sur la base du protocole présenté. Cependant, comme il a démontré sa faisabilité pour 60 participants, on s’attend à ce que davantage de participants ne révèlent aucun autre défi. Il a été discuté que la sélection des participants pourrait être plus large (dans le sens des domaines d’où proviennent les participants) et que le nombre de variables de référence permettant de distinguer les personnes très performantes des moins performantes pourrait être plus élevé. D’autre part, si ces aspects sont modifiés en nombres plus élevés, le protocole lui-même ne doit pas être modifié profondément.

En général, les limites révélées n’affectent pas la conduite d’une étude basée sur le protocole montré dans ce travail, elles affectent uniquement le recrutement et les questions utilisées pour le questionnaire démographique. Cependant, une limite de cette étude est néanmoins importante : le temps total requis pour terminer l’expérience pour un participant est élevé. D’autre part, comme les participants ne se sont pas plaints du confort de port ou du fait que l’appareil de test les surcharge trop, le temps nécessaire pour effectuer le protocole global pour un participant peut être considéré comme acceptable. Enfin, dans une expérience future, plusieurs aspects devront être ajoutés au protocole. En particulier, la tâche de détection des valeurs aberrantes doit également être évaluée dans l’application de bureau 2D. En outre, d’autres dispositifs matériels tels que les lunettes intelligentes de réalité mixte utilisées (voir le tableau des matériaux) doivent également être évalués. Cependant, le protocole semble être bénéfique dans un sens plus large.

Les principales informations suivantes ont été acquises pour le protocole présenté. Tout d’abord, il a montré sa faisabilité pour évaluer l’analyse immersive pour une solution de réalité mixte. Plus précisément, les lunettes intelligentes de réalité mixte utilisées (voir Tableau des matériaux) ont révélé leur faisabilité pour évaluer l’analyse immersive dans une application de réalité mixte pour les scénarios de l’industrie 4.0. Deuxièmement, la comparaison de l’application développée de lunettes intelligentes de réalité mixte utilisées (voir Tableau des matériaux) avec une application de bureau 2D a été utile pour déterminer si la solution de réalité mixte peut surpasser une application qui n’utilise pas de techniques de RV. Troisièmement, la mesure des paramètres physiologiques ou des signes vitaux devrait toujours être envisagée dans de telles expériences. Dans ce travail, le stress a été mesuré à l’aide d’un questionnaire et d’un dispositif de conductance cutanée. Bien que ce dernier ait fonctionné techniquement correctement, les auteurs ont révélé dans une autre étude avec le même appareil que des considérations supplémentaires sont nécessaires24. Quatrièmement, le test d’aptitude spatiale et la séparation des élèves très performants et faibles étaient avantageux. En résumé, bien que le protocole présenté semble complexe à première vue (voir Figure 9), il a montré son utilité techniquement. En ce qui concerne les résultats, il a également révélé son utilité.

Comme la détection des valeurs aberrantes et la reconnaissance des clusters sont des tâches typiques dans l’évaluation de nombreux ensembles de données de grande dimension dans les scénarios de l’industrie 4.0, leur utilisation dans une étude empirique est représentative de ce domaine de recherche. Le protocole a montré que ces scénarios peuvent être bien intégrés dans une étude d’utilisabilité sur l’analyse immersive. Par conséquent, le cadre utilisé peut être recommandé pour d’autres études dans ce contexte.

Comme les résultats de l’étude présentée ont montré que l’utilisation d’une solution de réalité mixte basée sur les lunettes intelligentes utilisées (voir le tableau des matériaux) est utile pour étudier l’analyse immersive pour les scénarios de l’industrie 4.0, le protocole pourrait également être utilisé pour d’autres études d’utilisabilité dans le contexte donné.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Les auteurs n’ont rien à divulguer.

Acknowledgments

Les auteurs n’ont rien à reconnaître.

Materials

Name Company Catalog Number Comments
edaMove movisens
HoloLens Microsoft
Matlab R2017a MathWorks
RPY2 GNU General Public License v2 or later (GPLv2+) (GPLv2+) https://pypi.org/project/rpy2/
SPSS 25.0 IBM

DOWNLOAD MATERIALS LIST

References

  1. Korinth, M., Sommer-Dittrich, T., Reichert, M., Pryss, R. Design and Evaluation of a Virtual Reality-Based Car Configuration Concept. Science and Information Conference. , Springer, Cham. 169-189 (2019).
  2. Whalen, T. E., Noël, S., Stewart, J. Measuring the human side of virtual reality. IEEE International Symposium on Virtual Environments, Human-Computer Interfaces and Measurement Systems, 2003. , IEEE. 8-12 (2003).
  3. Martens, M. A., et al. It feels real: physiological responses to a stressful virtual reality environment and its impact on working memory. Journal of Psychopharmacology. 33 (10), 1264-1273 (2019).
  4. Keim, D. A. Information visualization and visual data mining. IEEE transactions on Visualization and Computer Graphics. 8 (1), 1-8 (2002).
  5. Dwyer, T., et al. Immersive analytics: An introduction. Immersive analytics. , Springer, Cham. 1-23 (2018).
  6. Moloney, J., Spehar, B., Globa, A., Wang, R. The affordance of virtual reality to enable the sensory representation of multi-dimensional data for immersive analytics: from experience to insight. Journal of Big Data. 5 (1), 53 (2018).
  7. Davis, F. D., Riedl, R., Vom Brocke, J., Léger, P. M., Randolph, A. B. Information Systems and Neuroscience. , Springer. (2018).
  8. Huckins, J. F., et al. Fusing mobile phone sensing and brain imaging to assess depression in college students. Frontiers in Neuroscience. 13, 248 (2019).
  9. Preece, J., et al. Human-computer interaction. , Addison-Wesley Longman Ltd. (1994).
  10. Card, S. K. The psychology of human-computer interaction. , CRC Press. (2018).
  11. Pelayo, S., Senathirajah, Y. Human factors and sociotechnical issues. Yearbook of Medical Informatics. 28 (01), 078-080 (2019).
  12. Bangor, A., Kortum, P., Miller, J. Determining what individual SUS scores mean: adding an adjective rating scale. Journal of Usability Studies. 4 (3), 114-123 (2009).
  13. Krahmer, E., Ummelen, N. Thinking about thinking aloud: A comparison of two verbal protocols for usability testing. IEEE Transactions on Professional Communication. 47 (2), 105-117 (2004).
  14. Hornbæk, K. Current practice in measuring usability: Challenges to usability studies and research. International Journal of Human-Computer Studies. 64 (2), 79-102 (2006).
  15. Peppa, V., Lysikatos, S., Metaxas, G. Human-Computer interaction and usability testing: Application adoption on B2C websites. Global Journal of Engineering Education. 14 (1), 112-118 (2012).
  16. Alwashmi, M. F., Hawboldt, J., Davis, E., Fetters, M. D. The iterative convergent design for mobile health usability testing: mixed-methods approach. JMIR mHealth and uHealth. 7 (4), 11656 (2019).
  17. System Usability Scale (SUS). Assistant Secretary for Public Affairs. , Available from: https://www.hhs.gov/about/agencies/aspa/how-to-and-tools/methods/system-usability-scale.html (2013).
  18. Fang, Y. M., Lin, C. The Usability Testing of VR Interface for Tourism Apps. Applied Sciences. 9 (16), 3215 (2019).
  19. Pryss, R., et al. Exploring the Time Trend of Stress Levels While Using the Crowdsensing Mobile Health Platform, TrackYourStress, and the Influence of Perceived Stress Reactivity: Ecological Momentary Assessment Pilot Study. JMIR mHealth and uHealth. 7 (10), 13978 (2019).
  20. Zugal, S., et al. Investigating expressiveness and understandability of hierarchy in declarative business process models. Software & Systems Modeling. 14 (3), 1081-1103 (2015).
  21. Schobel, J., et al. Learnability of a configurator empowering end users to create mobile data collection instruments: usability study. JMIR mHealth and uHealth. 6 (6), 148 (2018).
  22. Schobel, J., Probst, T., Reichert, M., Schickler, M., Pryss, R. Enabling Sophisticated Lifecycle Support for Mobile Healthcare Data Collection Applications. IEEE Access. 7, 61204-61217 (2019).
  23. Hoppenstedt, B., et al. Dimensionality Reduction and Subspace Clustering in Mixed Reality for Condition Monitoring of High-Dimensional Production Data. Sensors. 19 (18), 3903 (2019).
  24. Winter, M., Pryss, R., Probst, T., Reichert, M. Towards the Applicability of Measuring the Electrodermal Activity in the Context of Process Model Comprehension: Feasibility Study. Sensors. 20, 4561 (2020).
  25. Butscher, S., Hubenschmid, S., Müller, J., Fuchs, J., Reiterer, H. Clusters, trends, and outliers: How immersive technologies can facilitate the collaborative analysis of multidimensional data. Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. , 1-12 (2018).
  26. Wagner Filho, J. A., Rey, M. F., Freitas, C. M. D. S., Nedel, L. Immersive analytics of dimensionally-reduced data scatterplots. 2nd Workshop on Immersive Analytics. , (2017).
  27. Batch, A., et al. There is no spoon: Evaluating performance, space use, and presence with expert domain users in immersive analytics. IEEE Transactions on Visualization and Computer Graphics. 26 (1), 536-546 (2019).
  28. Cliquet, G., Perreira, M., Picarougne, F., Prié, Y., Vigier, T. Towards hmd-based immersive analytics. HAL. , Available from: https://hal.archives-ouvertes.fr/hal-01631306 (2017).
  29. Luboschik, M., Berger, P., Staadt, O. On spatial perception issues in augmented reality based immersive analytics. Proceedings of the 2016 ACM Companion on Interactive Surfaces and Spaces. , 47-53 (2016).
  30. Fonnet, A., Prié, Y. Survey of Immersive Analytics. IEEE Transactions on Visualization and Computer. , (2019).
  31. Spielberger, C. D., Gorsuch, R. L., Lushene, R. E. STAI Manual for the Stait-Trait Anxiety Inventory (self-evaluation questionnaire). Consulting Psychologist. 22, Palo Alto, CA, USA. 1-24 (1970).
  32. Vandenberg, S. G., Kuse, A. R. Mental rotations, a group test of three-dimensional spatial visualization. Perceptual Motor Skills. 47 (2), 599-604 (1978).
  33. Härtel, S., Gnam, J. P., Löffler, S., Bös, K. Estimation of energy expenditure using accelerometers and activity-based energy models-Validation of a new device. European Review of Aging and Physical Activity. 8 (2), 109-114 (2011).
  34. Gautier, L. RPY2: A Simple and Efficient Access to R from Python. , Available from: https://sourceforge.net/projects/rpy/ (2020).
  35. Hoppenstedt, B., et al. Applicability of immersive analytics in mixed reality: Usability study. IEEE Access. 7, 71921-71932 (2019).
  36. Hoppenstedt, B. Applicability of Immersive Analytics in Mixed Reality: Usability Study. IEEE Dataport. , (2019).

Tags

Ingénierie numéro 164 Analyse immersive Réalité mixte Sons spatiaux Analyse visuelle Lunettes intelligentes Convivialité Niveau de stress Capacité d’apprentissage
Évaluation des aspects d’utilisabilité d’une solution de réalité mixte pour l’analyse immersive dans les scénarios de l’industrie 4.0
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Hoppenstedt, B., Probst, T.,More

Hoppenstedt, B., Probst, T., Reichert, M., Schlee, W., Kammerer, K., Spiliopoulou, M., Schobel, J., Winter, M., Felnhofer, A., Kothgassner, O. D., Pryss, R. Evaluating Usability Aspects of a Mixed Reality Solution for Immersive Analytics in Industry 4.0 Scenarios. J. Vis. Exp. (164), e61349, doi:10.3791/61349 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter