Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

Quantification des réponses oculomotrices et de l’accommodation à l’aide de boîtes à outils d’instrumentation et d’analyse

Published: March 3, 2023 doi: 10.3791/64808

Summary

VisualEyes2020 (VE2020) est un langage de script personnalisé qui présente, enregistre et synchronise les stimuli visuels des mouvements oculaires. VE2020 fournit des stimuli pour les mouvements oculaires conjugués (saccades et poursuite en douceur), les mouvements oculaires disconjugués (vergence), l’accommodation et les combinaisons de chacun. Deux programmes d’analyse unifient le traitement des données des systèmes de suivi oculaire et d’enregistrement des hébergements.

Abstract

Grâce à la stimulation et à l’enregistrement délibérés des mouvements oculaires, les caractéristiques fondamentales des mécanismes neuronaux sous-jacents des mouvements oculaires peuvent être observées. VisualEyes2020 (VE2020) a été développé sur la base du manque de stimulation visuelle logicielle personnalisable disponible pour les chercheurs qui ne repose pas sur des moteurs ou des actionneurs dans un haploscope traditionnel. Ce nouvel instrument et cette nouvelle méthodologie ont été développés pour une nouvelle configuration d’haploscope utilisant à la fois des systèmes de suivi oculaire et d’autoréfracteur. Le logiciel d’analyse qui permet l’analyse synchronisée des mouvements oculaires et des réponses accommodatives fournit aux chercheurs en vision et aux cliniciens un environnement reproductible et un outil partageable. Le programme d’analyse des mouvements oculaires (VEMAP) du Vision and Neural Engineering Laboratory (VNEL) a été créé pour traiter les enregistrements produits par les eye-trackers de VE2020, tandis que le programme d’analyse des mouvements accommodatifs (AMAP) a été créé pour traiter les sorties d’enregistrement du système autoréfracteur correspondant. Le VNEL étudie trois stimuli principaux : l’accommodation (changements de la convexité de la lentille intraoculaire induite par le flou), la vergence (rotation convergente vers l’intérieur et vers l’extérieur, rotation divergente des yeux) et les saccades (mouvements oculaires conjugués). Le VEMAP et l’AMAP utilisent des processus de flux de données, des interactions manuelles avec les opérateurs et des interventions similaires si nécessaire; Cependant, ces plates-formes d’analyse font progresser la mise en place d’une suite logicielle objective qui minimise la dépendance des opérateurs. L’utilité d’une interface graphique et de ses algorithmes correspondants permet de mener un large éventail d’expériences visuelles avec une expérience de codage minimale requise de la part de son ou ses opérateurs.

Introduction

Une coordination binoculaire concertée et des réponses accommodatives et oculomotrices appropriées aux stimuli visuels sont des aspects cruciaux de la vie quotidienne. Lorsqu’un individu a une vitesse de réponse au mouvement oculaire de convergence réduite, quantifiée par l’enregistrement des mouvements oculaires, une vision doublée (diplopie) peut être perçue 1,2. En outre, une méta-analyse de la littérature Cochrane a révélé que les patients présentant des dysfonctionnements oculomoteurs, tentant de maintenir une vision binoculaire normale, éprouvent des symptômes visuels couramment partagés, notamment une vision floue / double, des maux de tête, un stress / fatigue oculaire et des difficultés à lire confortablement3. Les mouvements oculaires conjugués rapides (saccades), lorsqu’ils sont déficients, peuvent sous-répondre ou surrépondre aux cibles visuelles, ce qui signifie que d’autres saccades séquentielles sont nécessaires pour corriger cette erreur4. Ces réponses oculomotrices peuvent également être confondues par le système accommodatif, dans lequel la mauvaise focalisation de la lumière de la lentille crée un flou5.

Des tâches telles que la lecture ou le travail sur des appareils électroniques nécessitent une coordination des systèmes oculomoteur et accommodatif. Pour les personnes présentant des mouvements oculaires binoculaires ou des dysfonctionnements accommodatifs, l’incapacité de maintenir la fusion binoculaire (simple) et la vision aiguë (claire) diminue leur qualité de vie et leur productivité globale. En établissant une méthodologie procédurale pour l’enregistrement quantitatif de ces systèmes de manière indépendante et concertée au moyen de configurations d’instrumentation reproductibles et d’une analyse objective, il est possible de distinguer les caractéristiques de l’acclimatation à des déficiences spécifiques. Les mesures quantitatives des mouvements oculaires peuvent conduire à des diagnostics plus complets6 par rapport aux méthodes conventionnelles, avec la possibilité de prédire la probabilité de remédiation via des interventions thérapeutiques. Cette suite d’instrumentation et d’analyse de données permet de comprendre les mécanismes qui sous-tendent les normes de soins actuelles, comme la thérapie visuelle, et l’effet à long terme que les interventions thérapeutiques peuvent avoir sur les patients. L’établissement de ces différences quantitatives entre les personnes avec et sans vision binoculaire normale peut fournir de nouvelles stratégies thérapeutiques personnalisées et accroître l’efficacité de la remédiation basée sur des mesures objectives des résultats.

À ce jour, il n’existe pas une seule plate-forme disponible sur le marché capable de stimuler et d’enregistrer simultanément des données quantitatives sur les mouvements oculaires avec des réponses de position et de vitesse accommodatives correspondantes qui peuvent être traitées en flux de données distincts (mouvements oculaires et accommodatifs). Les analyses de traitement du signal pour les réponses positionnelles et de vitesse accommodatives et oculomotrices ont respectivement établi des exigences minimales d’échantillonnage d’environ 10 Hz7 et une fréquence d’échantillonnage suggérée comprise entre 240 Hz et 250 Hz pour les mouvements oculaires saccadiques 8,9. Cependant, le taux de Nyquist pour les mouvements oculaires de vergence n’a pas encore été établi, bien que la vergence soit environ un ordre de grandeur inférieure en vitesse maximale que les mouvements oculaires saccadiques. Néanmoins, il existe une lacune dans la littérature actuelle concernant l’enregistrement des mouvements oculaires et l’intégration de la plate-forme d’instrumentation autoréfractive. De plus, la capacité d’analyser les réponses objectives des mouvements oculaires avec des réponses d’accommodation synchrones n’a pas encore été ouverte. Par conséquent, le Vision and Neural Engineering Laboratory (VNEL) a répondu au besoin d’instrumentation et d’analyse synchronisées grâce à la création de VE2020 et de deux suites de programmes de traitement du signal hors ligne pour analyser les mouvements oculaires et les réponses accommodatives. VE2020 est personnalisable via des procédures d’étalonnage et des protocoles de stimulation pour une adaptation à une variété d’applications allant de la science fondamentale à la clinique, y compris les projets de recherche sur la vision binoculaire sur l’insuffisance / excès de convergence, l’insuffisance / excès de divergence, l’insuffisance / excès accommodatif, les dysfonctions binoculaires liées aux commotions cérébrales, le strabisme, l’amblyopie et le nystagmus. VE2020 est complété par le VEMAP et l’AMAP, qui fournissent par la suite des capacités d’analyse de données pour ces yeux stimulés et ces mouvements accommodatifs.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

L’étude, pour laquelle cette suite d’instrumentation et d’analyse de données a été créée et mise en œuvre avec succès, a été approuvée par le New Jersey Institute of Technology Institution Review Board HHS FWA 00003246 Approval F182-13 et approuvée en tant qu’essai clinique randomisé publié sur ClinicalTrials.gov Identifiant: NCT03593031 financé via NIH EY023261. Tous les participants ont lu et signé un formulaire de consentement éclairé approuvé par le comité d’examen institutionnel de l’université.

1. Configuration de l’instrumentation

  1. Surveillance des connexions et du matériel
    1. Le système VE2020 attribue les moniteurs dans l’espace dans le sens des aiguilles d’une montre. Vérifiez que le moniteur de contrôle primaire est indexé sur 0 et que tous les moniteurs successifs sont indexés à partir de 1. Assurez-vous que tous les moniteurs sont gérés par un seul ordinateur (voir le tableau des matières).
    2. Assurer une configuration spatiale correcte des moniteurs de stimulation. À partir de l’écran d’accueil du bureau du contrôleur, cliquez avec le bouton droit sur le moniteur du contrôleur, sélectionnez Paramètres d’affichage et accédez à la résolution de l’écran. Sélectionnez Identifier; cela fournira une visualisation des indices de moniteur assignés pour chaque affichage de stimulus connecté à l’ordinateur de contrôle (Figure 1).
  2. Configuration de l’équipement physique
    1. Assurez-vous que le système de suivi oculaire se trouve sur la ligne médiane optique avec une distance minimale de la caméra de 38 cm. Vérifiez que le système d’autoréfracteur se trouve sur la ligne médiane optique et à 1 m ± 0,05 m des yeux.
    2. Validez la configuration du matériel et de l’équipement en référençant les dimensions de la figure 1.
  3. Système de suivi oculaire
    1. Assurez-vous que le bureau et le matériel de suivi oculaire correspondant sont configurés et étalonnés conformément aux instructions du fabricant (voir le tableau des matériaux).
    2. Établissez le câblage du câble BNC des sorties analogiques de l’ordinateur de bureau vers la carte d’acquisition de données (DAQ) via un boîtier de bornes de dérivation analogique (NI 2090A). Reportez-vous au Tableau 1 pour connaître les configurations de port BNC par défaut pour VE2020.
      REMARQUE : les écarts par rapport au câblage par défaut nécessitent la modification des ports affectés décrits dans les fichiers Acquire.vi et/ou TriggerListen.vi ou la modification de l’ordre d’en-tête par défaut dans le fichier .txt standard.
    3. Configurez les commutateurs de référence du boîtier de dérivation de borne analogique en identifiant le commutateur asymétrique/différentiel (SE/DIFF) (voir Figure 2) et définissez le commutateur sur SE. Ensuite, identifiez le commutateur de sélection au sol (RSE/NRSE) (voir la figure 2) et définissez la référence de masse sur référencée à une extrémité (RSE).
  4. Acquisition d’interventions accommodantes
    1. Effectuez l’orientation de l’autoréfracteur (voir le tableau des matériaux) conformément aux recommandations du fabricant. Configurez l’autoréfracteur en alignement direct et effectuez un déclenchement manuel basé sur l’opérateur de l’autoréfracteur pour stocker les données d’enregistrement de l’autoréfracteur.
    2. Assurez-vous qu’un périphérique de stockage amovible externe est utilisé pour enregistrer les données du réfracteur automatique. Retirez le lecteur externe avant de démarrer le logiciel de réfracteur automatique et réinsérez-le une fois le logiciel en cours d’exécution. Créez un répertoire de dossiers dans le périphérique de stockage correspondant pour identifier les profils des participants, les horaires des sessions et les stimuli. Suivez cette pratique pour chaque session d’enregistrement expérimental.
    3. Après l’activation du logiciel autoréfracteur et l’insertion d’un périphérique de stockage externe, commencez l’étalonnage de l’autoréfracteur.
    4. Occlure monoculairement l’œil gauche du participant avec un filtre de transmission infrarouge (IR Tx Filter)10. Placez une lentille d’essai à sphère convexe devant le filtre IR Tx (voir le tableau des matériaux).
    5. Les jumelles présentent un stimulus de 4° d’acuité élevée provenant des moniteurs de stimulus physiquement proches.
      REMARQUE: Une fois que le participant signale le stimulus comme visuellement unique et clair (aigu), le participant doit utiliser la gâchette portative pour progresser dans l’étalonnage.
    6. Les jumelles présentent un stimulus de haute acuité de 16° provenant des moniteurs de stimulus physiquement proches.
      REMARQUE: Une fois que le participant signale le stimulus comme visuellement unique et clair (aigu), le participant doit utiliser la gâchette portative pour progresser.
    7. Répétez ces procédures d’étalonnage (étapes 1.4.4-1.4.6) pour chaque lentille à sphère convexe comme suit (en dioptries) : -4, −3, −2, −1, +1, +2, +3 et +4.

Figure 1
Figure 1 : Configuration de l’équipement de contrôle et d’enregistrement des haploscopes. Exemple d’indexation d’affichage du VE2020 pour la commande et le dimensionnement des moniteurs dans le sens des aiguilles d’une montre. Ici, 1 est le moniteur de contrôle, 2 est le moniteur d’affichage près à gauche, 3 est le moniteur d’affichage à l’extrême gauche, 6 est la carte d’étalonnage (CalBoard), 4 est le moniteur d’affichage à l’extrême droite et 5 est le moniteur d’affichage près à droite. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Tableau 1 : Carte des ports BNC. La convention pour les connexions BNC. Veuillez cliquer ici pour télécharger ce tableau.

Figure 2
Figure 2 : références des commutateurs de boîte de dérivation. Démonstration des positions de commutation NI 2090A appropriées. Veuillez cliquer ici pour voir une version agrandie de cette figure.

2. Stimulation visuelle à l’aide des écrans visuels VE2020 et des cibles LED VE2020

  1. Commencez l’étalonnage du ou des écrans de stimulus VisualEyes2020.
    1. Ouvrez le fichier d’instrument virtuel (VI) nommé Pix2Deg2020.vi. Sélectionnez le moniteur à étalonner à l’aide du champ de saisie ID du mode d’étirement et de l’index d’affichage correspondant du moniteur (Figure 3).
    2. Sélectionnez une image de stimulus (par exemple, RedLine.bmp) en tapant le nom du fichier de stimulus dans le champ de saisie Line.
      Remarque : Il est important de noter que Pix2Deg2020.vi utilise .bmp fichiers, pas .dds fichiers.
    3. Exécutez Pix2Deg2020.vi et ajustez la position du stimulus jusqu’à ce qu’elle se superpose à une cible physique mesurée.
    4. Une fois que l’image virtuelle s’aligne sur la cible physiquement mesurée, enregistrez la valeur en pixels à l’écran pour la valeur de degré donnée. Enregistrez un minimum de trois points d’étalonnage avec des exigences de degrés stimulés variables et leurs valeurs de pixels correspondantes.
    5. Assurez-vous qu’après avoir enregistré chaque point d’étalonnage, VE2020 produit un fichier de sortie nommé Cals.xls. En utilisant les points d’étalonnage de Cal.xls, appliquez une régression linéaire la mieux adaptée pour cartographier les demandes de stimulus de mouvement oculaire requises expérimentalement, en degrés de rotation, en pixels. Un exemple de degré de cinq points pour l’étalonnage des pixels enregistrés est illustré à la figure 4.
  2. Répétez cette procédure pour différentes images de stimulus (c.-à-d. l’arrière-plan ou le deuxième stimulus visuel, au besoin) et chaque moniteur de stimulus qui devrait être utilisé.

Figure 3
Figure 3 : Degrés stimulés pour surveiller les pixels. Représentation de la vue de l’opérateur pour l’étalonnage du VE2020. De gauche à droite, un tableau des valeurs pour les pixels enregistrés correspondant à une valeur de degré connue est fourni pour une sélection de moniteur de stimulus donnée (ID de mode d’étirement) avec un rapport d’aspect fixe, un nom de fichier donné, un stimulus d’arrière-plan (BG) et un stimulus de premier plan (Line). Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 4
Figure 4 : Pentes d’étalonnage pixel-degré. Courbe d’étalonnage monoculaire pour les valeurs de degrés connues et les valeurs de pixels mesurées. Veuillez cliquer ici pour voir une version agrandie de cette figure.

3. Calibrage LED

  1. Déterminer les degrés expérimentaux de rotation en utilisant des identités trigonométriques dans les plans verticaux ou horizontaux (Figure 5). Tracez les degrés de rotation en fonction du nombre de LED.
  2. Régresser linéairement le nombre de LED en fonction des degrés de rotation. Utilisez la relation obtenue pour calculer les nombres initial et final de LED, qui seront utilisés comme stimuli visuels pendant l’expérience.

Figure 5
Figure 5 : Degrés de rotation calculés. Méthode de calcul du déplacement angulaire pour les mouvements oculaires saccadiques et les mouvements de vergence avec une distance connue à la cible (X) et une distance interpupillaire (IPD). Veuillez cliquer ici pour voir une version agrandie de cette figure.

4. Programmation logicielle

  1. Définissez le fichier d’entrée d’affichage VisualEyes et enregistrez-le dans la bibliothèque de stimuli comme suit.
    1. Pour définir chaque stimulus, ouvrez un nouveau fichier texte (.txt) avant l’expérience. Sur la première ligne de ce fichier texte, confirmez la présence de quatre paramètres délimités par des tabulations obligatoires : moment(s) de stimulation; Position X (pixels); Position Y (pixels); et rotation (degrés). De plus, confirmez la présence de deux paramètres successifs facultatifs : mise à l’échelle X (mise à l’échelle horizontale) ; et la mise à l’échelle Y (mise à l’échelle verticale).
    2. Calculez la valeur en pixels pour chaque degré de stimulus souhaité à l’aide de l’équation de régression linéaire dérivée de l’étalonnage (voir étape 2.1.5).
    3. Confirmez dans la ligne suivante du fichier texte que la ou les longueurs pour lesquelles le stimulus est présenté à sa position initiale et à sa position finale suivante sont présentes et délimitées par des tabulations.
    4. Enregistrez le fichier de stimulus dans le répertoire en tant que fichier d’entrée VisualEyes (VEI) avec un nom de fichier informatif (par exemple, stimulus_name_movement_size.vei).
      REMARQUE: Chaque fichier de stimulus est positionné monoculairement, de sorte qu’un fichier séparé doit être généré pour que l’œil complémentaire évoque un mouvement binoculaire.
  2. Répétez ces procédures pour chaque stimulus expérimental souhaité, le type de mouvement, l’amplitude du mouvement et l’œil respectif, le cas échéant.

5. Fichiers DC

  1. Créez une bibliothèque de stimuli pour chaque moniteur de stimulus. Nommez ces bibliothèques comme dc_1.txt à travers dc_7.txt. Pour les paramètres contenus dans les fichiers dc_1.txt et dc_2.txt, reportez-vous au Tableau 2.
    1. Validez l’ID numérique de chaque moniteur de stimulus en cliquant sur Afficher > Résolution d’écran > Identifier. Assurez-vous que l’ID du périphérique est le GPU principal (index de départ 0) et que le mode fenêtre est 1.
    2. Vérifiez que la gauche définit la limite gauche de l’écran (en pixels), que le haut définit la limite supérieure de l’écran (en pixels), que la largeur correspond à la largeur longitudinale de l’écran (en pixels) et que la hauteur est la hauteur verticale de l’écran (en pixels).
    3. Établissez le numéro de stimulus (Stim#), qui associe le nom et l’emplacement du fichier de stimulus (.dds) et, à condition que le fichier nostimulus.vei soit le numéro de stimulus zéro, les associe à un numéro d’index de stimulus. Pour le stimulus_name.vei suivant, énumérez les différents fichiers de stimulus qui peuvent être utilisés au cours de la session expérimentale.
      REMARQUE: Le fichier nostimulus.vei est utile lors de l’utilisation de ExpTrial car nostimulus.vei ne présente pas de stimulus (écran vide).

Tableau 2 : configuration du fichier DC. Le tableau fournit une vue d’ensemble du format de fichier texte DC. Veuillez cliquer ici pour télécharger ce tableau.

6. Définition du fichier d’entrée LED et stockage de la bibliothèque de stimuli

  1. Ouvrez un nouveau fichier texte (.txt) et, dans le fichier, utilisez la délimitation de tabulation. Terminez chaque ligne du fichier texte par deux zéros délimités par des tabulations.
  2. Dans la première ligne, définissez les valeurs initiale(s) de temps et de LED (position). Dans la deuxième ligne, définissez la ou les valeurs de temps final et de position finale des LED. Enregistrez le fichier stimulus_name.vei dans le répertoire et répétez ces étapes pour tous les stimuli.
  3. Une fois terminé, enregistrez tous les fichiers de stimulus dans la bibliothèque de stimulus, array_config.txt.
  4. Assurez-vous que la première ligne du fichier array_config.txt est le port de communication (COM) que VisualEyes utilise pour communiquer avec le stimulateur visuel flexible avec la valeur d’entrée par défaut COM1 ; la deuxième ligne est le débit en bauds avec la valeur d’entrée par défaut 9 600 ; la troisième ligne est la capacité en bits de données avec la valeur d’entrée par défaut de 8 bits ; et la quatrième ligne est l’indice de parité des données avec la valeur d’entrée par défaut 0. Les lignes suivantes du fichier contiennent le fichier de stimulus du stimulateur visuel flexible (Figure 6).
  5. Vérifiez le numéro de profil, comme le montre la figure 6; Il s’agit de l’index de ligne correspondant d’un nom de fichier de stimulus donné, qui commence à l’index zéro.

Figure 6
Figure 6 : Bibliothèque de stimulation. À l’aide d’un logiciel d’édition de texte, le format indiqué pour identifier les communications de port, le débit en bauds, la taille des données et la parité, ainsi que la bibliothèque de fichiers de stimulus (.vei), fournit au VE2020 les configurations et les noms de fichiers de stimulus nécessaires pour fonctionner correctement. Veuillez cliquer ici pour voir une version agrandie de cette figure.

7. Création de scripts pour les protocoles expérimentaux

  1. Ouvrez un nouveau fichier texte (.txt) pour scripter les commandes de protocole expérimental pour que VE2020 les lisent et les exécutent. Vérifiez la syntaxe appropriée pour les commandes de protocole expérimental et la documentation. Le tableau 3 fournit une vue d’ensemble des conventions de syntaxe VE2020.
    REMARQUE: VE2020 lira ces commandes séquentiellement.
  2. Enregistrez le fichier texte dans le répertoire en tant que script VisualEyes (VES), tel que script_name.ves. Dans le manuel11 de la version précédente de VisualEyes, recherchez un tableau des fonctions logicielles dotées de capacités d’entrée et de sortie. Le tableau 3 illustre trois fonctions mises à jour récemment mises en œuvre.

Tableau 3 : syntaxe de la fonction VE2020. VE2020 a une syntaxe spécifique, comme le montre le tableau pour appeler des fonctions intégrées et commenter. Veuillez cliquer ici pour télécharger ce tableau.

8. Préparation des participants et initiation à l’expérience

  1. Obtention du consentement et admissibilité
    1. Utilisez les critères généraux d’admissibilité des participants suivants : âgés de 18 à 35 ans, 20/25 (ou plus) acuité visuelle monoculaire corrigée, acuité stéréoscopique de 500 s (ou plus) d’arc et 2 semaines (ou plus) d’utilisation d’une correction réfractive appropriée.
    2. Utilisez les critères d’admissibilité des participants à l’insuffisance de convergence (IC) suivants selon les pratiques établies12 : Enquête sur les symptômes de l’insuffisance de convergence (EIAC)13 score de 21 ou plus, échec du critère de Sheard 14, 6 cm (ou plus, à la rupture) près du point de convergence (NPC) et 4Δ (ou plus) exodéviation (proche par rapport à loin).
    3. Utilisez les critères d’éligibilité des participants témoins suivants : score CISS inférieur à 21, différence inférieure à 6Δ entre phorie proche et phorie lointaine, PNJ inférieur à 6 cm (à la pause), réussite du critère de Sheard et amplitude minimale suffisante de l’accommodation telle que définie par la formule15 de Hofstetter.
    4. Utilisez les critères généraux d’inadmissibilité suivants : strabisme constant, strabisme antérieur ou chirurgie réfractive, nystagmus dormant ou manifesté, encéphalopathie, maladies qui altèrent la mobilité accommodante, de vergence ou oculaire, hétérophorie verticale 2Δ (ou plus) et incapacité d’effectuer ou de comprendre les tests liés à l’étude. Les critères d’inadmissibilité à l’IC incluent en outre les participants ayant moins de 5 dioptries répondant à des accommodements via la méthode de push-up16 de Donder.
    5. Une fois le consentement éclairé obtenu, demandez au participant de s’asseoir dans l’haploscope.
    6. Placez le front et le menton du participant contre un appui-tête fixe pour minimiser les mouvements de la tête et ajustez la hauteur de la chaise du participant de manière à ce que le cou du participant soit dans une position confortable pendant toute la durée de l’expérience.
    7. Ajustez la ou les caméras d’enregistrement des mouvements oculaires pour vous assurer que les yeux du participant sont capturés dans le champ de vision de la caméra.
  2. Après avoir été correctement assis dans l’haploscope et l’eye tracker/autoréfractaire, demandez au participant de se fixer visuellement sur une cible présentée visuellement. Au cours de cette configuration, assurez-vous que les yeux du participant sont centrés afin que les cibles visuelles soient présentées sur le plan médio-sagittal.
    1. Atteindre le centrage oculaire en ayant des cibles de haute acuité présentées binoculairement à la ligne médiane visuelle. Le participant est aligné à la ligne médiane visuelle lorsque la diplopie physiologique (vision double) se produit centrée autour de la cible de fixation.
  3. Ensuite, ajustez les gains du signal de suivi oculaire et de suivi oculaire pour capturer des caractéristiques anatomiques telles que le limbe (la limite entre l’iris et la sclérotique), la pupille et la réflexion cornéenne.
  4. Valider la saisie des données de mouvements oculaires en demandant au participant d’effectuer des mouvements de vergence et/ou saccadiques répétés.
  5. Après la validation préliminaire et les étalonnages du moniteur physique, ouvrez ReadScript.vi. Une fois ReadScript.vi ouvert, sélectionnez le script de protocole expérimental en tapant le nom du fichier dans le coin supérieur gauche. Exécutez le protocole via ReadScript.vi en appuyant sur la flèche blanche dans le coin supérieur gauche pour exécuter Acquire.vi.
  6. Fournissez au participant un bouton de déclenchement portatif et expliquez que lorsque vous appuyez sur la gâchette, la collecte de données commence. Un fichier apparaîtra automatiquement sur l’écran du moniteur de contrôle, Acquire.vi, qui trace un aperçu des données de mouvement oculaire enregistrées. Lorsque le protocole expérimental est terminé, ReadScript.vi s’arrête automatiquement et les fichiers de sortie de données sont automatiquement générés et stockés.

9. Programme d’analyse des mouvements oculaires VNEL (VEMAP)

  1. Prétraitement des données
    1. Commencez l’analyse en sélectionnant le bouton Prétraiter les données . Une fenêtre d’explorateur de fichiers apparaîtra. Sélectionnez un ou plusieurs fichiers de données enregistrés à partir de VE2020 pour le prétraitement.
    2. Filtrez les données avec un filtre Butterworth de 20 ordres : 40 Hz pour les mouvements oculaires vergence et 120 Hz ou 250 Hz pour les mouvements oculaires saccadiques. Les fichiers de données prétraités terminés seront stockés dans le dossier VEMAP Preprocessed en tant que fichiers .mat.
      REMARQUE: La fréquence de filtrage pour VEMAP peut être ajustée à la fréquence de coupure préférée de l’utilisateur, en fonction de l’application.
  2. Étalonnage
    1. En utilisant les trois mouvements d’étalonnage monoculaires stimulés respectivement pour les positions de l’œil gauche et de l’œil droit évoquées dans le script VE2020, créez une régression linéaire des stimuli de mouvement oculaire en degrés en fonction des valeurs de tension enregistrées. Comme le montrent les graphiques inférieurs de la figure 7, utiliser les coefficients de corrélation de Pearson respectifs et les formules de régression pour l’évaluation quantitative de l’ajustement.
    2. Utilisez la pente de chaque régression comme gain d’étalonnage monoculaire respectif pour convertir les tensions enregistrées (brutes) en degrés (étalonnés).
    3. Identifier à partir des étalonnages expérimentaux une valeur de gain appropriée pour les réponses aux mouvements de l’œil gauche et de l’œil droit. Appliquer systématiquement le gain d’étalonnage à chaque section de stimulus de mouvement oculaire enregistrée. Après l’étalonnage de toutes les sous-sections du mouvement, une fenêtre de confirmation apparaîtra.
      REMARQUE: Les étalonnages de mouvements oculaires monoculaires sont choisis en raison de l’incapacité potentielle des patients présentant une insuffisance de convergence, le dysfonctionnement moteur oculaire primaire étudié par notre laboratoire, à percevoir un étalonnage binoculaire comme un seul percept. Si les signaux d’étalonnage enregistrés sont saturés ou ne sont pas corrélés linéairement (en raison de l’absence de prise en compte du stimulus, du clignement des yeux, des mouvements saccadiques, des larmoiements ou de la fermeture des yeux), appliquez des gains d’étalonnage normalisés pour les réponses aux mouvements de l’œil gauche et droit. Cela devrait être fait avec parcimonie, et ces valeurs de gain d’étalonnage devraient être dérivées des moyennes au niveau du grand groupe des participants précédents pour les gains de réponse au mouvement de l’œil gauche et de l’œil droit, respectivement.
  3. Classification
    1. Après l’étalonnage, inspectez manuellement chaque réponse de mouvement oculaire et classez à l’aide d’une variété d’étiquettes de classification, telles que clignement des yeux transitoire, symétrique, asymétrique, perte de fusion, absence de mouvement (pas de réponse) et mouvement oculaire saturé.
    2. Consultez la figure 8 pour référence. Le graphique supérieur (données de position) est la réponse d’un stimulus par pas de vergence symétrique de 4°. Le mouvement de convergence combiné est représenté en vert, le mouvement de l’œil droit est représenté en rouge. et le mouvement de l’œil gauche est représenté en bleu. La trace de version est affichée en noir. Le graphique inférieur montre la vitesse de la première dérivée de la réponse de la position du mouvement de l’œil, avec le même motif de couleur que celui décrit ci-dessus.
  4. Analyse des données
    1. Effectuez la dernière étape du flux de données de traitement VEMAP de l’analyse des données, qui est accessible dans l’interface utilisateur VEMAP sous forme de bouton et est prévisualisé à la figure 9. Tracez les mouvements oculaires dans un type de stimulus particulier et une étiquette de classification ensemble en tant que diagramme d’ensemble, comme indiqué sur le côté droit de la figure 9.
    2. Analysez sélectivement les sous-ensembles de mouvements oculaires via leurs étiquettes de classification ou de manière holistique sans aucun filtre de classification appliqué via le bouton Choisir les classes.
    3. Vérifiez que les mesures de mouvement oculaire primaires correspondent à chaque mouvement oculaire enregistré, telles que la latence, la vitesse maximale, l’amplitude de réponse et l’amplitude finale.
    4. Inspectez chaque réponse de mouvement oculaire pour vous assurer que chaque mesure enregistrée est valide. Si une mesure ne semble pas appropriée, remesurez les mesures enregistrées en conséquence jusqu’à ce que les valeurs appropriées reflètent fidèlement chaque mouvement. En outre, omettez les mouvements oculaires ou reclassez les étiquettes de classification fournies via le bouton Reclasser si les mesures enregistrées ne peuvent pas décrire correctement les mouvements oculaires enregistrés.

Figure 7
Figure 7 : Pentes d’étalonnage monoculaire et de corrélation. Un exemple d’étalonnage des données de mouvement oculaire des valeurs de tension aux degrés de rotation. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 8
Figure 8 : Classification des logiciels de mouvements oculaires. Classification des réponses des mouvements oculaires stimulés. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Figure 9
Figure 9 : Analyse logicielle de la réponse aux mouvements oculaires. Un exemple de réponses de convergence tracées stimulées par un changement de pas symétrique de 4° (à droite), avec des mesures de réponse individuelles au mouvement oculaire présentées sous forme tabulaire (à gauche) et des statistiques au niveau du groupe affichées de manière tabulaire sous les mesures de réponse. Veuillez cliquer ici pour voir une version agrandie de cette figure.

10. Programme d’analyse des mouvements accommodants (PAAM)

  1. Configuration des données
    1. À l’aide du périphérique de stockage externe qui contient les données de réfracteur automatique, exportez les données vers un périphérique sur lequel l’AMAP est installé. L’AMAP est disponible en tant qu’exécutable autonome ainsi qu’en tant qu’application locale via l’installation de l’application MATLAB.
  2. Démarrez l’application AMAP. Dans AMAP, sélectionnez Préprocesseur de fichiers ou Préprocesseur par lots. Le préprocesseur de fichiers traite un dossier de données individuel, tandis que le préprocesseur par lots traite un répertoire de dossiers de données sélectionné.
  3. Vérifiez la barre de progression et les notifications de l’AMAP, car le système les fournit lorsque les données sélectionnées ont été prétraitées. Les répertoires de dossiers sont générés à partir du prétraitement de l’AMAP pour la transparence et l’accessibilité du traitement des données via le lecteur local de l’ordinateur sous AMAP_Output.
  4. Si une fonctionnalité AMAP est sélectionnée sans traitement préalable des données, recherchez une fenêtre d’explorateur de fichiers qui s’affiche pour permettre à l’utilisateur de sélectionner un répertoire de données.
  5. Effectuez l’analyse des données AMAP comme décrit ci-dessous.
    1. Après le prétraitement, sélectionnez un fichier de données à analyser via le bouton Charger les données . Cela chargera tous les fichiers disponibles dans le répertoire de fichiers actuel par défaut dans un dossier AMAP_Output généré. Le nom du fichier de données sélectionné sera affiché dans le champ du fichier actif.
    2. Sous le sélecteur oculaire, vérifiez la sélection par défaut, qui présente des données moyennées aux jumelles pour la réfraction accommodative enregistrée.
    3. Basculez le type de données entre la réfraction accommodative et la vergence oculomotrice (regard) via le sélecteur de type. Vérifiez les personnalisations graphiques disponibles pour présenter les métriques de données et les caractérisations de premier et de second ordre. Consultez la figure 10 pour connaître les combinaisons d’options graphiques que l’opérateur peut sélectionner pour les visualiser.
    4. Vérifiez les mesures par défaut pour l’AMAP, qui sont les suivantes : vitesse maximale (degrés/s) ; amplitude de réponse (degrés); amplitude finale (degrés); index de départ de réponse; indice de vitesse de crête (s); index de fin de réponse; vitesse du regard (vergence) (degrés/s); amplitude de réponse du regard (degrés); amplitude finale du regard (degrés); indice de départ de la réponse du regard; indice de vitesse du regard (s); indice de fin de réponse du regard (s); et classification (binaire 0 - mauvais, 1 - bon).
    5. Modifiez l’index de départ de réponse, l’index de fin de réponse et l’indice de vitesse maximale via les spinners de modification métrique (Figure 10).
    6. Après l’analyse de tous les mouvements enregistrés affichés, enregistrez les métriques analysées pour chaque fichier de données dans le champ ID de mouvement ou via les flèches de navigation vers la gauche et vers la droite.
    7. Sélectionnez le bouton Enregistrer pour exporter les données analysées vers une feuille de calcul accessible. Les mouvements non analysés ont une classification par défaut de non-numéro (NaN) et ne sont ni enregistrés ni exportés.
    8. Effectuer une classification manuelle (bon/mauvais) pour chaque mouvement afin d’assurer une analyse complète par n’importe quel opérateur.

Figure 10
Figure 10 : interface logicielle AMAP. La figure affiche l’interface utilisateur principale de l’AMAP avec des sections en surbrillance pour la présentation graphique (options graphiques) des données et l’analyse des données (modifications métriques). Veuillez cliquer ici pour voir une version agrandie de cette figure.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Des diagrammes d’ensemble au niveau du groupe des mouvements oculaires stimulés évoqués par VE2020 sont représentés à la figure 11 avec les caractéristiques de vitesse de premier ordre correspondantes.

Figure 11
Figure 11 : Ensembles de réponse aux mouvements oculaires. Les diagrammes d’ensemble des marches de vergence (à gauche) et des saccades (à droite) stimulées à l’aide du VE2020 sont montrées. Chaque trace de position de mouvement oculaire (degrés) est tracée sous la forme d’une ligne de couleur unique et superposée avec la réponse de vitesse au niveau du groupe en rouge. Veuillez cliquer ici pour voir une version agrandie de cette figure.

Les entités exportées à partir de l’AMAP permettent de visualiser les diagrammes de mouvements (ensembles) au niveau du participant et du groupe et les mesures correspondantes (exportation) dans une feuille de calcul accessible (tableau 4). Les tableaux de données exportés fournissent un aperçu quantitatif des performances des participants et peuvent établir des critères pour l’élimination des valeurs aberrantes.

Tableau 4 : Exportation du logiciel d’analyse AMAP. Exemple de fonction d’exportation AMAP, dans laquelle les réponses individuelles des mouvements oculaires sont exportées par ligne avec l’identification correspondante du sujet et du type de mouvement. Veuillez cliquer ici pour télécharger ce tableau.

La visualisation des performances des participants peut également être réalisée dans l’AMAP, comme le montre la figure 12, qui montre un ensemble de réponses convergentes de 5° et les réponses accommodatives dioptriques de 1,5 dioptrie correspondantes qui sont le résultat du traitement des données.

Figure 12
Figure 12 : Ensembles de réponse au mouvement accommodatif. La figure illustre la fonction d’ensemble AMAP, qui crée des superpositions de chaque trace de réponse de mouvement individuelle (gris) et de la réponse moyenne (vert). Veuillez cliquer ici pour voir une version agrandie de cette figure.

Les figures 11 et 12 démontrent la stimulation et l’enregistrement réussis des mouvements oculaires vernces et saccadiques ainsi que des réponses accommodatives. Si les procédures d’étalonnage du VEMAP donnent les cibles saccadiques attendues de 4° et 5°, la figure 11 montre que pour un participant binoculairement normal subissant ces tâches visuelles, la stimulation attendue est atteinte. Pour les réponses accommodatives traitées dans l’AMAP, la figure 12 montre une réponse accommodative approximative de 1 dioptrie avec une demande accommodative de 1,5 dioptrie, ce qui est cohérent avec la variabilité des systèmes autoréfracteurs pour les différentes données démographiques des participants17. Ces résultats peuvent être calibrés davantage, en utilisant un gain constant, en suivant les statistiques au niveau du groupe pour divers groupes de participants expérimentaux avec la caractéristique d’exportation indiquée dans le tableau 4. Par conséquent, l’établissement et la mise en œuvre réussie de VE2020, du VEMAP et de l’AMAP peuvent fournir une compréhension quantitative des différences dans les mouvements oculaires stimulés et les mesures de réponse accommodative.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Applications de la méthode en recherche
Les innovations du logiciel initial VisualEyes2020 (VE2020) incluent l’extension du VE2020 à projeter sur plusieurs moniteurs avec un ou plusieurs stimuli visuels, ce qui permet d’étudier des questions scientifiques allant de la quantification des composants Maddox de la vergence18 à l’influence de cibles distrayantes sur des cibles instruites19. L’extension du système d’haploscope jusqu’à VE2020 ainsi que le développement complémentaire du VEMAP et de l’AMAP fournissent une plate-forme autonome de stimulation et d’analyse compatible avec les équipements d’enregistrement des mouvements oculaires et des aménagements actuellement accessibles. À la suite de la création réussie de la routine de stimulation VE2020 et de l’enregistrement ultérieur, la conversion des données brutes sur la position et l’accommodation des mouvements oculaires en sous-ensembles de données significatifs et analysables permet aux chercheurs disposant des outils non invasifs nécessaires d’étudier de manière holistique les dysfonctionnements visuels prévalents et sous-jacents, tels que les dysfonctionnements traumatiques typiques ou légers induits par les lésions cérébrales et l’insuffisance de convergence. qui peut être comparé à la fonction chez les participants témoins binoculairement normaux 1,2,13,20. Fournir une analyse des mouvements oculaires avec des réponses accommodatives correspondantes améliore la compréhension scientifique des interactions inconnues entre la vergence et les systèmes accommodatifs chez les participants en bonne santé et ceux présentant un dysfonctionnement oculomoteur21.

Comme démontré, avec VE2020, le VEMAP et l’AMAP configurés conjointement, les mécanismes de contrôle neuronal sous-jacents dans le dysfonctionnement peuvent être mieux compris22,23. Grâce à la stimulation visuelle reproductible de VE2020, les dysfonctionnements neurologiques latents qui peuvent avoir des biomarqueurs précoces exprimés par des réponses accommodatives, de vergence ou de version anormales peuvent maintenant être évalués quantitativement par l’AMAP et le VEMAP. L’unification de l’analyse de la réponse accommodative avec des enregistrements couplés des mouvements oculaires provenant d’expériences de vision précédemment isolées aide les études à obtenir des résultats d’analyse plus complets et quantifiables. Des méthodes objectives d’analyse et de stimulation permettent de comparer l’efficacité des normes de soins actuelles et leurs résultats thérapeutiques24,25. Ces quantifications, associées à une enquête subjective sur les symptômes des participants, peuvent aider à identifier des stratégies de remédiation personnalisées qui améliorent les résultats. De plus, en évaluant ces principaux composants qui peuvent évoquer des symptômes, des méthodes précoces de détection des blessures26 et des évaluations de la gravité peuvent être établies avec une efficacité accrue.

Étapes critiques du protocole
Les mouvements oculaires sont généralement mesurés par l’ampleur de la rotation de l’œil en degrés. Comme le montre la figure 5, la conversion trigonométrique du mouvement de translation d’un stimulus en degrés nécessite une distance interpupillaire connue (IPD) et une distance mesurée par rapport à la cible. L’utilisation de moyennes connues pour l’IPD peut fournir une approximation généralisée pour la scriptisation des séquences de stimulus VE2020; Cependant, ceux-ci reposent sur des étalonnages appropriés. Les conventions de signalisation pour la direction des mouvements peuvent être modifiées; cependant, cela modifiera l’application des valeurs de gain pour le VEMAP. Les conventions de mouvement actuelles du VEMAP sont les suivantes pour les mouvements saccadiques : vers la droite est positive, et vers la gauche est négative. De plus, pour les mouvements de vergence, la convergence (rotation vers l’intérieur) est positive et la divergence (rotation vers l’extérieur) est négative.

Comme le montre la figure 7, les cibles de stimulus ont été placées à 1°, 3° et 5°, représentant une rotation angulaire monoculaire vers l’intérieur à partir de l’infini optique. Le graphique en bas à gauche montre une régression linéaire en trois points pour les données de position de l’œil gauche, où pour un stimulus de 5°, la tension moyenne enregistrée était de -1 V, pour un stimulus de 3°, la tension moyenne enregistrée était d’environ 0,4 V, et pour un stimulus de 1°, la tension moyenne enregistrée était d’environ 1,25 V. De même, pour la position de l’œil droit dans le graphique inférieur droit, un stimulus de 1° avait une tension correspondante de -1,25 V, un stimulus de 3° avait une tension moyenne d’environ 0 V et un stimulus de 5° avait une tension moyenne de 1,1 V.

Limites de la méthode
Les limites actuelles de la méthode incluent la sortie normalisée des données de l’autoréfracteur et de l’eye tracker, car l’AMAP et le VEMAP sont programmés pour traiter ces formats de données. Une autre limite comprend le fait que si l’expérimentation n’est pas engageante, les participants peuvent fréquemment cligner des yeux (fermer), ce qui entraîne une mauvaise qualité d’enregistrement des données. Alors que d’autres dysfonctionnements oculomoteurs tels que le strabisme, l’amblyopie, le nystagmus et la suppression pourraient tirer parti de VE2020, du VEMAP et de l’AMAP, des modifications devraient être mises en œuvre pour chacun de ces dysfonctionnements oculomoteurs spécifiques.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Les auteurs n’ont aucun conflit d’intérêts à déclarer.

Acknowledgments

Cette recherche a été financée par la subvention R01EY023261 des National Institutes of Health à T.L.A. et une bourse Barry Goldwater et une bourse de doctorat NJIT Provost à S.N.F.

Materials

Name Company Catalog Number Comments
Analog Terminal Breakout Box National Instruments 2090A
Convex-Sphere Trial Lens Set Reichert Portable Precision Lenses Utilized for autorefractor calibration
Graphics Cards - - Minimum performance requirement of GTX980 in SLI configuration
ISCAN Eye Tracker ISCAN ETL200
MATLAB MathWorks v2022a AMAP software rquirement
MATLAB MathWorks v2015a VEMAP software requirement
Microsoft Windows 10 Microsoft Windows 10 Required OS for VE2020
Plusoptix PowerRef3 Autorefractor Plusoptix PowerRef3
Stimuli Monitors (Quantity: 4+) Dell Resolution 1920x1080 Note all monitors should be the same model and brand to avoid resolution differences as well as physical configurations

DOWNLOAD MATERIALS LIST

References

  1. Alvarez, T. L., et al. Disparity vergence differences between typically occurring and concussion-related convergence insufficiency pediatric patients. Vision Research. 185, 58-67 (2021).
  2. Alvarez, T. L., et al. Underlying neurological mechanisms associated with symptomatic convergence insufficiency. Scientific Reports. 11, 6545 (2021).
  3. Scheiman, M., Kulp, M. T., Cotter, S. A., Lawrenson, J. G., Wang, L., Li, T. Interventions for convergence insufficiency: A network meta-analysis. The Cochrane Database of Systematic Reviews. 12 (12), (2020).
  4. Semmlow, J. L., Chen, Y. F., Granger-Donnetti, B., Alvarez, T. L. Correction of saccade-induced midline errors in responses to pure disparity vergence stimuli. Journal of Eye Movement Research. 2 (5), (2009).
  5. Scheiman, M., Wick, B. Clinical Management of Binocular Vision., 5th Edition. , Lippincott Williams & Wilkins. Philadelphia, USA. (2019).
  6. Kim, E. H., Vicci, V. R., Granger-Donetti, B., Alvarez, T. L. Short-term adaptations of the dynamic disparity vergence and phoria systems. Experimental Brain Research. 212 (2), 267-278 (2011).
  7. Labhishetty, V., Bobier, W. R., Lakshminarayanan, V. Is 25Hz enough to accurately measure a dynamic change in the ocular accommodation. Journal of Optometry. 12 (1), 22-29 (2019).
  8. Juhola, M., et al. Detection of saccadic eye movements using a non-recursive adaptive digital filter. Computer Methods and Programs in Biomedicine. 21 (2), 81-88 (1985).
  9. Mack, D. J., Belfanti, S., Schwarz, U. The effect of sampling rate and lowpass filters on saccades - A modeling approach. Behavior Research Methods. 49 (6), 2146-2162 (2017).
  10. Ghahghaei, S., Reed, O., Candy, T. R., Chandna, A. Calibration of the PlusOptix PowerRef 3 with change in viewing distance, adult age and refractive error. Ophthalmic & Physiological Optics. 39 (4), 253-259 (2019).
  11. Guo, Y., Kim, E. L., Alvarez, T. L. VisualEyes: A modular software system for oculomotor experimentation. Journal of Visualized Experiments. (49), e2530 (2011).
  12. Convergence Insufficiency Treatment Trial Study Group. Randomized clinical trial of treatments for symptomatic convergence insufficiency in children. Archives of Ophthalmology. 126 (10), 1336-1349 (2008).
  13. Borsting, E., et al. Association of symptoms and convergence and accommodative insufficiency in school-age children. Optometry. 74 (1), 25-34 (2003).
  14. Sheard, C. Zones of ocular comfort. American Journal of Optometry. 7 (1), 9-25 (1930).
  15. Hofstetter, H. W. A longitudinal study of amplitude changes in presbyopia. American Journal of Optometry and Archives of American Academy of Optometry. 42, 3-8 (1965).
  16. Donders, F. C. On the Anomalies of Accommodation and Refraction of the Eye. , Milford House Inc. Boston, MA. translated by Moore, W. D (1972).
  17. Sravani, N. G., Nilagiri, V. K., Bharadwaj, S. R. Photorefraction estimates of refractive power varies with the ethnic origin of human eyes. Scientific Reports. 5, 7976 (2015).
  18. Maddox, E. E. The Clinical Use of Prisms and the Decentering of Lenses. , John Wright and Co. London, UK. (1893).
  19. Yaramothu, C., Santos, E. M., Alvarez, T. L. Effects of visual distractors on vergence eye movements. Journal of Vision. 18 (6), 2 (2018).
  20. Borsting, E., Rouse, M. W., De Land, P. N. Prospective comparison of convergence insufficiency and normal binocular children on CIRS symptom surveys. Convergence Insufficiency and Reading Study (CIRS) group. Optometry and Vision Science. 76 (4), 221-228 (1999).
  21. Maxwell, J., Tong, J., Schor, C. The first and second order dynamics of accommodative convergence and disparity convergence. Vision Research. 50 (17), 1728-1739 (2010).
  22. Alvarez, T. L., et al. The Convergence Insufficiency Neuro-mechanism in Adult Population Study (CINAPS) randomized clinical trial: Design, methods, and clinical data. Ophthalmic Epidemiology. 27 (1), 52-72 (2020).
  23. Leigh, R. J., Zee, D. S. The Neurology of Eye Movements. , Oxford Academic Press. Oxford, UK. (2015).
  24. Alvarez, T. L., et al. Clinical and functional imaging changes induced from vision therapy in patients with convergence insufficiency. Annual International Conference of the IEEE Engineering in Medicine and Biology Society. 2019, 104-109 (2019).
  25. Scheiman, M. M., Talasan, H., Mitchell, G. L., Alvarez, T. L. Objective assessment of vergence after treatment of concussion-related CI: A pilot study. Optometry and Vision Science. 94 (1), 74-88 (2017).
  26. Yaramothu, C., Greenspan, L. D., Scheiman, M., Alvarez, T. L. Vergence endurance test: A pilot study for a concussion biomarker. Journal of Neurotrauma. 36 (14), 2200-2212 (2019).

Tags

Bioengineering numéro 193
Quantification des réponses oculomotrices et de l’accommodation à l’aide de boîtes à outils d’instrumentation et d’analyse
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Fine, S. N., Guo, Y., Talasan, H.,More

Fine, S. N., Guo, Y., Talasan, H., LeStrange, S., Yaramothu, C., Alvarez, T. L. Quantification of Oculomotor Responses and Accommodation Through Instrumentation and Analysis Toolboxes. J. Vis. Exp. (193), e64808, doi:10.3791/64808 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter