Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

Cuantificación de respuestas oculomotoras y acomodación a través de instrumentación y cajas de herramientas de análisis

Published: March 3, 2023 doi: 10.3791/64808

Summary

VisualEyes2020 (VE2020) es un lenguaje de scripting personalizado que presenta, registra y sincroniza estímulos visuales de movimiento ocular. VE2020 proporciona estímulos para movimientos oculares conjugados (sacadas y persecución suave), movimientos oculares desconjugados (vergencia), acomodación y combinaciones de cada uno. Dos programas de análisis unifican el procesamiento de datos de los sistemas de seguimiento ocular y registro de alojamiento.

Abstract

A través de la estimulación intencional y el registro de los movimientos oculares, se pueden observar las características fundamentales de los mecanismos neuronales subyacentes de los movimientos oculares. VisualEyes2020 (VE2020) se desarrolló en base a la falta de estimulación visual personalizable basada en software disponible para los investigadores que no dependa de motores o actuadores dentro de un haploscopio tradicional. Este nuevo instrumento y metodología se han desarrollado para una nueva configuración de haploscopio que utiliza sistemas de seguimiento ocular y autorrefractores. El software de análisis que permite el análisis sincronizado del movimiento ocular y las respuestas acomodativas proporciona a los investigadores de la visión y a los médicos un entorno reproducible y una herramienta que se puede compartir. El Programa de Análisis del Movimiento Ocular (VEMAP) del Laboratorio de Visión e Ingeniería Neural (VNEL) se estableció para procesar las grabaciones producidas por los rastreadores oculares de VE2020, mientras que el Programa de Análisis de Movimiento Acomodativo (AMAP) se creó para procesar las salidas de grabación del sistema autorrefractor correspondiente. El VNEL estudia tres estímulos primarios: acomodación (cambios borrosos en la convexidad de la lente intraocular), vergencia (hacia adentro, rotación convergente y hacia afuera, rotación divergente de los ojos) y sacadas (movimientos oculares conjugados). VEMAP y AMAP utilizan procesos de flujo de datos similares, interacciones manuales del operador e intervenciones cuando sea necesario; Sin embargo, estas plataformas de análisis avanzan en el establecimiento de un conjunto de software objetivo que minimiza la dependencia del operador. La utilidad de una interfaz gráfica y sus algoritmos correspondientes permiten llevar a cabo una amplia gama de experimentos visuales con la mínima experiencia previa de codificación requerida por su operador (s).

Introduction

La coordinación binocular concertada y las respuestas acomodativas y oculomotoras adecuadas a los estímulos visuales son aspectos cruciales de la vida diaria. Cuando un individuo tiene una velocidad de respuesta de movimiento ocular de convergencia reducida, cuantificada a través del registro del movimiento ocular, se puede percibir visión doble (diplopía) 1,2. Además, un metanálisis de la literatura Cochrane informó que los pacientes con disfunciones oculomotoras, que intentan mantener una visión binocular normal, experimentan síntomas visuales comúnmente compartidos, incluyendo visión borrosa / doble, dolores de cabeza, estrés / tensión ocular y dificultad para leer cómodamente3. Los movimientos oculares conjugados rápidos (sacadas), cuando son deficientes, pueden responder de manera insuficiente o excesiva a los objetivos visuales, lo que significa que se requieren más sacadas secuenciales para corregir este error4. Estas respuestas oculomotoras también pueden ser confundidas por el sistema acomodativo, en el que el enfoque incorrecto de la luz de la lente crea desenfoque5.

Tareas como leer o trabajar en dispositivos electrónicos exigen la coordinación de los sistemas oculomotor y acomodativo. Para las personas con movimiento ocular binocular o disfunciones acomodativas, la incapacidad de mantener la visión binocular (única) y aguda (clara) disminuye su calidad de vida y productividad general. Al establecer una metodología de procedimiento para registrar cuantitativamente estos sistemas de forma independiente y concertada a través de configuraciones de instrumentación repetibles y análisis objetivos, se pueden comprender las características distintivas sobre la aclimatación a deficiencias específicas. Las mediciones cuantitativas de los movimientos oculares pueden conducir a diagnósticos más completos6 en comparación con los métodos convencionales, con el potencial de predecir la probabilidad de remediación a través de intervenciones terapéuticas. Este conjunto de instrumentación y análisis de datos proporciona información para comprender los mecanismos detrás de los estándares actuales de atención, como la terapia visual, y el efecto a largo plazo que las intervenciones terapéuticas pueden tener en los pacientes. El establecimiento de estas diferencias cuantitativas entre individuos con y sin visión binocular normal puede proporcionar nuevas estrategias terapéuticas personalizadas y aumentar la efectividad de la remediación basada en mediciones objetivas de resultados.

Hasta la fecha, no existe una sola plataforma disponible comercialmente que pueda estimular y registrar cuantitativamente simultáneamente los datos de movimiento ocular con las correspondientes respuestas acomodativas de posición y velocidad que puedan procesarse posteriormente como flujos de datos separados (movimiento ocular y acomodativo). Los análisis de procesamiento de señales para las respuestas posicionales y de velocidad acomodativas y oculomotoras han establecido, respectivamente, requisitos mínimos de muestreo de aproximadamente 10 Hz7 y una frecuencia de muestreo sugerida entre 240 Hz y 250 Hz para los movimientos oculares sacádicos 8,9. Sin embargo, la tasa de Nyquist para los movimientos oculares de vergencia aún no se ha establecido, aunque la vergencia es aproximadamente un orden de magnitud menor en velocidad máxima que los movimientos oculares sacádicos. No obstante, existe una brecha en la literatura actual con respecto a la grabación del movimiento ocular y la integración de la plataforma de instrumentación autorrefractiva. Además, la capacidad de analizar las respuestas objetivas del movimiento ocular con respuestas de acomodación sincrónicas aún no ha sido de código abierto. Por lo tanto, el Laboratorio de Visión e Ingeniería Neural (VNEL) abordó la necesidad de instrumentación y análisis sincronizados a través de la creación de VE2020 y dos conjuntos de programas de procesamiento de señales fuera de línea para analizar los movimientos oculares y las respuestas acomodativas. VE2020 se puede personalizar a través de procedimientos de calibración y protocolos de estimulación para adaptarse a una variedad de aplicaciones, desde la ciencia básica hasta la clínica, incluidos los proyectos de investigación de visión binocular sobre insuficiencia / exceso de convergencia, insuficiencia / exceso de divergencia, insuficiencia / exceso acomodativo, disfunciones binoculares relacionadas con conmociones cerebrales, estrabismo, ambliopía y nistagmo. VE2020 se complementa con VEMAP y AMAP, que posteriormente proporcionan capacidades de análisis de datos para estos ojos estimulados y movimientos acomodativos.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

El estudio, para el cual se creó e implementó con éxito este conjunto de instrumentación y análisis de datos, fue aprobado por la Junta de Revisión de Instituciones del Instituto de Tecnología de Nueva Jersey HHS FWA 00003246 Approval F182-13 y aprobado como un ensayo clínico aleatorizado publicado en ClinicalTrials.gov Identificador: NCT03593031 financiado a través de NIH EY023261. Todos los participantes leyeron y firmaron un formulario de consentimiento informado aprobado por la Junta de Revisión Institucional de la universidad.

1. Configuración de la instrumentación

  1. Supervisión de las conexiones y el hardware
    1. El sistema VE2020 asigna los monitores espacialmente en el sentido de las agujas del reloj. Compruebe que el monitor de control primario está indexado como 0 y que todos los monitores sucesivos están indexados a partir de 1. Asegúrese de que todos los monitores sean administrados por una sola computadora (consulte la Tabla de materiales).
    2. Asegurar la correcta configuración espacial de los monitores de estímulo. En la pantalla de inicio del escritorio del mando, haga clic con el botón derecho en el monitor del mando, seleccione Configuración de pantalla y navegue hasta Resolución de pantalla. Seleccione Identificar; esto proporcionará una visualización de los índices de monitor asignados para cada pantalla de estímulo conectada a la computadora de control (Figura 1).
  2. Configuración del equipo físico
    1. Asegúrese de que el sistema de seguimiento ocular esté en la línea media óptica con una distancia mínima de la cámara de 38 cm. Compruebe que el sistema autorrefractor está en la línea media óptica y a 1 m ± 0,05 m de los ojos.
    2. Valide la configuración del hardware y el equipo haciendo referencia a las dimensiones de la figura 1.
  3. Sistema de seguimiento ocular
    1. Asegúrese de que el escritorio y el hardware de seguimiento ocular correspondiente estén configurados y calibrados de acuerdo con las instrucciones del fabricante (consulte la Tabla de materiales).
    2. Establezca el cableado del cable BNC desde las salidas analógicas del escritorio a la placa de adquisición de datos (DAQ) a través de una caja de terminales de conexión analógica (NI 2090A). Consulte la Tabla 1 para conocer las configuraciones de puerto BNC predeterminadas para VE2020.
      NOTA: Las desviaciones del cableado predeterminado requieren la modificación de los puertos asignados descritos en los archivos Acquire.vi y/o TriggerListen.vi o la edición del orden de encabezado predeterminado en el archivo .txt estándar.
    3. Configure los interruptores de referencia de la caja de conexión de terminales analógicos identificando el interruptor de extremo único/diferencial (SE/DIFF) (consulte la figura 2) y establezca el conmutador en SE. Luego, identifique el interruptor de selección de tierra (RSE/NRSE) (consulte la figura 2) y establezca la referencia de tierra en un solo extremo (RSE) referenciado.
  4. Adquisición de respuesta acomodativa
    1. Realice la orientación del autorrefractor (consulte la Tabla de materiales) según las recomendaciones del fabricante. Configure el autorrefractor en alineación directa y realice la activación manual basada en el operador del autorrefractor para almacenar los datos de grabación del autorrefractor.
    2. Asegúrese de que se utiliza un dispositivo de almacenamiento extraíble externo para guardar los datos del autorrefractor. Extraiga la unidad externa antes de iniciar el software autorrefractor y vuelva a insertar la unidad una vez que el software se esté ejecutando. Cree un directorio de carpetas dentro del dispositivo de almacenamiento correspondiente para identificar los perfiles de los participantes, los tiempos de sesión y los estímulos. Siga esta práctica para cada sesión de grabación experimental.
    3. Después de la activación del software autorrefractor y la inserción de un dispositivo de almacenamiento externo, comience la calibración del autorrefractor.
    4. Ocluir monocularmente el ojo izquierdo del participante con un filtro de transmisión infrarroja (IR Tx Filter)10. Coloque una lente de prueba de esfera convexa delante del filtro IR Tx (consulte la Tabla de materiales).
    5. Presentan binocularmente un estímulo de alta agudeza de 4° de los monitores de estímulo físicamente cercanos.
      NOTA: Una vez que el participante informa el estímulo como visualmente único y claro (agudo), el participante debe utilizar el gatillo de mano para progresar con la calibración.
    6. Presentan binocularmente un estímulo de alta agudeza de 16° de los monitores de estímulo físicamente cercanos.
      NOTA: Una vez que el participante informa el estímulo como visualmente único y claro (agudo), el participante debe utilizar el gatillo de mano para progresar.
    7. Repita estos procedimientos de calibración (pasos 1.4.4-1.4.6) para cada lente de esfera convexa de la siguiente manera (en dioptrías): −4, −3, −2, −1, +1, +2, +3 y +4.

Figure 1
Figura 1: Configuración del equipo de control y registro del haploscopio. Ejemplo de la indexación de pantalla del VE2020 para el orden y dimensionamiento de monitores en el sentido de las agujas del reloj. Aquí, 1 es el monitor de control, 2 es el monitor de pantalla cercano a la izquierda, 3 es el monitor de pantalla del extremo izquierdo, 6 es la placa de calibración (CalBoard), 4 es el monitor de pantalla del extremo derecho y 5 es el monitor de pantalla cercano a la derecha. Haga clic aquí para ver una versión más grande de esta figura.

Tabla 1: Mapa de puertos BNC. La convención para conexiones BNC. Haga clic aquí para descargar esta tabla.

Figure 2
Figura 2: Referencias del interruptor de caja de conexión. Demostración de las posiciones adecuadas de los interruptores NI 2090A. Haga clic aquí para ver una versión más grande de esta figura.

2. Estimulación visual utilizando las pantallas visuales VE2020 y los objetivos LED VE2020

  1. Comience la calibración de las pantallas de estímulo VisualEyes2020.
    1. Abra el archivo de instrumento virtual (VI) denominado Pix2Deg2020.vi. Seleccione el monitor que desea calibrar utilizando el campo de entrada ID de modo de estiramiento y el índice de visualización correspondiente del monitor (Figura 3).
    2. Seleccione una imagen de estímulo (por ejemplo, RedLine.bmp) escribiendo el nombre del archivo de estímulo en el campo de entrada de línea.
      Nota: Es importante tener en cuenta que Pix2Deg2020.vi utiliza archivos .bmp, no archivos .dds.
    3. Ejecute Pix2Deg2020.vi y ajuste la posición del estímulo hasta que se superponga a un objetivo físico medido.
    4. Una vez que la imagen virtual se alinee con el objetivo medido físicamente, registre el valor de píxeles en pantalla para el valor de grado dado. Registre un mínimo de tres puntos de calibración con diferentes demandas de grado estimulado y sus correspondientes valores de píxeles.
    5. Asegúrese de que después de registrar cada punto de calibración, VE2020 produzca un archivo de salida llamado Cals.xls. Utilizando los puntos de calibración en Cal.xls, aplique una regresión lineal de mejor ajuste para mapear las demandas de estímulo de movimiento ocular requeridas experimentalmente, en grados de rotación, en píxeles. En la Figura 4 se muestra un ejemplo de grado de cinco puntos para la calibración de píxeles registrados.
  2. Repita este procedimiento para diferentes imágenes de estímulo (es decir, el fondo o el segundo estímulo visual, según sea necesario) y cada monitor de estímulo que se espera utilizar.

Figure 3
Figura 3: Grados estimulados para monitorear píxeles. Representación de la vista del operador para calibrar el VE2020. De izquierda a derecha, se proporciona una tabla de valores para los píxeles grabados correspondientes a un valor de grado conocido para una selección de monitor de estímulo dada (ID de modo de estiramiento) con una relación de aspecto fija, nombre de archivo, estímulo de fondo (BG) y estímulo de primer plano (Línea). Haga clic aquí para ver una versión más grande de esta figura.

Figure 4
Figura 4: Pendientes de calibración píxel a grado. Curva de calibración monocular para valores de grado conocidos y valores de píxeles medidos. Haga clic aquí para ver una versión más grande de esta figura.

3. Calibración LED

  1. Determinar los grados experimentales de rotación utilizando identidades trigonométricas en los planos vertical u horizontal (Figura 5). Trazar los grados de rotación en función del número de LED.
  2. Realiza una regresión lineal del número de LED en función de los grados de rotación. Utilice la relación obtenida para calcular los números LED iniciales y finales, que se utilizarán como estímulos visuales durante el experimento.

Figure 5
Figura 5: Grados de rotación calculados. Método para calcular el desplazamiento angular tanto para los movimientos oculares sacádicos como para los movimientos de vergencia con una distancia conocida al objetivo (X) y la distancia interpupilar (IPD). Haga clic aquí para ver una versión más grande de esta figura.

4. Programación de software

  1. Defina el archivo de entrada de visualización de VisualEyes y guárdelo en la biblioteca de estímulos de la siguiente manera.
    1. Para definir cada estímulo, abra un nuevo archivo de texto (.txt) antes del experimento. En la primera fila de este archivo de texto, confirme la presencia de cuatro parámetros delimitados por tabulaciones requeridos: tiempo (s) de estímulo; Posición X (píxeles); Posición Y (píxeles); y rotación (grados). Además, confirme la presencia de dos parámetros sucesivos opcionales: escala X (escala horizontal); y escalado Y (escala vertical).
    2. Calcule el valor de píxel para cada grado de estímulo deseado utilizando la ecuación de regresión lineal derivada de la calibración (consulte el paso 2.1.5).
    3. Confirme dentro de la siguiente fila del archivo de texto que la(s) longitud(es) para la(s) cual(es) se presenta el estímulo en su posición inicial y posterior posición final están presentes y delimitadas por tabuladores.
    4. Guarde el archivo de estímulo en el directorio como un archivo de entrada de VisualEyes (VEI) con un nombre de archivo informativo (por ejemplo, stimulus_name_movement_size.vei).
      NOTA: Cada archivo de estímulo se coloca monocularmente, por lo que se debe generar un archivo separado para que el ojo complementario evoque un movimiento binocular.
  2. Repita estos procedimientos para cada estímulo experimental deseado, tipo de movimiento respectivo, magnitud de movimiento y ojo, según corresponda.

5. Archivos DC

  1. Cree una biblioteca de estímulos para cada monitor de estímulo. Asigne a estas bibliotecas el nombre dc_1.txt a través dc_7.txt. Para conocer la configuración contenida en los archivos dc_1.txt y dc_2.txt, consulte la Tabla 2.
    1. Valide el ID numérico de cada monitor de estímulo haciendo clic en Mostrar > resolución de pantalla > identificar. Asegúrese de que el ID del dispositivo sea la GPU principal (índice inicial 0) y que el modo de ventana sea 1.
    2. Compruebe que la izquierda define el límite izquierdo de la pantalla (en píxeles), la parte superior define el límite superior de la pantalla (en píxeles), el ancho es el ancho longitudinal de la pantalla (en píxeles) y la altura es la altura vertical de la pantalla (en píxeles).
    3. Establezca el número de estímulo (Stim#), que asocia el nombre y la ubicación del archivo de estímulo (.dds) y, siempre que el archivo nostimulus.vei sea el número de estímulo cero, los asocia a un número de índice de estímulo. Para el siguiente stimulus_name.vei, enumere los diversos archivos de estímulo que se pueden utilizar dentro de la sesión experimental.
      NOTA: El archivo nostimulus.vei es beneficioso cuando se utiliza ExpTrial ya que nostimulus.vei no presenta un estímulo (pantalla en blanco).

Tabla 2: Configuración del archivo DC. La tabla proporciona una descripción general del formato de archivo de texto DC. Haga clic aquí para descargar esta tabla.

6. Definición de archivo de entrada LED y almacenamiento de la biblioteca de estímulos

  1. Abra un nuevo archivo de texto (.txt) y, dentro del archivo, utilice la delimitación de tabulaciones. Termine cada línea dentro del archivo de texto con dos ceros delimitados por tabulaciones.
  2. En la primera fila, defina los valores iniciales de tiempo (s) y LED (posición). En la segunda fila, defina el tiempo final (s) y los valores finales de posición del LED. Guarde el archivo stimulus_name.vei en el directorio y repita estos pasos para todos los estímulos.
  3. Una vez completado, guarde todos los archivos de estímulo en la biblioteca de estímulos, array_config.txt.
  4. Asegúrese de que la primera fila del archivo array_config.txt es el puerto de comunicación (COM) que VisualEyes utiliza para comunicarse con el estimulador visual flexible con el valor de entrada predeterminado COM1; la segunda fila es la velocidad en baudios con el valor de entrada predeterminado como 9.600; la tercera fila es la capacidad de bits de datos con el valor de entrada predeterminado como 8 bits; y la cuarta fila es el índice de paridad de datos con el valor de entrada predeterminado como 0. Las filas siguientes del archivo contienen el archivo de estímulo del estimulador visual flexible (Figura 6).
  5. Verifique el número de perfil, como se ve en la Figura 6; Esto se refiere al índice de fila correspondiente de cualquier nombre de archivo de estímulo dado, que comienza en el índice cero.

Figure 6
Figura 6: Biblioteca de estímulos. Utilizando software de edición de texto, el formato que se muestra para identificar las comunicaciones del puerto, la velocidad en baudios, el tamaño de los datos y la paridad, así como la biblioteca de archivos de estímulo (.vei), proporciona al VE2020 las configuraciones necesarias y los nombres de archivo de estímulo para ejecutarse con éxito. Haga clic aquí para ver una versión más grande de esta figura.

7. Creación de scripts para protocolos experimentales

  1. Abra un nuevo archivo de texto (.txt) para crear scripts de los comandos de protocolo experimental para que VE2020 los lea y ejecute. Compruebe la sintaxis adecuada para los comandos y la documentación del protocolo experimental. La Tabla 3 proporciona una descripción general de las convenciones de sintaxis de VE2020.
    NOTA: VE2020 leerá estos comandos secuencialmente.
  2. Guarde el archivo de texto en el directorio como un script VisualEyes (VES), como script_name.ves. Del manual11 de la versión anterior de VisualEyes, busque una tabla de funciones de software que tengan capacidades de entrada y salida. En el cuadro 3 se muestran tres funciones actualizadas recientemente implementadas.

Tabla 3: Sintaxis de la función VE2020. VE2020 tiene una sintaxis específica, como se muestra en la tabla para llamar a funciones incrustadas y comentar. Haga clic aquí para descargar esta tabla.

8. Preparación de los participantes e iniciación del experimento

  1. Obtención del consentimiento y elegibilidad
    1. Utilice los siguientes criterios generales de elegibilidad del participante: de 18 a 35 años, agudeza visual monocular corregida de 20/25 (o más), agudeza estéreo de 500 s (o mejor) de arco y 2 semanas (o más) de utilización de la corrección refractiva adecuada.
    2. Utilice los siguientes criterios de elegibilidad de los participantes de insuficiencia de convergencia (IC) siguiendo las prácticas establecidas12: Encuesta de síntomas de insuficiencia de convergencia (CISS)13 puntuación de 21 o mayor, fracaso del criterio de Sheard 14, 6 cm (o más, en la ruptura) cerca del punto de convergencia (NPC) y exodesviación de 4Δ (o mayor) (cerca en comparación con lejos).
    3. Utilice los siguientes criterios de elegibilidad del participante de control: puntuación CISS inferior a 21, diferencia inferior a 6Δ entre foria cercana y lejana, NPC inferior a 6 cm (en el descanso), aprobación del criterio de Sheard y amplitud mínima suficiente de acomodación según lo definido por la fórmula15 de Hofstetter.
    4. Utilice los siguientes criterios generales de inelegibilidad del participante: estrabismo constante, estrabismo previo o cirugía refractiva, nistagmo latente o manifestado, encefalopatía, enfermedades que afectan la motilidad acomodativa, vergencia u ocular, heteroforia vertical 2Δ (o mayor) e incapacidad para realizar o comprender pruebas relacionadas con el estudio. Los criterios de inelegibilidad de IC incluyen además a los participantes con menos de 5 dioptrías en respuestas acomodativas a través del método push-up de Donder16.
    5. Una vez que se adquiere el consentimiento informado, indique al participante que se siente en el haploscopio.
    6. Coloque la frente y la barbilla del participante contra un reposacabezas fijo para minimizar el movimiento de la cabeza y ajuste la altura de la silla del participante para que el cuello del participante esté en una posición cómoda durante toda la duración del experimento.
    7. Ajuste la(s) cámara(s) de grabación del movimiento ocular para asegurarse de que los ojos del participante sean capturados dentro del campo de visión de la cámara.
  2. Después de estar sentado correctamente en el haploscopio y el rastreador ocular / autorrefractor, pídale al participante que se fije visualmente en un objetivo presentado visualmente. Durante esta configuración, asegúrese de que los ojos del participante estén centrados para que los objetivos visuales se presenten en el plano sagital medio.
    1. Lograr el centrado ocular al tener objetivos de alta agudeza presentados binocularmente en la línea media visual. El participante está alineado en la línea media visual cuando se produce diplopía fisiológica (visión doble) centrada alrededor del objetivo de fijación.
  3. Luego, ajuste la activación de seguimiento ocular y las ganancias de señal de seguimiento ocular para capturar características anatómicas como el limbo (el límite entre el iris y la esclerótica), la pupila y la reflexión corneal.
  4. Valide la captura de los datos del movimiento ocular pidiéndole al participante que realice movimientos repetidos de vergencia y/o sacádicos.
  5. Después de la validación preliminar y las calibraciones físicas del monitor, abra ReadScript.vi. Una vez que ReadScript.vi haya abierto, seleccione el script de protocolo experimental escribiendo el nombre del archivo en la esquina superior izquierda. Ejecute el protocolo a través de ReadScript.vi presionando la flecha blanca en la esquina superior izquierda para ejecutar Acquire.vi.
  6. Proporcione al participante un botón de disparo de mano y explique que cuando se presiona el gatillo, comenzará la recopilación de datos. Aparecerá automáticamente un archivo en la pantalla del monitor de control, Acquire.vi, que traza una vista previa de los datos de movimiento ocular grabados. Cuando se completa el protocolo experimental, ReadScript.vi se detiene automáticamente y los archivos de salida de datos se generan y almacenan automáticamente.

9. Programa de análisis del movimiento ocular VNEL (VEMAP)

  1. Preprocesamiento de datos
    1. Comience el análisis seleccionando el botón Preprocesar datos . Aparecerá una ventana del explorador de archivos. Seleccione uno o varios archivos de datos grabados de VE2020 para el preprocesamiento.
    2. Filtre los datos con un filtro Butterworth de 20 órdenes: 40 Hz para movimientos oculares de vergencia y 120 Hz o 250Hz para movimientos oculares sacádicos. Los archivos de datos preprocesados completados se almacenarán dentro de la carpeta VEMAP Preprocessed como archivos .mat.
      NOTA: La frecuencia de filtrado para VEMAP se puede ajustar a la frecuencia de corte preferida del usuario, dependiendo de la aplicación.
  2. Calibración
    1. Utilizando los tres movimientos de calibración monocular estimulados respectivamente para las posiciones del ojo izquierdo y derecho evocados por el script VE2020, cree una regresión lineal de los estímulos del movimiento ocular en grados en función de los valores de voltaje registrados. Como se muestra en los gráficos inferiores de la Figura 7, utilice los respectivos coeficientes de correlación de Pearson y fórmulas de regresión para la evaluación cuantitativa del ajuste.
    2. Utilice la pendiente de cada regresión como la ganancia de calibración monocular respectiva para convertir los voltajes registrados (sin procesar) a grados (calibrados).
    3. Identificar a partir de las calibraciones experimentales un valor de ganancia apropiado para las respuestas de movimiento del ojo izquierdo y derecho. Aplique consistentemente la ganancia de calibración a cada sección de estímulo de movimiento ocular registrada. Después de la calibración de todas las subsecciones de movimiento, aparecerá una ventana de confirmación.
      NOTA: Las calibraciones del movimiento ocular monocular se eligen debido a la incapacidad potencial de los pacientes con insuficiencia de convergencia, la disfunción motora ocular primaria investigada por nuestro laboratorio, para percibir una calibración binocular como una sola percepción. Si las señales de calibración registradas están saturadas o no están correlacionadas linealmente (debido a no atender el estímulo, parpadeo, movimientos sacádicos, lagrimeo ocular o cierre de los ojos), aplique ganancias de calibración estandarizadas para las respuestas de movimiento del ojo izquierdo y derecho. Esto debe hacerse con moderación, y estos valores de ganancia de calibración deben derivarse de promedios a nivel de grupo grandes de participantes anteriores para las ganancias de respuesta al movimiento ocular izquierdo y derecho, respectivamente.
  3. Clasificación
    1. Después de la calibración, inspeccione cada respuesta de movimiento ocular manualmente y clasifique utilizando una variedad de etiquetas de clasificación, como parpadeo transitorio, simétrico, asimétrico, pérdida de fusión, sin movimiento (sin respuesta) y movimiento ocular saturado.
    2. Consulte la figura 8 como referencia. La gráfica superior (datos posicionales) es la respuesta de un estímulo de paso de vergencia simétrico de 4°. El movimiento de convergencia combinado se muestra en verde, el movimiento del ojo derecho se muestra en rojo. y el movimiento del ojo izquierdo se muestra en azul. El seguimiento de la versión se muestra en negro. La gráfica inferior muestra la velocidad de la primera derivada de la respuesta de posición del movimiento del ojo, con el mismo patrón de color descrito anteriormente.
  4. Análisis de datos
    1. Realice el paso final en el flujo de datos de procesamiento de VEMAP del análisis de datos, al que se puede acceder dentro de la interfaz de usuario (UI) de VEMAP como un botón y se muestra en la Figura 9. Trazar los movimientos oculares dentro de un tipo de estímulo particular y la etiqueta de clasificación juntos como un gráfico de conjunto, como se muestra en el lado derecho de la Figura 9.
    2. Analice selectivamente los subconjuntos de movimientos oculares a través de sus etiquetas de clasificación o de forma holística sin ningún filtro de clasificación aplicado a través del botón Elegir clases.
    3. Compruebe que las métricas principales del movimiento ocular corresponden a cada movimiento ocular registrado, como la latencia, la velocidad máxima, la amplitud de respuesta y la amplitud final.
    4. Inspeccione cada respuesta de movimiento ocular para asegurarse de que cada métrica registrada sea válida. Si una métrica no parece apropiada, vuelva a medir las métricas registradas en consecuencia hasta que los valores apropiados reflejen con precisión cada movimiento. Además, omita los movimientos oculares o reclasifique sus etiquetas de clasificación proporcionadas a través del botón Reclasificar si las métricas registradas no pueden describir adecuadamente el movimiento ocular registrado.

Figure 7
Figura 7: Calibración monocular y pendientes de correlación. Un ejemplo de la calibración de los datos de movimiento ocular desde los valores de voltaje hasta los grados de rotación. Haga clic aquí para ver una versión más grande de esta figura.

Figure 8
Figura 8: Clasificación del software de movimiento ocular. Clasificación de las respuestas de movimiento ocular estimulado. Haga clic aquí para ver una versión más grande de esta figura.

Figure 9
Figura 9: Análisis del software de respuesta al movimiento ocular. Un ejemplo de respuestas de convergencia trazadas estimuladas por un cambio de paso simétrico de 4° (derecha), con métricas individuales de respuesta al movimiento ocular presentadas tabularmente (izquierda) y estadísticas a nivel de grupo mostradas tabularmente debajo de las métricas de respuesta. Haga clic aquí para ver una versión más grande de esta figura.

10. Programa de Análisis Acomodativo del Movimiento (AMAP)

  1. Configuración de datos
    1. Utilizando el dispositivo de almacenamiento externo que contiene los datos del autorrefractor, exporte los datos a un dispositivo con el AMAP instalado. El AMAP está disponible como un ejecutable independiente, así como una aplicación local a través de la instalación de la aplicación MATLAB.
  2. Inicie la aplicación AMAP. En el AMAP, seleccione Preprocesador de archivos o Preprocesador por lotes. El preprocesador de archivos procesa una carpeta de datos individual, mientras que el preprocesador por lotes procesa un directorio de carpetas de datos seleccionado.
  3. Verifique la barra de progreso y las notificaciones del AMAP, ya que el sistema las proporciona cuando los datos seleccionados han sido preprocesados. Los directorios de carpetas se generan a partir del preprocesamiento del AMAP para la transparencia y accesibilidad del procesamiento de datos a través de la unidad local de la computadora bajo AMAP_Output.
  4. Si se selecciona una característica AMAP sin procesamiento previo de datos, busque una ventana del explorador de archivos que aparezca para que el usuario seleccione un directorio de datos.
  5. Realice el análisis de datos AMAP como se describe a continuación.
    1. Después del preprocesamiento, seleccione un archivo de datos para analizar mediante el botón Cargar datos . Esto cargará los archivos disponibles en el directorio de archivos actual predeterminado en una carpeta AMAP_Output generada. El nombre de archivo de datos seleccionado se mostrará en el campo de archivo actual.
    2. En el selector de ojos, compruebe la selección por defecto, que presenta datos promediados binocularmente para la refracción acomodativa registrada.
    3. Cambie el tipo de datos entre la refracción acomodativa y la vergencia oculomotora (mirada) a través del selector de tipos. Consulte las adaptaciones gráficas adicionales disponibles para presentar las métricas de datos y las caracterizaciones de primer y segundo orden. Consulte la figura 10 para ver las combinaciones de opciones gráficas que se pueden seleccionar para que el operador las visualice.
    4. Compruebe las métricas predeterminadas para el AMAP, que son las siguientes: velocidad máxima (grados/s); amplitud de respuesta (grados); amplitud final (grados); índice (s) inicial(es) de respuesta(s); índice (s) de velocidad máxima(s); índice (s) final(es) de respuesta; velocidad de la mirada (vergencia) (grados/s); amplitud de respuesta de la mirada (grados); amplitud final de la mirada (grados); índice (s) inicial(es) de respuesta de la mirada; índice de velocidad de la mirada (s); índice (s) final(es) de respuesta de la mirada; y clasificación (binario 0 - malo, 1 - bueno).
    5. Realice modificaciones en el índice inicial de respuesta, el índice final de respuesta y el índice de velocidad máxima a través de los giradores de modificación métrica (Figura 10).
    6. Después del análisis de todos los movimientos registrados mostrados, guarde las métricas analizadas para cada archivo de datos en el campo ID de movimiento o mediante las flechas de navegación hacia la izquierda y hacia la derecha.
    7. Seleccione el botón Guardar para exportar los datos analizados a una hoja de cálculo accesible. Los movimientos no analizados tienen una clasificación predeterminada de no-un-número (NaN) y no se guardan ni exportan.
    8. Realice una clasificación manual (buena/mala) para cada movimiento para garantizar un análisis completo por parte de cualquier operador.

Figure 10
Figura 10: Interfaz del software AMAP. La figura muestra la interfaz de usuario principal para el AMAP con secciones resaltadas para la presentación gráfica (opciones gráficas) de datos y análisis de datos (modificaciones métricas). Haga clic aquí para ver una versión más grande de esta figura.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Los gráficos de conjunto a nivel de grupo de movimientos oculares estimulados evocados por VE2020 se representan en la Figura 11 con las correspondientes características de velocidad de primer orden.

Figure 11
Figura 11: Conjuntos de respuesta al movimiento ocular. Se muestran los diagramas de conjunto de pasos de vergencia (izquierda) y sacadas (derecha) estimulados con el VE2020. Cada traza de posición de movimiento ocular (grados) se traza como una línea de color único y se superpone con la respuesta de velocidad a nivel de grupo en rojo. Haga clic aquí para ver una versión más grande de esta figura.

Las características exportadas desde AMAP permiten la visualización de los gráficos de movimiento a nivel de participante y de grupo (conjuntos) y las métricas correspondientes (exportación) en una hoja de cálculo accesible (Tabla 4). Las tablas de datos exportados proporcionan una visión general cuantitativa del rendimiento de los participantes y pueden establecer criterios para la eliminación de valores atípicos.

Tabla 4: Exportación de análisis de software AMAP. Un ejemplo de la función de exportación AMAP, en la que las respuestas individuales del movimiento ocular se exportan en fila con la correspondiente identificación del sujeto y el tipo de movimiento. Haga clic aquí para descargar esta tabla.

La visualización de las actuaciones de los participantes también se puede lograr dentro del AMAP, como se muestra en la Figura 12, que muestra un conjunto de respuestas convergentes de 5° y las correspondientes respuestas acomodativas de 1,5 dioptrías que son el resultado del procesamiento de datos.

Figure 12
Figura 12: Conjuntos de respuesta al movimiento acomodativo. La figura muestra la función de conjunto AMAP, que crea superposiciones de cada traza de respuesta de movimiento individual (gris) y la respuesta promedio (verde). Haga clic aquí para ver una versión más grande de esta figura.

La Figura 11 y la Figura 12 demuestran la estimulación y el registro exitosos de los movimientos oculares de vergencia y sacádicos, así como las respuestas acomodativas. Siempre que los procedimientos de calibración del VEMAP proporcionen los objetivos sacádicos esperados de 4° de vergencia y 5°, la Figura 11 muestra que para un participante binocularmente normal que se somete a estas tareas visuales, se cumple la estimulación anticipada. Para las respuestas acomodativas procesadas dentro del AMAP, la Figura 12 demuestra una respuesta acomodativa aproximada de 1 dioptría con una demanda acomodativa de 1,5 dioptrías, lo que es consistente con la variabilidad de los sistemas autorrefractores para diferentes datos demográficos de los participantes17. Estos resultados se pueden calibrar aún más, utilizando una ganancia constante, siguiendo las estadísticas a nivel de grupo para varios grupos de participantes experimentales con la función de exportación que se ve en la Tabla 4. Por lo tanto, el establecimiento y la implementación exitosa de VE2020, VEMAP y AMAP pueden proporcionar una comprensión cuantitativa de las diferencias en el movimiento ocular estimulado y las métricas de respuesta acomodativa.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Aplicaciones del método en investigación
Las innovaciones del software inicial VisualEyes2020 (VE2020) incluyen la expansibilidad del VE2020 para proyectarse en múltiples monitores con uno o varios estímulos visuales, lo que permite la investigación de cuestiones científicas que van desde la cuantificación de los componentes Maddox de la vergencia18 hasta la influencia de los objetivos que distraen en los objetivos instruidos19. La expansión del sistema de haploscopio a VE2020 junto con el desarrollo complementario de VEMAP y AMAP proporcionan una plataforma autónoma de estímulo y análisis que es compatible con los equipos de grabación de movimiento ocular y alojamiento actualmente accesibles. Tras la creación exitosa de la rutina de estímulo VE2020 y el posterior registro, la conversión de datos de posición y acomodación de movimientos oculares sin procesar en subconjuntos de datos significativos y analizables permite a los investigadores con las herramientas no invasivas necesarias investigar holísticamente las disfunciones de la visión prevalentes y subyacentes, como la disfunción inducida por lesiones cerebrales traumáticas típicas o leves y la insuficiencia de convergencia. que puede compararse con la función en participantes control binocularmente normales 1,2,13,20. Proporcionar análisis del movimiento ocular con las correspondientes respuestas acomodativas mejora la comprensión científica de las interacciones desconocidas entre los sistemas vergence y acomodativo tanto en participantes sanos como en aquellos con disfunción oculomotora21.

Como se ha demostrado, con VE2020, el VEMAP y el AMAP configurados conjuntamente, los mecanismos de control neural subyacentes en la disfunción pueden entenderse mejor22,23. A través de la estimulación visual repetible de VE2020, las disfunciones neurológicas latentes que pueden tener biomarcadores tempranos expresados a través de respuestas acomodativas, de vergencia o de versión anormales ahora pueden ser evaluadas cuantitativamente por AMAP y VEMAP. Unificar el análisis de respuesta acomodativa con registros de movimiento ocular acoplado de experimentos de visión previamente aislados ayuda a los estudios a obtener resultados de análisis más completos y cuantificables. Los métodos objetivos de análisis y estimulación proporcionan la capacidad de comparar la eficacia de los estándares actuales de atención y sus resultados terapéuticos24,25. Estas cuantificaciones, junto con la encuesta subjetiva de los síntomas de los participantes, pueden ayudar a identificar estrategias de remediación personalizadas que mejoren los resultados. Además, mediante la evaluación de estos componentes principales que pueden evocar síntomas, se pueden establecer métodos tempranos para detectar lesiones26 y evaluaciones de gravedad con mayor eficacia.

Pasos críticos en el protocolo
Los movimientos oculares generalmente se miden por la magnitud de la rotación del ojo en grados. Como se ve en la Figura 5, la conversión trigonométrica del movimiento de traslación de un estímulo a grados requiere una distancia interpupilar conocida (IPD) y una distancia medida al objetivo. La utilización de promedios conocidos para el IPD puede proporcionar una aproximación generalizada para crear scripts para las secuencias de estímulo VE2020; sin embargo, estos se basan en calibraciones adecuadas. Las convenciones de signos para la dirección de los movimientos pueden ser alteradas; sin embargo, esto alterará la aplicación de los valores de ganancia para el VEMAP. Las convenciones de movimiento actuales de VEMAP son las siguientes para los movimientos sacádicos: hacia la derecha es positivo y hacia la izquierda es negativo. Además, para los movimientos de vergencia, la convergencia (rotación hacia adentro) es positiva, y la divergencia (rotación hacia afuera) es negativa.

Como se ve en la Figura 7, los objetivos de estímulo se colocaron en 1°, 3° y 5°, lo que representa una rotación angular monocular hacia adentro desde el infinito óptico. El gráfico inferior izquierdo muestra una regresión lineal de tres puntos para los datos posicionales del ojo izquierdo, donde para un estímulo de 5°, el voltaje promedio registrado fue de −1 V, para un estímulo de 3°, el voltaje promedio registrado fue de aproximadamente 0.4 V, y para un estímulo de 1°, el voltaje promedio registrado fue de aproximadamente 1.25 V. Del mismo modo, para la posición del ojo derecho en la gráfica inferior derecha, un estímulo de 1 ° tenía un voltaje correspondiente de −1.25 V, un estímulo de 3 ° tenía un voltaje promedio de aproximadamente 0 V y un estímulo de 5 ° tenía un voltaje promedio de 1.1 V.

Limitaciones del método
Las limitaciones actuales del método incluyen la salida estandarizada de los datos del autorrefractor y el rastreador ocular, ya que AMAP y VEMAP están programados para procesar estos formatos de datos. Otra limitación incluye el hecho de que si la experimentación no es atractiva, los participantes con frecuencia pueden parpadear (cerrar) los ojos, lo que lleva a una mala calidad de grabación de datos. Si bien otras disfunciones oculomotoras como el estrabismo, la ambliopía, el nistagmo y la supresión podrían aprovechar VE2020, el VEMAP y el AMAP, sería necesario implementar modificaciones para cada una de estas disfunciones oculomotoras específicas.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Los autores no tienen conflictos de intereses que declarar.

Acknowledgments

Esta investigación fue apoyada por la subvención R01EY023261 de los Institutos Nacionales de Salud a T.L.A. y una beca Barry Goldwater y un premio doctoral NJIT Provost a S.N.F.

Materials

Name Company Catalog Number Comments
Analog Terminal Breakout Box National Instruments 2090A
Convex-Sphere Trial Lens Set Reichert Portable Precision Lenses Utilized for autorefractor calibration
Graphics Cards - - Minimum performance requirement of GTX980 in SLI configuration
ISCAN Eye Tracker ISCAN ETL200
MATLAB MathWorks v2022a AMAP software rquirement
MATLAB MathWorks v2015a VEMAP software requirement
Microsoft Windows 10 Microsoft Windows 10 Required OS for VE2020
Plusoptix PowerRef3 Autorefractor Plusoptix PowerRef3
Stimuli Monitors (Quantity: 4+) Dell Resolution 1920x1080 Note all monitors should be the same model and brand to avoid resolution differences as well as physical configurations

DOWNLOAD MATERIALS LIST

References

  1. Alvarez, T. L., et al. Disparity vergence differences between typically occurring and concussion-related convergence insufficiency pediatric patients. Vision Research. 185, 58-67 (2021).
  2. Alvarez, T. L., et al. Underlying neurological mechanisms associated with symptomatic convergence insufficiency. Scientific Reports. 11, 6545 (2021).
  3. Scheiman, M., Kulp, M. T., Cotter, S. A., Lawrenson, J. G., Wang, L., Li, T. Interventions for convergence insufficiency: A network meta-analysis. The Cochrane Database of Systematic Reviews. 12 (12), (2020).
  4. Semmlow, J. L., Chen, Y. F., Granger-Donnetti, B., Alvarez, T. L. Correction of saccade-induced midline errors in responses to pure disparity vergence stimuli. Journal of Eye Movement Research. 2 (5), (2009).
  5. Scheiman, M., Wick, B. Clinical Management of Binocular Vision., 5th Edition. , Lippincott Williams & Wilkins. Philadelphia, USA. (2019).
  6. Kim, E. H., Vicci, V. R., Granger-Donetti, B., Alvarez, T. L. Short-term adaptations of the dynamic disparity vergence and phoria systems. Experimental Brain Research. 212 (2), 267-278 (2011).
  7. Labhishetty, V., Bobier, W. R., Lakshminarayanan, V. Is 25Hz enough to accurately measure a dynamic change in the ocular accommodation. Journal of Optometry. 12 (1), 22-29 (2019).
  8. Juhola, M., et al. Detection of saccadic eye movements using a non-recursive adaptive digital filter. Computer Methods and Programs in Biomedicine. 21 (2), 81-88 (1985).
  9. Mack, D. J., Belfanti, S., Schwarz, U. The effect of sampling rate and lowpass filters on saccades - A modeling approach. Behavior Research Methods. 49 (6), 2146-2162 (2017).
  10. Ghahghaei, S., Reed, O., Candy, T. R., Chandna, A. Calibration of the PlusOptix PowerRef 3 with change in viewing distance, adult age and refractive error. Ophthalmic & Physiological Optics. 39 (4), 253-259 (2019).
  11. Guo, Y., Kim, E. L., Alvarez, T. L. VisualEyes: A modular software system for oculomotor experimentation. Journal of Visualized Experiments. (49), e2530 (2011).
  12. Convergence Insufficiency Treatment Trial Study Group. Randomized clinical trial of treatments for symptomatic convergence insufficiency in children. Archives of Ophthalmology. 126 (10), 1336-1349 (2008).
  13. Borsting, E., et al. Association of symptoms and convergence and accommodative insufficiency in school-age children. Optometry. 74 (1), 25-34 (2003).
  14. Sheard, C. Zones of ocular comfort. American Journal of Optometry. 7 (1), 9-25 (1930).
  15. Hofstetter, H. W. A longitudinal study of amplitude changes in presbyopia. American Journal of Optometry and Archives of American Academy of Optometry. 42, 3-8 (1965).
  16. Donders, F. C. On the Anomalies of Accommodation and Refraction of the Eye. , Milford House Inc. Boston, MA. translated by Moore, W. D (1972).
  17. Sravani, N. G., Nilagiri, V. K., Bharadwaj, S. R. Photorefraction estimates of refractive power varies with the ethnic origin of human eyes. Scientific Reports. 5, 7976 (2015).
  18. Maddox, E. E. The Clinical Use of Prisms and the Decentering of Lenses. , John Wright and Co. London, UK. (1893).
  19. Yaramothu, C., Santos, E. M., Alvarez, T. L. Effects of visual distractors on vergence eye movements. Journal of Vision. 18 (6), 2 (2018).
  20. Borsting, E., Rouse, M. W., De Land, P. N. Prospective comparison of convergence insufficiency and normal binocular children on CIRS symptom surveys. Convergence Insufficiency and Reading Study (CIRS) group. Optometry and Vision Science. 76 (4), 221-228 (1999).
  21. Maxwell, J., Tong, J., Schor, C. The first and second order dynamics of accommodative convergence and disparity convergence. Vision Research. 50 (17), 1728-1739 (2010).
  22. Alvarez, T. L., et al. The Convergence Insufficiency Neuro-mechanism in Adult Population Study (CINAPS) randomized clinical trial: Design, methods, and clinical data. Ophthalmic Epidemiology. 27 (1), 52-72 (2020).
  23. Leigh, R. J., Zee, D. S. The Neurology of Eye Movements. , Oxford Academic Press. Oxford, UK. (2015).
  24. Alvarez, T. L., et al. Clinical and functional imaging changes induced from vision therapy in patients with convergence insufficiency. Annual International Conference of the IEEE Engineering in Medicine and Biology Society. 2019, 104-109 (2019).
  25. Scheiman, M. M., Talasan, H., Mitchell, G. L., Alvarez, T. L. Objective assessment of vergence after treatment of concussion-related CI: A pilot study. Optometry and Vision Science. 94 (1), 74-88 (2017).
  26. Yaramothu, C., Greenspan, L. D., Scheiman, M., Alvarez, T. L. Vergence endurance test: A pilot study for a concussion biomarker. Journal of Neurotrauma. 36 (14), 2200-2212 (2019).

Tags

Bioingeniería Número 193
Cuantificación de respuestas oculomotoras y acomodación a través de instrumentación y cajas de herramientas de análisis
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Fine, S. N., Guo, Y., Talasan, H.,More

Fine, S. N., Guo, Y., Talasan, H., LeStrange, S., Yaramothu, C., Alvarez, T. L. Quantification of Oculomotor Responses and Accommodation Through Instrumentation and Analysis Toolboxes. J. Vis. Exp. (193), e64808, doi:10.3791/64808 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter