Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Bioengineering

Quantifizierung okulomotorischer Reaktionen und Akkommodation durch Instrumentierung und Analyse-Toolboxen

Published: March 3, 2023 doi: 10.3791/64808

Summary

VisualEyes2020 (VE2020) ist eine benutzerdefinierte Skriptsprache, die visuelle Augenbewegungsreize darstellt, aufzeichnet und synchronisiert. VE2020 liefert Stimuli für konjugierte Augenbewegungen (Sakkaden und sanfte Verfolgung), diskonjugierte Augenbewegungen (Vergenz), Akkommodation und Kombinationen aus beidem. Zwei Analyseprogramme vereinheitlichen die Datenverarbeitung aus dem Eye-Tracking- und dem Unterkunftsaufzeichnungssystem.

Abstract

Durch die gezielte Stimulation und Aufzeichnung von Augenbewegungen können die grundlegenden Eigenschaften der zugrunde liegenden neuronalen Mechanismen von Augenbewegungen beobachtet werden. VisualEyes2020 (VE2020) wurde auf der Grundlage des Mangels an anpassbarer softwarebasierter visueller Stimulation für Forscher entwickelt, die nicht auf Motoren oder Aktuatoren innerhalb eines herkömmlichen Haploskops angewiesen ist. Dieses neue Instrument und diese neue Methodik wurden für eine neuartige Haploskopkonfiguration entwickelt, die sowohl Eye-Tracking- als auch Autorefraktorsysteme verwendet. Eine Analysesoftware, die die synchronisierte Analyse von Augenbewegungen und akkommodierenden Reaktionen ermöglicht, bietet Sehforschern und Klinikern eine reproduzierbare Umgebung und ein gemeinsam nutzbares Werkzeug. Das Eye Movement Analysis Program (VEMAP) des Vision and Neural Engineering Laboratory (VNEL) wurde eingerichtet, um Aufzeichnungen zu verarbeiten, die von den Eyetrackern von VE2020 erstellt wurden, während das Accommodative Movement Analysis Program (AMAP) erstellt wurde, um die Aufzeichnungsergebnisse des entsprechenden Autorefraktorsystems zu verarbeiten. Der VNEL untersucht drei primäre Stimuli: Akkommodation (unschärfebedingte Veränderungen in der Konvexität der Intraokularlinse), Vergenz (nach innen, konvergente Rotation und nach außen, divergente Rotation der Augen) und Sakkaden (konjugierte Augenbewegungen). VEMAP und AMAP verwenden ähnliche Datenflussprozesse, manuelle Bedienerinteraktionen und bei Bedarf Eingriffe. Diese Analyseplattformen fördern jedoch die Etablierung einer objektiven Software-Suite, die die Abhängigkeit der Bediener minimiert. Die Nützlichkeit einer grafischen Benutzeroberfläche und der entsprechenden Algorithmen ermöglicht es, eine breite Palette visueller Experimente mit minimalen Programmierkenntnissen der Bediener durchzuführen.

Introduction

Eine konzertierte binokulare Koordination und angemessene akkommodative und okulomotorische Reaktionen auf visuelle Reize sind entscheidende Aspekte des täglichen Lebens. Wenn ein Individuum eine reduzierte Konvergenz-Reaktionsgeschwindigkeit der Augenbewegungen aufweist, die durch die Aufzeichnung von Augenbewegungen quantifiziert wird, kann eine Doppelsichtigkeit (Diplopie) wahrgenommen werden 1,2. Darüber hinaus berichtete eine Metaanalyse der Cochrane-Literatur, dass Patienten mit okulomotorischen Dysfunktionen, die versuchen, ein normales binokulares Sehen aufrechtzuerhalten, häufig gemeinsame visuelle Symptome aufweisen, darunter verschwommenes/doppeltes Sehen, Kopfschmerzen, Augenstress/-belastung und Schwierigkeiten beim bequemen Lesen3. Schnelle konjugierte Augenbewegungen (Sakkaden) können, wenn sie mangelhaft sind, auf visuelle Ziele unter- oder überreagieren, was bedeutet, dass weitere aufeinanderfolgende Sakkaden erforderlich sind, um diesen Fehlerzu korrigieren 4. Diese okulomotorischen Reaktionen können auch durch das Akkommodationssystem verfälscht werden, bei dem die unsachgemäße Fokussierung des Lichts von der Linse zu Unschärfeführt 5.

Aufgaben wie das Lesen oder Arbeiten an elektronischen Geräten erfordern die Koordination des okulomotorischen und akkommodativen Systems. Bei Personen mit binokularen Augenbewegungen oder akkommodativen Funktionsstörungen verringert die Unfähigkeit, die binokulare Fusion (einfach) und das akute (klare) Sehen aufrechtzuerhalten, ihre Lebensqualität und ihre allgemeine Produktivität. Durch die Etablierung einer prozeduralen Methodik zur quantitativen Erfassung dieser Systeme unabhängig und konzertiert durch wiederholbare Instrumentierungskonfigurationen und objektive Analysen können Unterscheidungsmerkmale über die Akklimatisierung an spezifische Defizite verstanden werden. Quantitative Messungen von Augenbewegungen können im Vergleich zu konventionellen Methoden zu umfassenderen Diagnosen6 führen, mit dem Potenzial, die Wahrscheinlichkeit einer Heilung durch therapeutische Interventionen vorherzusagen. Diese Instrumentierungs- und Datenanalyse-Suite bietet Einblicke in das Verständnis der Mechanismen hinter den aktuellen Behandlungsstandards, wie z. B. der Sehtherapie, und der langfristigen Auswirkungen, die therapeutische Interventionen auf Patienten haben können. Die Feststellung dieser quantitativen Unterschiede zwischen Personen mit und ohne normales binokulares Sehen kann neue personalisierte therapeutische Strategien liefern und die Wirksamkeit der Abhilfe auf der Grundlage objektiver Ergebnismessungen erhöhen.

Bisher gibt es keine einzige kommerziell verfügbare Plattform, die gleichzeitig Augenbewegungsdaten mit entsprechenden akkommodativen Positions- und Geschwindigkeitsreaktionen stimulieren und quantitativ aufzeichnen kann, die als separate (Augenbewegungs- und Akkommodations-)Datenströme weiterverarbeitet werden können. Die Signalverarbeitungsanalysen für akkommodative und okulomotorische Positions- und Geschwindigkeitsreaktionen haben jeweils minimale Abtastanforderungen von ca. 10 Hz7 und eine empfohlene Abtastrate zwischen 240 Hz und 250 Hz für sakkadische Augenbewegungen ermittelt 8,9. Die Nyquist-Rate für Vergenz-Augenbewegungen muss jedoch noch ermittelt werden, obwohl die Vergenz in der Spitzengeschwindigkeit etwa eine Größenordnung niedriger ist als die sakkadischen Augenbewegungen. Nichtsdestotrotz gibt es eine Lücke in der aktuellen Literatur bezüglich der Aufzeichnung von Augenbewegungen und der Integration von autorefraktiven Instrumentenplattformen. Darüber hinaus ist die Möglichkeit, objektive Augenbewegungsreaktionen mit synchronen Akkommodationsreaktionen zu analysieren, noch nicht als Open Source verfügbar. Daher hat das Vision and Neural Engineering Laboratory (VNEL) den Bedarf an synchronisierter Instrumentierung und Analyse durch die Entwicklung von VE2020 und zwei Offline-Signalverarbeitungsprogrammen zur Analyse von Augenbewegungen und akkommodativen Reaktionen adressiert. VE2020 ist über Kalibrierungsverfahren und Stimulationsprotokolle anpassbar, um es an eine Vielzahl von Anwendungen von der Grundlagenforschung bis hin zur klinischen Anwendung anzupassen, einschließlich Forschungsprojekten zum binokularen Sehen zu Konvergenzinsuffizienz/-überschuss, Divergenzinsuffizienz/-überschuss, akkommodativer Insuffizienz/-überschuss, Gehirnerschütterungsbedingten binokularen Dysfunktionen, Schielen, Amblyopie und Nystagmus. VE2020 wird durch VEMAP und AMAP ergänzt, die anschließend Datenanalysefunktionen für diese stimulierten Augen und akkommodierenden Bewegungen bereitstellen.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Die Studie, für die diese Instrumentierungs- und Datenanalyse-Suite erstellt und erfolgreich implementiert wurde, wurde vom New Jersey Institute of Technology Institution Review Board HHS FWA 00003246 Approval F182-13 genehmigt und als randomisierte klinische Studie genehmigt, die auf ClinicalTrials.gov Identifier: NCT03593031 veröffentlicht und über NIH EY023261 finanziert wurde. Alle Teilnehmer lasen und unterschrieben eine Einverständniserklärung, die vom Institutional Review Board der Universität genehmigt wurde.

1. Einrichtung der Instrumentierung

  1. Überwachung der Verbindungen und Hardware
    1. Das VE2020-System ordnet die Monitore räumlich im Uhrzeigersinn zu. Stellen Sie sicher, dass der primäre Kontrollmonitor als 0 indiziert ist und dass alle nachfolgenden Monitore ab 1 indiziert sind. Stellen Sie sicher, dass alle Monitore von einem einzigen Computer verwaltet werden (siehe Materialtabelle).
    2. Stellen Sie sicher, dass die Stimulusmonitore räumlich richtig konfiguriert sind. Klicken Sie auf dem Startbildschirm des Controller-Desktops mit der rechten Maustaste auf den Controller-Monitor, wählen Sie die Anzeigeeinstellungen aus und navigieren Sie zur Bildschirmauflösung. Wählen Sie Identifizieren aus. Dadurch erhalten Sie eine Visualisierung der zugewiesenen Monitorindizes für jede an den Steuercomputer angeschlossene Stimulusanzeige (Abbildung 1).
  2. Konfiguration der physischen Ausrüstung
    1. Stellen Sie sicher, dass sich das Eye-Tracking-System auf der optischen Mittellinie mit einem minimalen Kameraabstand von 38 cm befindet. Vergewissern Sie sich, dass sich das Autorefraktorsystem auf der optischen Mittellinie und 1 m ± 0,05 m von den Augen entfernt befindet.
    2. Überprüfen Sie die Konfiguration der Hardware und Ausrüstung, indem Sie auf die Abmessungen in Abbildung 1 verweisen.
  3. Eye-Tracking-System
    1. Stellen Sie sicher, dass der Desktop und die entsprechende Eye-Tracking-Hardware gemäß den Anweisungen des Herstellers konfiguriert und kalibriert sind (siehe Materialtabelle).
    2. Richten Sie BNC-Kabelverdrahtungen von den analogen Ausgängen des Desktop-PCs zur Datenerfassungskarte über einen analogen Breakout-Klemmenkasten (NI 2090A) ein. In Tabelle 1 finden Sie die Standardkonfigurationen der BNC-Anschlüsse für VE2020.
      HINWEIS: Abweichungen von der Standardverdrahtung erfordern eine Änderung der zugewiesenen Ports, die in den Acquire.vi- und/oder TriggerListen.vi-Dateien beschrieben sind, oder eine Bearbeitung der Standard-Header-Reihenfolge in der Standard.txt Datei.
    3. Konfigurieren Sie die Referenzschalter der Breakout-Box für analoge Klemmen, indem Sie den Single-Ended/Differential-Schalter (SE/DIFF) identifizieren (siehe Abbildung 2), und stellen Sie den Schalter auf SE. Identifizieren Sie dann den Masseauswahlschalter (RSE/NRSE) (siehe Abbildung 2), und legen Sie die Massereferenz auf referenziertes Single-Ended (RSE) fest.
  4. Akkommodative Antworterfassung
    1. Führen Sie die Ausrichtung des Autorefraktors (siehe Materialtabelle) gemäß den Empfehlungen des Herstellers durch. Konfigurieren Sie den Autorefraktor in direkter Ausrichtung und führen Sie eine manuelle, bedienerbasierte Triggerung des Autorefraktors durch, um die Aufzeichnungsdaten des Autorefraktors zu speichern.
    2. Stellen Sie sicher, dass ein externer Wechseldatenträger zum Speichern der Autorefraktordaten verwendet wird. Entfernen Sie das externe Laufwerk, bevor Sie die Autorefraktor-Software starten, und setzen Sie das Laufwerk wieder ein, sobald die Software ausgeführt wird. Erstellen Sie ein Ordnerverzeichnis innerhalb des entsprechenden Speichergeräts, um die Teilnehmerprofile, Sitzungszeiten und Stimuli zu identifizieren. Befolgen Sie diese Übung für jede experimentelle Aufnahmesitzung.
    3. Beginnen Sie nach der Aktivierung der Autorefraktor-Software und dem Einsetzen eines externen Speichergeräts mit der Kalibrierung des Autorefraktors.
    4. Das linke Auge des Teilnehmers wird monokular mit einem Infrarot-Transmissionsfilter (IR-Tx-Filter) verschlossen10. Platzieren Sie eine Versuchslinse mit konvexer Kugel vor dem IR-Tx-Filter (siehe Materialtabelle).
    5. Binokular präsentieren sich ein hochakuter 4°-Stimulus von den physikalisch nahen Stimulusmonitoren.
      HINWEIS: Sobald der Teilnehmer den Stimulus als visuell einmalig und klar (akut) meldet, muss der Teilnehmer den Handauslöser verwenden, um mit der Kalibrierung fortzufahren.
    6. Binokular präsentieren sich ein hochakuter 16°-Stimulus von den physikalisch nahen Stimulusmonitoren.
      HINWEIS: Sobald der Teilnehmer den Stimulus als visuell einmalig und klar (akut) meldet, muss der Teilnehmer den Handauslöser verwenden, um fortzufahren.
    7. Wiederholen Sie diese Kalibrierungsvorgänge (Schritte 1.4.4-1.4.6) für jede konvexe Kugellinse wie folgt (in Dioptrien): −4, −3, −2, −1, +1, +2, +3 und +4.

Figure 1
Abbildung 1: Konfiguration der Haploscope-Steuerung und der Aufzeichnungsgeräte. Beispiel für die Display-Indizierung des VE2020 für die Anordnung und Bemaßung von Monitoren im Uhrzeigersinn. Hier ist 1 der Steuermonitor, 2 ist der Monitor in der Nähe der linken Seite, 3 ist der Monitor ganz links, 6 ist die Kalibrierungsplatine (CalBoard), 4 ist der Monitor ganz rechts und 5 ist der Monitor in der Nähe der rechten Seite. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Tabelle 1: BNC-Port-Karte. Die Konvention für BNC-Verbindungen. Bitte klicken Sie hier, um diese Tabelle herunterzuladen.

Figure 2
Abbildung 2: Breakout-Box-Switch-Referenzen. Demonstration der korrekten Schaltstellungen von NI 2090A. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

2. Visuelle Stimulation mit den visuellen Displays VE2020 und LED-Targets VE2020

  1. Beginnen Sie mit der Kalibrierung der VisualEyes2020-Stimulus-Displays.
    1. Öffnen Sie die Datei des virtuellen Instruments (VI) mit dem Namen Pix2Deg2020.vi. Wählen Sie den zu kalibrierenden Monitor aus, indem Sie das Eingabefeld für die Stretch-Modus-ID und den entsprechenden Anzeigeindex des Monitors verwenden (Abbildung 3).
    2. Wählen Sie ein Stimulusbild (z. B. RedLine.bmp) aus, indem Sie den Namen der Stimulusdatei in das Eingabefeld Linie eingeben.
      HINWEIS: Es ist wichtig zu beachten, dass Pix2Deg2020.vi .bmp Dateien verwendet, nicht .dds Dateien.
    3. Führen Sie Pix2Deg2020.vi aus und passen Sie die Stimulusposition an, bis sie sich über ein gemessenes physisches Ziel legt.
    4. Sobald das virtuelle Bild mit dem physisch gemessenen Ziel ausgerichtet ist, zeichnen Sie den Pixelwert auf dem Bildschirm für den angegebenen Gradwert auf. Zeichnen Sie mindestens drei Kalibrierungspunkte mit unterschiedlichen stimulierten Gradanforderungen und den entsprechenden Pixelwerten auf.
    5. Stellen Sie sicher, dass VE2020 nach der Aufzeichnung jedes Kalibrierungspunkts eine Ausgabedatei mit dem Namen Cals.xls erstellt. Wenden Sie unter Verwendung der Kalibrierungspunkte in Cal.xls eine lineare Regression mit optimaler Anpassung an, um die experimentell erforderlichen Anforderungen an Augenbewegungsreize in Rotationsgraden in Pixel abzubilden. Ein Beispiel für einen Fünf-Punkte-Grad für die aufgezeichnete Pixelkalibrierung ist in Abbildung 4 dargestellt.
  2. Wiederholen Sie diesen Vorgang für verschiedene Stimulusbilder (z. B. den Hintergrund oder den zweiten visuellen Stimulus, je nach Bedarf) und jeden Stimulusmonitor, der voraussichtlich verwendet wird.

Figure 3
Abbildung 3: Stimulierte Grad zur Überwachung von Pixeln. Darstellung der Bedieneransicht zur Kalibrierung des VE2020. Von links nach rechts wird eine Tabelle mit Werten für die aufgezeichneten Pixel bereitgestellt, die einem bekannten Gradwert für eine bestimmte Stimulusmonitorauswahl (Stretch-Mode-ID) mit einem festen Seitenverhältnis, einem bestimmten Dateinamen, einem Hintergrundstimulus (BG) und einem Vordergrundstimulus (Linie) entsprechen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 4
Abbildung 4: Skalierung der Pixel-Grad-Kalibrierung. Monokulare Kalibrierkurve für bekannte Gradwerte und gemessene Pixelwerte. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

3. LED-Kalibrierung

  1. Bestimmen Sie die experimentellen Rotationsgrade mithilfe trigonometrischer Identitäten in der vertikalen oder horizontalen Ebene (Abbildung 5). Zeichnen Sie die Rotationsgrade als Funktion der LED-Nummer.
  2. Lineares Regressieren der LED-Anzahl in Abhängigkeit von den Rotationsgraden. Verwenden Sie die erhaltene Beziehung, um die anfänglichen und endgültigen LED-Zahlen zu berechnen, die während des Experiments als visuelle Reize verwendet werden.

Figure 5
Abbildung 5: Berechnete Rotationsgrade. Methode zur Berechnung der Winkelverschiebung sowohl für sakkadische Augenbewegungen als auch für Vergenzbewegungen mit bekanntem Abstand zum Ziel (X) und Pupillenabstand (IPD). Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

4. Software-Programmierung

  1. Definieren Sie die VisualEyes-Anzeigeeingabedatei und speichern Sie sie wie folgt in der Stimulusbibliothek.
    1. Um jeden Stimulus zu definieren, öffnen Sie vor dem Experiment eine neue Textdatei (.txt). Vergewissern Sie sich in der ersten Zeile dieser Textdatei, dass vier erforderliche tabulatorgetrennte Parameter vorhanden sind: Stimulus-Timing(s); X-Position (Pixel); Y-Position (Pixel); und Rotation (Grad). Vergewissern Sie sich außerdem, dass zwei optionale aufeinanderfolgende Parameter vorhanden sind: Skalierung X (horizontale Skalierung); und Skalierung Y (vertikale Skalierung).
    2. Berechnen Sie den Pixelwert für jeden gewünschten Stimulusgrad mit Hilfe der linearen Regressionsgleichung, die aus der Kalibrierung abgeleitet wurde (siehe Schritt 2.1.5).
    3. Vergewissern Sie sich in der nächsten Zeile der Textdatei, dass die Länge(n), für die der Stimulus an seiner Anfangsposition und der nachfolgenden Endposition dargestellt wird, vorhanden und tabulatorgetrennt sind.
    4. Speichern Sie die Stimulus-Datei im Verzeichnis als VisualEyes-Eingabedatei (VEI) mit einem informativen Dateinamen (z. B. stimulus_name_movement_size.vei).
      HINWEIS: Jede Stimulusdatei ist monokular positioniert, daher muss eine separate Datei generiert werden, damit das komplementäre Auge eine binokulare Bewegung hervorruft.
  2. Wiederholen Sie diese Vorgänge für jeden gewünschten experimentellen Stimulus, den jeweiligen Bewegungstyp, die Bewegungsgröße und das Auge.

5. DC-Dateien

  1. Erstellen Sie für jeden Stimulusmonitor eine Stimulusbibliothek. Benennen Sie diese Bibliotheken als dc_1.txt bis dc_7.txt. Informationen zu den Einstellungen, die in den dc_1.txt- und dc_2.txt-Dateien enthalten sind, finden Sie in Tabelle 2.
    1. Bestätigen Sie die numerische ID für jeden Stimulusmonitor, indem Sie auf Bildschirmauflösung anzeigen >> Identifizieren klicken. Stellen Sie sicher, dass die Geräte-ID die primäre GPU ist (Startindex 0) und dass der Fenstermodus 1 ist.
    2. Vergewissern Sie sich, dass left die linke Begrenzung des Bildschirms (in Pixeln), top die obere Begrenzung des Bildschirms (in Pixeln), width die Längsbreite des Bildschirms (in Pixeln) und height die vertikale Höhe des Bildschirms (in Pixeln) definiert.
    3. Legen Sie die Stimulusnummer (Stim#) fest, die den Namen und den Speicherort der Stimulusdatei (.dds) zuordnet und, sofern die Datei nostimulus.vei die Stimulusnummer Null ist, sie einer Stimulusindexnummer zuordnet. Listen Sie für die nachfolgende stimulus_name.vei die verschiedenen Stimulusdateien auf, die in der Experimentiersitzung verwendet werden können.
      HINWEIS: Die Datei nostimulus.vei ist bei der Verwendung von ExpTrial von Vorteil, da nostimulus.vei keinen Stimulus darstellt (leerer Bildschirm).

Tabelle 2: Konfiguration der DC-Datei. Die Tabelle bietet einen Überblick über das DC-Textdateiformat. Bitte klicken Sie hier, um diese Tabelle herunterzuladen.

6. Definition der LED-Eingangsdatei und Speicherung der Stimulusbibliothek

  1. Öffnen Sie eine neue Textdatei (.txt) und verwenden Sie in der Datei die Tabulatorabgrenzung. Beenden Sie jede Zeile in der Textdatei mit zwei tabulatorgetrennten Nullen.
  2. Definieren Sie in der ersten Zeile die Anfangszeit(en) und LED-Werte (Position). Definieren Sie in der zweiten Zeile die Endzeit(en) und die endgültigen LED-Positionswerte. Speichern Sie die Datei stimulus_name.vei im Verzeichnis und wiederholen Sie diese Schritte für alle Stimuli.
  3. Wenn Sie fertig sind, speichern Sie alle Stimulus-Dateien in der Stimulus-Bibliothek array_config.txt.
  4. Stellen Sie sicher, dass die erste Zeile in der array_config.txt Datei der Kommunikationsport (COM) ist, den VisualEyes für die Kommunikation mit dem flexiblen visuellen Stimulator mit dem Standardeingabewert COM1 verwendet. Die zweite Zeile ist die Baudrate mit dem Standardeingabewert 9.600. Die dritte Zeile ist die Datenbitkapazität mit dem Standardeingabewert von 8 Bit. und die vierte Zeile ist der Datenparitätsindex mit dem Standardeingabewert 0. Die nachfolgenden Zeilen in der Datei enthalten die Stimulusdatei des flexiblen visuellen Stimulators (Abbildung 6).
  5. Überprüfen Sie die Profilnummer, wie in Abbildung 6 dargestellt. Dies bezieht sich auf den entsprechenden Zeilenindex eines bestimmten Stimulus-Dateinamens, der bei Index Null beginnt.

Figure 6
Abbildung 6: Stimulus-Bibliothek. Durch die Verwendung von Textbearbeitungssoftware, dem gezeigten Format zur Identifizierung der Portkommunikation, der Baudrate, der Datengröße und der Parität sowie der Bibliothek von Stimulus-Dateien (.vei) erhält der VE2020 die notwendigen Konfigurationen und Stimulus-Dateinamen, um erfolgreich zu laufen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

7. Skripterstellung für experimentelle Protokolle

  1. Öffnen Sie eine neue Textdatei (.txt), um ein Skript für die experimentellen Protokollbefehle zu erstellen, die VE2020 lesen und ausführen soll. Überprüfen Sie die richtige Syntax für die experimentellen Protokollbefehle und die Dokumentation. Tabelle 3 gibt einen Überblick über die VE2020-Syntaxkonventionen.
    HINWEIS: VE2020 liest diese Befehle nacheinander.
  2. Speichern Sie die Textdatei im Verzeichnis als VisualEyes-Skript (VES), z. B. script_name.ves. Suchen Sie im vorherigen VisualEyes-Versionshandbuch11 nach einer Tabelle mit Softwarefunktionen, die über Eingabe- und Ausgabefunktionen verfügen. Tabelle 3 zeigt drei neu implementierte aktualisierte Funktionen.

Tabelle 3: Syntax der VE2020-Funktion. VE2020 verfügt über eine spezifische Syntax, wie in der Tabelle zum Aufrufen eingebetteter Funktionen und zum Kommentieren gezeigt. Bitte klicken Sie hier, um diese Tabelle herunterzuladen.

8. Vorbereitung der Teilnehmer und Beginn des Experiments

  1. Einholung von Einwilligung und Berechtigung
    1. Verwenden Sie die folgenden allgemeinen Teilnahmekriterien: im Alter von 18 bis 35 Jahren, 20/25 (oder mehr) korrigierte monokulare Sehschärfe, Stereoschärfe von 500 s (oder besser) Bogen und 2 Wochen (oder mehr) mit korrekter refraktiver Korrektur.
    2. Verwenden Sie die folgenden Eignungskriterien für Konvergenzinsuffizienzteilnehmer (CI) gemäß etablierten Praktiken12: Convergence Insufficiency Symptom Survey (CISS)13 Score von 21 oder höher, Versagen von Sheards Kriterium 14, 6 cm (oder größer, bei Bruch) nahe Konvergenzpunkt (NPC) und 4Δ (oder höher) Exodeviation (nahe im Vergleich zu fern).
    3. Verwenden Sie die folgenden Eignungskriterien für Kontrollteilnehmer: CISS-Score kleiner als 21, weniger als 6Δ Unterschied zwischen naher und ferner Phorie, weniger als 6 cm (bei Bruch) NPC, Bestehen des Sheard-Kriteriums und ausreichende Mindestamplitude der Akkommodation gemäß Hofstetters Formel15.
    4. Verwenden Sie die folgenden allgemeinen Kriterien für die Nichteignung von Teilnehmern: ständiges Schielen, früheres Schielen oder refraktive Chirurgie, ruhender oder manifestierter Nystagmus, Enzephalopathie, Krankheiten, die die Akkommodation, die Vergenz oder die Augenmotilität beeinträchtigen, die vertikale Heterophorie von 2Δ (oder höher) und die Unfähigkeit, studienbezogene Tests durchzuführen oder zu verstehen. Zu den CI-Ungeeignetheitskriterien gehören außerdem Teilnehmer mit weniger als 5 Dioptrien, die über Donders Push-up-Methode16 akkommodieren.
    5. Sobald die Einverständniserklärung eingeholt wurde, weisen Sie den Teilnehmer an, sich in das Haploskop zu setzen.
    6. Positionieren Sie Stirn und Kinn des Teilnehmers gegen eine feste Kopfstütze, um Kopfbewegungen zu minimieren, und stellen Sie die Stuhlhöhe des Teilnehmers so ein, dass sich der Nacken des Teilnehmers während der gesamten Dauer des Experiments in einer bequemen Position befindet.
    7. Stellen Sie die Kamera(s) zur Aufzeichnung von Augenbewegungen so ein, dass die Augen des Teilnehmers im Sichtfeld der Kamera erfasst werden.
  2. Nachdem Sie richtig im Haploskop und im Eyetracker/Autorefraktor Platz genommen haben, bitten Sie den Teilnehmer, sich visuell auf ein visuell präsentiertes Ziel zu fixieren. Stellen Sie während dieses Aufbaus sicher, dass die Augen des Teilnehmers so zentriert sind, dass visuelle Ziele auf der mittleren Sagittalebene präsentiert werden.
    1. Erreichen Sie eine Augenzentrierung, indem Sie Ziele mit hoher Sehschärfe binokular an der visuellen Mittellinie darstellen lassen. Der Teilnehmer wird an der visuellen Mittellinie ausgerichtet, wenn eine physiologische Diplopie (Doppelbilder) auftritt, die um das Ziel der Fixierung zentriert ist.
  3. Passen Sie dann die Eye-Tracking-Gating- und Eye-Tracking-Signalverstärkungen an, um anatomische Merkmale wie den Limbus (die Grenze zwischen Iris und Sklera), die Pupille und die Hornhautreflexion zu erfassen.
  4. Validieren Sie die Erfassung der Augenbewegungsdaten, indem Sie den Teilnehmer bitten, wiederholte Vergenz- und/oder Sakkadenbewegungen auszuführen.
  5. Nach der vorläufigen Validierung und der Kalibrierung des physischen Monitors öffnen Sie ReadScript.vi. Sobald ReadScript.vi geöffnet ist, wählen Sie das Skript für das experimentelle Protokoll aus, indem Sie den Dateinamen in der oberen linken Ecke eingeben. Führen Sie das Protokoll über ReadScript.vi aus, indem Sie auf den weißen Pfeil in der oberen linken Ecke klicken, um Acquire.vi auszuführen.
  6. Stellen Sie dem Teilnehmer eine Handheld-Auslösetaste zur Verfügung und erklären Sie, dass die Datenerfassung beginnt, wenn der Auslöser gedrückt wird. Auf dem Bildschirm des Kontrollmonitors wird Acquire.vi automatisch eine Datei angezeigt, die eine Vorschau der aufgezeichneten Augenbewegungsdaten darstellt. Wenn das experimentelle Protokoll abgeschlossen ist, wird ReadScript.vi automatisch gestoppt, und Datenausgabedateien werden automatisch generiert und gespeichert.

9. VNEL-Programm zur Analyse von Augenbewegungen (VEMAP)

  1. Datenvorverarbeitung
    1. Beginnen Sie die Analyse, indem Sie auf die Schaltfläche Daten vorverarbeiten klicken. Ein Datei-Explorer-Fenster wird angezeigt. Wählen Sie eine oder mehrere aufgezeichnete Datendateien aus VE2020 für die Vorverarbeitung aus.
    2. Filtern Sie die Daten mit einem Butterworth-Filter 20 Ordnungen: 40 Hz für Vergenz-Augenbewegungen und 120 Hz oder 250 Hz für sakkadische Augenbewegungen. Die fertigen vorverarbeiteten Datendateien werden im VEMAP Preprocessed-Ordner als .mat-Dateien gespeichert.
      HINWEIS: Die Filterfrequenz für VEMAP kann je nach Anwendung auf die bevorzugte Grenzfrequenz des Benutzers eingestellt werden.
  2. Kalibrierung
    1. Unter Verwendung der drei stimulierten monokularen Kalibrierungsbewegungen für die Position des linken und rechten Auges, die aus dem VE2020-Skript hervorgerufen wurden, wird eine lineare Regression der Augenbewegungsreize in Grad als Funktion der aufgezeichneten Spannungswerte erstellt. Wie in den unteren Diagrammen von Abbildung 7 dargestellt, verwenden Sie die entsprechenden Pearson-Korrelationskoeffizienten und Regressionsformeln für die quantitative Bewertung der Anpassung.
    2. Verwenden Sie die Steigung jeder Regression als entsprechende monokulare Kalibrierungsverstärkung, um die aufgezeichneten (Roh-)Spannungen in Grad (kalibriert) umzuwandeln.
    3. Ermitteln Sie anhand der experimentellen Kalibrierungen einen geeigneten Verstärkungswert für die Bewegungsreaktionen des linken und rechten Auges. Wenden Sie die Kalibrierungsverstärkung konsequent auf jeden aufgezeichneten Abschnitt des Augenbewegungsreizes an. Nach der Kalibrierung aller Bewegungsunterabschnitte erscheint ein Bestätigungsfenster.
      HINWEIS: Monokulare Augenbewegungskalibrierungen werden aufgrund der potenziellen Unfähigkeit von Patienten mit Konvergenzinsuffizienz, der primären okulären motorischen Dysfunktion, die von unserem Labor untersucht wird, gewählt, eine binokulare Kalibrierung als eine einzige Wahrnehmung wahrzunehmen. Wenn die aufgezeichneten Kalibrierungssignale gesättigt oder nicht linear korreliert sind (aufgrund von Nichtbeachtung des Stimulus, Blinzeln, sakkadischen Bewegungen, Tränen der Augen oder Schließen der Augen), wenden Sie standardisierte Kalibrierungsverstärkungen für die Bewegungsreaktionen des linken und rechten Auges an. Dies sollte sparsam erfolgen, und diese Kalibrierungsverstärkungswerte sollten aus großen Durchschnittswerten auf Gruppenebene früherer Teilnehmer für die Verstärkung der Bewegungsreaktion des linken bzw. rechten Auges abgeleitet werden.
  3. Klassifikation
    1. Untersuchen Sie nach der Kalibrierung jede Augenbewegungsreaktion manuell und kategorisieren Sie sie anhand einer Vielzahl von Klassifizierungsbezeichnungen, wie z. B. Blinzeln bei vorübergehender Augenbewegung, symmetrisch, asymmetrisch, Fusionsverlust, keine Bewegung (keine Reaktion) und gesättigte Augenbewegungen.
    2. Sehen Sie sich Abbildung 8 als Referenz an. Das obere Diagramm (Positionsdaten) ist die Antwort eines symmetrischen 4°-Vergenzschritt-Stimulus. Die kombinierte Konvergenzbewegung ist grün dargestellt, die Bewegung des rechten Auges ist rot dargestellt. und die Bewegung des linken Auges ist blau dargestellt. Die Versionsablaufverfolgung wird schwarz dargestellt. Das untere Diagramm zeigt die erste Ableitungsgeschwindigkeit der Positionsreaktion der Augenbewegung mit dem gleichen Farbmuster wie oben beschrieben.
  4. Datenanalyse
    1. Führen Sie den letzten Schritt im VEMAP-Verarbeitungsdatenfluss der Datenanalyse durch, der über die VEMAP-Benutzeroberfläche (UI) als Schaltfläche zugänglich ist und in Abbildung 9 in der Vorschau dargestellt ist. Zeichnen Sie die Augenbewegungen innerhalb eines bestimmten Stimulustyps und einer bestimmten Klassifizierungsbezeichnung zusammen als Ensemble-Diagramm auf, wie auf der rechten Seite von Abbildung 9 dargestellt.
    2. Analysieren Sie selektiv die Teilmengen der Augenbewegungen über ihre Klassifizierungsbezeichnungen oder ganzheitlich ohne angewendete Klassifizierungsfilter über die Schaltfläche Klassen auswählen.
    3. Überprüfen Sie, ob die primären Augenbewegungsmetriken jeder aufgezeichneten Augenbewegung entsprechen, z. B. Latenz, Spitzengeschwindigkeit, Antwortamplitude und Endamplitude.
    4. Überprüfen Sie jede Augenbewegungsreaktion, um sicherzustellen, dass jede aufgezeichnete Metrik gültig ist. Wenn eine Metrik nicht angemessen erscheint, messen Sie die aufgezeichneten Metriken entsprechend, bis die entsprechenden Werte jede Bewegung genau widerspiegeln. Darüber hinaus können Sie Augenbewegungen weglassen oder die bereitgestellten Klassifizierungsbeschriftungen über die Schaltfläche Reklassifizieren neu klassifizieren , wenn die aufgezeichneten Metriken die aufgezeichneten Augenbewegungen nicht angemessen beschreiben können.

Figure 7
Abbildung 7: Monokulare Kalibrierung und Korrelationssteigungen. Ein Beispiel für die Kalibrierung von Augenbewegungsdaten von Spannungswerten bis hin zu Rotationsgraden. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 8
Abbildung 8: Klassifizierung der Augenbewegungssoftware. Klassifikation der stimulierten Augenbewegungsreaktionen. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Figure 9
Abbildung 9: Analyse der Eye-Movement-Response-Software. Ein Beispiel für dargestellte Konvergenzantworten, die durch eine symmetrische Sprungänderung von 4° stimuliert werden (rechts), wobei die einzelnen Metriken für die Reaktion auf Augenbewegungen tabellarisch dargestellt werden (links) und die Statistiken auf Gruppenebene tabellarisch unter den Antwortmetriken angezeigt werden. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

10. Akkommodatives Bewegungsanalyseprogramm (AMAP)

  1. Datenkonfiguration
    1. Exportieren Sie die Daten unter Verwendung des externen Speichergeräts, das die Autorefraktordaten enthält, auf ein Gerät, auf dem AMAP installiert ist. Die AMAP ist sowohl als eigenständige ausführbare Datei als auch als lokale Anwendung über die MATLAB-Anwendungsinstallation verfügbar.
  2. Starten Sie die AMAP-Anwendung. Wählen Sie im AMAP entweder Dateipräprozessor oder Batch-Präprozessor aus. Der Dateipräprozessor verarbeitet einen einzelnen Datenordner, während der Batch-Präprozessor ein ausgewähltes Datenordnerverzeichnis verarbeitet.
  3. Überprüfen Sie den Fortschrittsbalken und die Benachrichtigungen des AMAP, da das System diese bereitstellt, wenn die ausgewählten Daten vorverarbeitet wurden. Ordnerverzeichnisse werden aus der Vorverarbeitung des AMAP für Datenverarbeitung, Transparenz und Zugänglichkeit über das lokale Laufwerk des Rechners unter AMAP_Output generiert.
  4. Wenn eine AMAP-Funktion ohne vorherige Datenverarbeitung ausgewählt wird, suchen Sie nach einem Datei-Explorer-Fenster, in dem der Benutzer ein Datenverzeichnis auswählen kann.
  5. Führen Sie die AMAP-Datenanalyse wie unten beschrieben durch.
    1. Wählen Sie nach der Vorverarbeitung über die Schaltfläche Daten laden eine Datendatei aus, die analysiert werden soll. Dadurch werden alle verfügbaren Dateien in das aktuelle Dateiverzeichnis geladen, das standardmäßig ein generierter AMAP_Output Ordner ist. Der ausgewählte Dateiname wird im aktuellen Dateifeld angezeigt.
    2. Aktivieren Sie unter der Augenauswahl die Standardauswahl, die binokular gemittelte Daten für die aufgezeichnete akkommodative Refraktion anzeigt.
    3. Schalten Sie den Datentyp zwischen akkommodativer Refraktion und okulomotorischer Vergenz (Anblick) über die Typauswahl um. Sehen Sie sich weitere grafische Anpassungen an, die zur Darstellung der Datenmetriken und Charakterisierungen erster und zweiter Ordnung verfügbar sind. In Abbildung 10 finden Sie die Kombinationen von grafischen Optionen, die für den Bediener zur Visualisierung ausgewählt werden können.
    4. Überprüfen Sie die Standardmetriken für den AMAP, die wie folgt lauten: Spitzengeschwindigkeit (Grad/s); Amplitude des Ansprechverhaltens (Grad); Endamplitude (Grad); Startindex(e) der Antwort; Spitzengeschwindigkeitsindex(e); Antwort-Endindex(e); Blickgeschwindigkeit (Vergenz) (Grad/s); Amplitude der Blickantwort (Grad); Endamplitude des Blicks (Grad); Startindex (s) der Blickantwort; Blickgeschwindigkeitsindex (s); Index (s) für das Ende der Blickantwort; und Klassifizierung (binär 0 - schlecht, 1 - gut).
    5. Führen Sie Änderungen am Startindex der Antwort, am Endindex der Antwort und am Index der Spitzengeschwindigkeit über die Zahlenauswahlfelder für metrische Änderungen durch (Abbildung 10).
    6. Speichern Sie nach der Analyse aller angezeigten aufgezeichneten Bewegungen die analysierten Metriken für jede Datendatei im Bewegungs-ID-Feld oder über die Navigationspfeile nach links und rechts.
    7. Klicken Sie auf die Schaltfläche Speichern , um die analysierten Daten in eine zugängliche Tabelle zu exportieren. Nicht analysierte Bewegungen haben die Standardklassifizierung Not-a-Number (NaN) und werden nicht gespeichert oder exportiert.
    8. Führen Sie eine manuelle Klassifizierung (gut/schlecht) für jede Bewegung durch, um eine vollständige Analyse durch jeden Bediener zu gewährleisten.

Figure 10
Abbildung 10: Frontend der AMAP-Software. Die Abbildung zeigt die Hauptbenutzeroberfläche für das AMAP mit hervorgehobenen Abschnitten für die grafische Darstellung (grafische Optionen) von Daten und die Datenanalyse (metrische Modifikationen). Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Ensemble-Diagramme auf Gruppenebene von stimulierten Augenbewegungen, die durch VE2020 hervorgerufen werden, sind in Abbildung 11 mit den entsprechenden Geschwindigkeitsmerkmalen erster Ordnung dargestellt.

Figure 11
Abbildung 11: Ensembles für Augenbewegungen. Die Ensemble-Plots von Vergenzschritten (links) und Sakkaden (rechts), die mit dem VE2020 stimuliert wurden, sind dargestellt. Jede Positionsspur der Augenbewegung (Grad) wird als eindeutig farbige Linie dargestellt und mit der Geschwindigkeitsantwort auf Gruppenebene in Rot überlagert. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Die exportierten Merkmale aus dem AMAP ermöglichen die Visualisierung sowohl der Bewegungsdiagramme (Ensembles) auf Teilnehmer- als auch auf Gruppenebene und der entsprechenden Metriken (Export) in einer zugänglichen Tabelle (Tabelle 4). Die exportierten Datentabellen bieten einen quantitativen Überblick über die Leistungen der Teilnehmer und können Kriterien für die Entfernung von Ausreißern festlegen.

Tabelle 4: Export der AMAP-Softwareanalyse. Ein Beispiel für die AMAP-Exportfunktion, bei der einzelne Augenbewegungsreaktionen zeilenweise mit der entsprechenden Subjekt- und Bewegungstypidentifikation exportiert werden. Bitte klicken Sie hier, um diese Tabelle herunterzuladen.

Die Visualisierung der Teilnehmerleistungen kann auch innerhalb des AMAP erfolgen, wie in Abbildung 12 dargestellt, die ein Ensemble von 5°-Konvergenzantworten und den entsprechenden 1,5-Dioptrien-Akkommodationsantworten zeigt, die das Ergebnis der Datenverarbeitung sind.

Figure 12
Abbildung 12: Akkommodative Bewegungsreaktionsensembles. Die Abbildung zeigt die AMAP-Ensemble-Funktion, die Überlagerungen jeder einzelnen Bewegungsantwortspur (grau) und der durchschnittlichen Reaktion (grün) erstellt. Bitte klicken Sie hier, um eine größere Version dieser Abbildung zu sehen.

Abbildung 11 und Abbildung 12 zeigen die erfolgreiche Stimulation und Aufzeichnung sowohl von Vergenz- als auch von sakkadischen Augenbewegungen sowie akkommodativen Reaktionen. Unter der Voraussetzung, dass die Kalibrierungsverfahren des VEMAP die erwarteten 4°-Vergenz- und 5°-Sakkadenziele liefern, zeigt Abbildung 11 , dass für einen binokular normalen Teilnehmer, der sich diesen Sehaufgaben unterzieht, die erwartete Stimulation erreicht wird. Für akkommodative Antworten, die innerhalb des AMAP verarbeitet werden, zeigt Abbildung 12 eine ungefähre akkommodative Antwort von 1 Dioptrie mit einem akkommodativen Bedarf von 1,5 Dioptrien, was mit der Variabilität von Autorefraktorsystemen für unterschiedliche Teilnehmerdemografien übereinstimmt17. Diese Ergebnisse können weiter kalibriert werden, indem eine konstante Verstärkung verwendet wird, indem Statistiken auf Gruppenebene für verschiedene experimentelle Teilnehmergruppen mit der in Tabelle 4 gezeigten Exportfunktion verwendet werden. Daher kann die Etablierung und erfolgreiche Implementierung von VE2020, dem VEMAP und dem AMAP ein quantitatives Verständnis der Unterschiede in stimulierten Augenbewegungen und akkommodativen Reaktionsmetriken liefern.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Anwendungen der Methode in der Forschung
Zu den Neuerungen der ursprünglichen VisualEyes2020 (VE2020)-Software gehört die Erweiterbarkeit des VE2020, um auf mehrere Monitore mit einem oder mehreren visuellen Reizen zu projizieren, was die Untersuchung wissenschaftlicher Fragestellungen ermöglicht, die von der Quantifizierung der Maddox-Komponenten der Vergenz18 bis zum Einfluss ablenkender Ziele auf instruierte Ziele19 reichen. Die Erweiterung des Haploscope-Systems auf VE2020 sowie die komplementäre Entwicklung von VEMAP und AMAP bieten eine in sich geschlossene Stimulus- und Analyseplattform, die mit den derzeit zugänglichen Geräten zur Aufzeichnung von Augenbewegungen und Akkommodation kompatibel ist. Nach der erfolgreichen Erstellung der VE2020-Stimulus-Routine und der anschließenden Aufzeichnung ermöglicht die Umwandlung von rohen Daten zur Position und Akkommodation der Augenbewegungen in aussagekräftige und analysierbare Teilmengen von Daten den Forschern mit den notwendigen nicht-invasiven Werkzeugen, um vorherrschende und zugrunde liegende Sehstörungen, wie z. B. typischerweise auftretende oder leichte durch Schädel-Hirn-Trauma verursachte Dysfunktion und Konvergenzinsuffizienz, ganzheitlich zu untersuchen. die mit der Funktion bei binokular normalen Kontrollteilnehmern 1,2,13,20 verglichen werden kann. Die Bereitstellung einer Augenbewegungsanalyse mit entsprechenden akkommodativen Reaktionen verbessert das wissenschaftliche Verständnis der unbekannten Wechselwirkungen zwischen dem Vergenz- und Akkommodationssystem sowohl bei gesunden Teilnehmern als auch bei solchen mit okulomotorischer Dysfunktion21.

Wie gezeigt wurde, können mit der gemeinsamen Konfiguration von VE2020, VEMAP und AMAP die zugrunde liegenden neuronalen Kontrollmechanismen bei Dysfunktionen besser verstanden werden22,23. Durch die wiederholbare visuelle Stimulation von VE2020 können latente neurologische Dysfunktionen, deren frühe Biomarker durch abnorme Akkommodations-, Vergenz- oder Versionsreaktionen exprimiert werden, nun mit AMAP und VEMAP quantitativ bewertet werden. Die Vereinheitlichung der akkommodativen Antwortanalyse mit gekoppelten Augenbewegungsaufzeichnungen aus zuvor isolierten Sehexperimenten hilft Studien, vollständigere und quantifizierbare Analyseergebnisse zu erhalten. Objektive Analyse- und Stimulationsmethoden bieten die Möglichkeit, die Wirksamkeit aktueller Behandlungsstandards und ihre therapeutischen Ergebnisse zu vergleichen24,25. Diese Quantifizierungen, gepaart mit der subjektiven Symptomerhebung der Teilnehmer, können dazu beitragen, personalisierte Abhilfestrategien zu identifizieren, die die Ergebnisse verbessern. Darüber hinaus können durch die Bewertung dieser Hauptkomponenten, die Symptome hervorrufen können, frühzeitige Methoden zur Erkennung von Verletzungen26 und Schweregradbewertungen mit erhöhter Wirksamkeit etabliert werden.

Kritische Schritte im Protokoll
Augenbewegungen werden in der Regel durch die Größe der Rotation des Auges in Grad gemessen. Wie in Abbildung 5 zu sehen ist, erfordert die trigonometrische Umwandlung der Translationsbewegung eines Stimulus in Grad einen bekannten Pupillenabstand (IPD) und eine gemessene Entfernung zum Ziel. Die Verwendung bekannter Durchschnittswerte für die IPD kann eine verallgemeinerte Näherung für die Skripterstellung der VE2020-Stimulussequenzen liefern. Diese sind jedoch auf ordnungsgemäße Kalibrierungen angewiesen. Zeichenkonventionen für die Bewegungsrichtung können geändert werden; Dies ändert jedoch die Anwendung von Verstärkungswerten für den VEMAP. Die aktuellen Bewegungskonventionen des VEMAP lauten wie folgt für sakkadische Bewegungen: nach rechts ist positiv und nach links ist negativ. Darüber hinaus ist für Vergenzbewegungen die Konvergenz (Einwärtsdrehung) positiv und die Divergenz (Außendrehung) negativ.

Wie in Abbildung 7 zu sehen ist, waren die Stimulusziele bei 1°, 3° und 5° platziert, was eine nach innen gerichtete monokulare Winkeldrehung von der optischen Unendlichkeit darstellt. Das Diagramm unten links zeigt eine lineare Dreipunkt-Regression für die Positionsdaten des linken Auges, bei der bei einem 5°-Stimulus die durchschnittliche aufgezeichnete Spannung −1 V, bei einem 3°-Stimulus die durchschnittliche aufgezeichnete Spannung etwa 0,4 V und bei einem 1°-Stimulus etwa 1,25 V betrug. In ähnlicher Weise hatte für die Position des rechten Auges im Diagramm unten rechts ein 1°-Stimulus eine entsprechende Spannung von −1,25 V, ein 3°-Stimulus eine durchschnittliche Spannung von etwa 0 V und ein 5°-Stimulus eine durchschnittliche Spannung von 1,1 V.

Einschränkungen der Methode
Zu den aktuellen Einschränkungen der Methode gehört die standardisierte Ausgabe der Autorefraktor- und Eyetracker-Daten, da AMAP und VEMAP für die Verarbeitung dieser Datenformate programmiert sind. Eine weitere Einschränkung besteht darin, dass die Teilnehmer häufig mit den Augen blinzeln (schließen), wenn das Experiment nicht ansprechend ist, was zu einer schlechten Qualität der Datenaufzeichnung führt. Während andere okulomotorische Dysfunktionen wie Strabismus, Amblyopie, Nystagmus und Suppression VE2020, das VEMAP und das AMAP nutzen könnten, müssten für jede dieser spezifischen okulomotorischen Dysfunktionen Modifikationen implementiert werden.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Die Autoren haben keine Interessenkonflikte zu erklären.

Acknowledgments

Diese Forschung wurde durch das Stipendium der National Institutes of Health R01EY023261 für T.L.A. und ein Barry Goldwater-Stipendium und den NJIT Provost Doctoral Award für S.N.F. unterstützt.

Materials

Name Company Catalog Number Comments
Analog Terminal Breakout Box National Instruments 2090A
Convex-Sphere Trial Lens Set Reichert Portable Precision Lenses Utilized for autorefractor calibration
Graphics Cards - - Minimum performance requirement of GTX980 in SLI configuration
ISCAN Eye Tracker ISCAN ETL200
MATLAB MathWorks v2022a AMAP software rquirement
MATLAB MathWorks v2015a VEMAP software requirement
Microsoft Windows 10 Microsoft Windows 10 Required OS for VE2020
Plusoptix PowerRef3 Autorefractor Plusoptix PowerRef3
Stimuli Monitors (Quantity: 4+) Dell Resolution 1920x1080 Note all monitors should be the same model and brand to avoid resolution differences as well as physical configurations

DOWNLOAD MATERIALS LIST

References

  1. Alvarez, T. L., et al. Disparity vergence differences between typically occurring and concussion-related convergence insufficiency pediatric patients. Vision Research. 185, 58-67 (2021).
  2. Alvarez, T. L., et al. Underlying neurological mechanisms associated with symptomatic convergence insufficiency. Scientific Reports. 11, 6545 (2021).
  3. Scheiman, M., Kulp, M. T., Cotter, S. A., Lawrenson, J. G., Wang, L., Li, T. Interventions for convergence insufficiency: A network meta-analysis. The Cochrane Database of Systematic Reviews. 12 (12), (2020).
  4. Semmlow, J. L., Chen, Y. F., Granger-Donnetti, B., Alvarez, T. L. Correction of saccade-induced midline errors in responses to pure disparity vergence stimuli. Journal of Eye Movement Research. 2 (5), (2009).
  5. Scheiman, M., Wick, B. Clinical Management of Binocular Vision., 5th Edition. , Lippincott Williams & Wilkins. Philadelphia, USA. (2019).
  6. Kim, E. H., Vicci, V. R., Granger-Donetti, B., Alvarez, T. L. Short-term adaptations of the dynamic disparity vergence and phoria systems. Experimental Brain Research. 212 (2), 267-278 (2011).
  7. Labhishetty, V., Bobier, W. R., Lakshminarayanan, V. Is 25Hz enough to accurately measure a dynamic change in the ocular accommodation. Journal of Optometry. 12 (1), 22-29 (2019).
  8. Juhola, M., et al. Detection of saccadic eye movements using a non-recursive adaptive digital filter. Computer Methods and Programs in Biomedicine. 21 (2), 81-88 (1985).
  9. Mack, D. J., Belfanti, S., Schwarz, U. The effect of sampling rate and lowpass filters on saccades - A modeling approach. Behavior Research Methods. 49 (6), 2146-2162 (2017).
  10. Ghahghaei, S., Reed, O., Candy, T. R., Chandna, A. Calibration of the PlusOptix PowerRef 3 with change in viewing distance, adult age and refractive error. Ophthalmic & Physiological Optics. 39 (4), 253-259 (2019).
  11. Guo, Y., Kim, E. L., Alvarez, T. L. VisualEyes: A modular software system for oculomotor experimentation. Journal of Visualized Experiments. (49), e2530 (2011).
  12. Convergence Insufficiency Treatment Trial Study Group. Randomized clinical trial of treatments for symptomatic convergence insufficiency in children. Archives of Ophthalmology. 126 (10), 1336-1349 (2008).
  13. Borsting, E., et al. Association of symptoms and convergence and accommodative insufficiency in school-age children. Optometry. 74 (1), 25-34 (2003).
  14. Sheard, C. Zones of ocular comfort. American Journal of Optometry. 7 (1), 9-25 (1930).
  15. Hofstetter, H. W. A longitudinal study of amplitude changes in presbyopia. American Journal of Optometry and Archives of American Academy of Optometry. 42, 3-8 (1965).
  16. Donders, F. C. On the Anomalies of Accommodation and Refraction of the Eye. , Milford House Inc. Boston, MA. translated by Moore, W. D (1972).
  17. Sravani, N. G., Nilagiri, V. K., Bharadwaj, S. R. Photorefraction estimates of refractive power varies with the ethnic origin of human eyes. Scientific Reports. 5, 7976 (2015).
  18. Maddox, E. E. The Clinical Use of Prisms and the Decentering of Lenses. , John Wright and Co. London, UK. (1893).
  19. Yaramothu, C., Santos, E. M., Alvarez, T. L. Effects of visual distractors on vergence eye movements. Journal of Vision. 18 (6), 2 (2018).
  20. Borsting, E., Rouse, M. W., De Land, P. N. Prospective comparison of convergence insufficiency and normal binocular children on CIRS symptom surveys. Convergence Insufficiency and Reading Study (CIRS) group. Optometry and Vision Science. 76 (4), 221-228 (1999).
  21. Maxwell, J., Tong, J., Schor, C. The first and second order dynamics of accommodative convergence and disparity convergence. Vision Research. 50 (17), 1728-1739 (2010).
  22. Alvarez, T. L., et al. The Convergence Insufficiency Neuro-mechanism in Adult Population Study (CINAPS) randomized clinical trial: Design, methods, and clinical data. Ophthalmic Epidemiology. 27 (1), 52-72 (2020).
  23. Leigh, R. J., Zee, D. S. The Neurology of Eye Movements. , Oxford Academic Press. Oxford, UK. (2015).
  24. Alvarez, T. L., et al. Clinical and functional imaging changes induced from vision therapy in patients with convergence insufficiency. Annual International Conference of the IEEE Engineering in Medicine and Biology Society. 2019, 104-109 (2019).
  25. Scheiman, M. M., Talasan, H., Mitchell, G. L., Alvarez, T. L. Objective assessment of vergence after treatment of concussion-related CI: A pilot study. Optometry and Vision Science. 94 (1), 74-88 (2017).
  26. Yaramothu, C., Greenspan, L. D., Scheiman, M., Alvarez, T. L. Vergence endurance test: A pilot study for a concussion biomarker. Journal of Neurotrauma. 36 (14), 2200-2212 (2019).

Tags

Bioengineering Heft 193
Quantifizierung okulomotorischer Reaktionen und Akkommodation durch Instrumentierung und Analyse-Toolboxen
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Fine, S. N., Guo, Y., Talasan, H.,More

Fine, S. N., Guo, Y., Talasan, H., LeStrange, S., Yaramothu, C., Alvarez, T. L. Quantification of Oculomotor Responses and Accommodation Through Instrumentation and Analysis Toolboxes. J. Vis. Exp. (193), e64808, doi:10.3791/64808 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter