Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

VisualEyes: Un sistema de software modular para experimentación oculomotor

Published: March 25, 2011 doi: 10.3791/2530

ERRATUM NOTICE

Summary

Control nervioso y los procesos cognitivos pueden ser estudiados a través de los movimientos oculares. El software VisualEyes permite a un operador para programar los estímulos en dos pantallas de ordenador de forma independiente utilizando un lenguaje de scripting personalizado simple. El sistema puede estimular los movimientos oculares sacádicos tándem (y seguimiento lento) o movimientos oculares opuestas (de convergencia) o cualquier combinación.

Abstract

Estudios de los movimientos oculares han proporcionado una base sólida formación de una comprensión de cómo el cerebro adquiere la información visual, tanto en el cerebro normal y disfuncional. 1 Sin embargo, el desarrollo de una plataforma para estimular y movimientos oculares tienda puede requerir programación sustancial, tiempo y costos. Muchos sistemas no ofrecen la flexibilidad para programar numerosos estímulos para una variedad de necesidades experimentales. Sin embargo, el Sistema VisualEyes tiene una arquitectura flexible, lo que permite al operador elegir cualquier fondo y estímulo de primer plano, el programa de una o dos pantallas para tándem o en contra de los movimientos del ojo y estimular el ojo izquierdo y derecho de manera independiente. Este sistema puede reducir significativamente el tiempo de desarrollo de programación necesarios para llevar a cabo un estudio oculomotor. El Sistema VisualEyes será discutido en tres partes: 1) el dispositivo de grabación oculomotor para adquirir respuestas de movimiento ocular, 2) el software VisualEyes escrito en LabView, para generar una serie de estímulosy las respuestas de las tiendas como archivos de texto y 3) el análisis de datos fuera de línea. Los movimientos oculares se pueden grabar por varios tipos de instrumentos tales como: un sistema de seguimiento de limbo, una bobina esclerótica, o un sistema de imagen de vídeo. Se le aparecen típicas estímulos de movimiento ocular como pasos sacádicos, rampas convergentes y medidas convergentes con las respuestas correspondientes. En este informe de vídeo, se demuestra la flexibilidad de un sistema para crear numerosos estímulos visuales y registran los movimientos oculares que pueden ser utilizados por los científicos básicos y clínicos para estudiar saludable, así como las poblaciones clínicas.

Protocol

Una visión general de los elementos clave necesarios para llevar a cabo un experimento oculomotor se muestra en la figura 1. Cada bloque en el diagrama de flujo se discutirá en detalle más adelante.

1. INSTRUMENTACIÓN SET-UP:

  1. Cualquier tipo de ojo de vigilancia de movimiento se puede utilizar para este sistema. Vamos a demostrar un seguimiento limbo de infrarrojos y un sistema de video vigilancia.
  2. Para los movimientos de seguimiento en tándem, tales como la búsqueda sacádico o liso, un único ordenador puede ser utilizado para la pantalla visual. Para el estudio de los movimientos oculares opuestas como la convergencia o la interacción de convergencia con la versión movimientos en tándem (es decir, convergente con estímulos sacádicos) se necesita un haploscope con dos monitores de ordenador de pantalla visual, ver figura 2.

2. CALIBRACIÓN:

  1. Se necesita calibración para convertir un conjunto de métricas en otro. Los movimientos oculares son típicamente indican en grados (°) de rotación que se muestran en la figura 3. Sin embargo, ordenador monitors usan valores de píxeles en comparación con los investigadores de la visión que a menudo denotan los estímulos visuales en grados. Por lo tanto, se necesita una conversión para convertir los valores de píxel a grados. Uno puede usar la trigonometría para calcular dónde colocar las metas físicas para calibrar las pantallas visuales. Por ejemplo, si el estímulo en la pantalla del ordenador se alinea con un objetivo físico 2 ° (véase la figura 2), entonces ese valor de píxel corresponde a un estímulo 2 °.
  2. Para calibrar el sistema, el operador necesita para abrir Pixel2Deg.vei dentro del directorio VisualEyes. En primer lugar, definir el monitor para calibrar utilizando el campo de modo de estiramiento. Introduzca el número 1 para el monitor ojo izquierdo y el número 2 para el monitor ojo derecho. A continuación, ejecute el programa y mover la línea de estímulo verde hasta que la línea verde aparece superpuesto en la parte superior de la meta física. Introduzca la posición conocida de la meta física en grados y pulse el botón guardar. A continuación, haga clic en la línea verde. El valor en grados y píxel se mostrará en la pantalla en tél parte inferior izquierda esquina. El operador debe recoger un mínimo de tres puntos de calibración.
  3. Después de guardar todos los puntos de calibración, abra el archivo de salida D2P en el directorio VisualEyes para obtener los puntos de calibración. Trazar los puntos de calibración para alcanzar una ecuación de regresión lineal. Usa la ecuación para calcular la posición inicial y final del estímulo visual el operador desea programar en valores de píxeles. Un ejemplo de el ojo izquierdo y el ojo derecho curva de calibración obtenida utilizando cinco puntos de calibración para un estímulo convergencia se muestra en la figura 4.
  4. Repita los pasos 2.2 y 2.3 para el otro monitor si el estímulo requiere un monitor adicional.

3. VisualEyes SOFTWARE:

  1. Definir un estímulo: El operador tiene que definir la posición inicial y final de izquierda y derecha estímulo ojo antes del experimento. En primer lugar, abrir un nuevo archivo de texto y en la primera fila, definir el tiempo inicial y valores de posición of estímulo. Cuatro parámetros deben definirse 1) Tiempo (segundos), 2) la posición horizontal (pixel), 3) la posición vertical (pixel), y 4) la rotación (°) separados por una pestaña. Del mismo modo, definir los cuatro parámetros de la última vez y la posición del estímulo. Guarde el estímulo en el directorio VisualEyes como stimulus_name.vei archivo (VEI = VisualEyes entrada) y repita este paso para el otro estímulo visual.
    1. El movimiento del estímulo se puede generalizar en dos tipos de movimiento: un paso brusco o una rampa continua. Un paso permite que el estímulo para mover bruscamente o saltar desde la posición inicial a la posición final. El operador debe tener en cuenta que el cambio en el tiempo es de 0,001 segundos para un estímulo paso. En la fila siguiente, definir cuánto tiempo desea que el estímulo a residir en la posición inicial, así como la posición final. Los estímulos se definieron a partir de cuatro campos en una fila. Un ejemplo de un paso sacádico, rampa de búsqueda suave, paso convergente y la rampa convergente se muestran en laTabla 1.
    2. Para estímulos, puede tener un solo estímulo, tal como un paso o una secuencia de tareas visuales tales como múltiples pasos.
  2. Guardar Estímulo a estímulos Biblioteca: Hay varias configuraciones predeterminadas en la dc1.txt (ojo izquierdo de estímulo / monitor) y dc2.txt (ojo derecho estímulo / monitor) archivos dentro del directorio VisualEyes. La primera línea es el porcentaje de la pantalla dentro de la dirección horizontal. La segunda línea es el porcentaje de la pantalla dentro de la dirección vertical. La tercera es la imagen de fondo y el cuarto es la imagen en primer plano o de destino. La quinta línea indica que el ordenador para trabajar en modo independiente. Los 6 th significa que el monitor (1 es el ojo derecho y 2 se deja los ojos). La línea 7 ª es la relación de aspecto de los monitores. El resto de las líneas son los diferentes tipos de estímulos, el operador puede utilizar dentro de una sesión experimental.
    1. Abra la dc1.txt y dc2.txt del direc VisualEyestory. Estos dos archivos contienen los estímulos de biblioteca para el ojo izquierdo y el ojo derecho, respectivamente. En la última fila, escriba el nombre del archivo del estímulo que se ha generado desde el paso 3.1. El número de perfil se refiere a la m-ésima fila correspondiente al nombre de archivo de estímulo. Por ejemplo, en la figura 1, el número de perfil del estímulo es 8.
  3. Uno puede repetir los pasos 3.1 a 3.2 para crear tantos estímulos que son necesarios para un experimento.
  4. Escribe Guión para el Protocolo experimental: Abrir un archivo de texto para escribir los comandos de protocolo experimental. Este archivo se llama el archivo de comandos que significa que el Sistema VisualEyes leerá y ejecutar cada comando de la secuencia de comandos que se encuentra en este archivo. La capacidad de crear un archivo de comandos de un protocolo experimental permite al usuario realizar varias sesiones experimentales utilizando el mismo protocolo. Además, numerosos guiones pueden ser escritos a variar el tipo y la secuencia de comandos experimentales. Este archivoSe pueden guardar en el directorio VisualEyes como un archivo script_name.ves. (VES = VisualEyes Script)
    1. Las funciones VisualEyes tienen argumentos de entrada y salida. La Tabla 2 muestra todas las funciones en el software VisualEyes.
      1. ExpTrial: Esta función se utiliza para llamar a los estímulos que se ha guardado en la biblioteca de estímulo desde el paso 3.2. La longitud de los datos es el tiempo que permitirá que la función para ejecutar el estímulo. El tempfile.lwf permite que el software VisualEyes para almacenar temporalmente los datos y la salida que de entrada en un búfer de salida. Cuando el tempfile.lwf no está definido, durante la ejecución de esta función, no va a almacenar todos los datos de entrada para la digitalización.
      2. Archivo_registro: Esta función genera cadenas o el buffer de entrada definido desde ExpTrial en el archivo out.txt en el directorio VisualEyes. Cuando el experimento se ha completado, el operador debe cambiar el nombre del archivo out.txt a otro nombre. De lo contrario, los datos se sobrescribirán durante la próxima experiment.
      3. TriggerWait: Esta función espera para el sujeto que apretar un botón de disparo para iniciar el ExpTrial y digitalizar los datos. Se trata de un canal en la tarjeta de adquisición digital que está esperando la señal para cambiar de un alto digital (5 V) a bajo (V 0).
      4. RandomDelay: Esta función genera un retardo aleatorio para impedir que la predicción o anticipación de la siguiente estímulo.
      5. WaveMSD: Esta función calcula la media y la desviación estándar de los datos.

4. LUGAR EL OJO DEL MOVIMIENTO MONITOR y RUN EXPERIMENTO:

  1. Diversos monitores del movimiento ocular, como el sistema de córnea vídeo reflejo de imagen, sistema de seguimiento de limbo o esclerótica bobina se pueden usar para recoger y registrar los movimientos oculares.
  2. Antes de que un sujeto puede participar, el experimento debe ser explicado y el sujeto debe leer y firmar un formulario de consentimiento informado aprobado por la Junta de Revisión Institucional.
  3. El mu operadorst ajustar el monitor de movimiento de los ojos sobre el tema. En primer lugar, el sujeto se le pide que se fije en un objetivo. El operador ajusta el monitor de movimiento del ojo para capturar los atributos anatómicas del ojo tales como el limbo (límite entre el iris y la esclerótica) o la pupila y la reflexión corneal en función del monitor movimiento de los ojos utilizado.
  4. Una vez que el monitor de movimiento de los ojos está bien ajustado sobre el tema, el operador debe validar que el monitor de movimiento de los ojos es la captura de los movimientos de los ojos pidiendo al sujeto para hacer convergente o movimientos sacádicos.
  5. Abra el programa ReadScript.vei en el directorio VisualEyes. En la esquina superior derecha, escriba el nombre de archivo del archivo de script protocolo experimental creado en el paso 3.4. A continuación, ejecute el programa ReadScript.vei presionando la flecha roja en la esquina superior izquierda.
  6. Dé el tema en el botón de disparo y explique que cuando el sujeto empuja el botón, la recopilación de datos comenzará. Otro archivo Acquire.vei será automático mente aparece en la pantalla que trazar los datos entrantes. Los datos se muestrearon a 500 Hz.
  7. Cuando el experimento se ha completado, el ReadScript.vei se detendrá automáticamente. En este momento, vaya al directorio VisualEyes y busque el archivo Out1.txt. Cambie el nombre del archivo de lo contrario la próxima vez que el operador dirige el experimento, el archivo de datos se sobrescribe.

5. OFF-LINE análisis de datos:

  1. El operador puede analizar los datos mediante el uso de diferentes paquetes de software (es decir, MatLab o Excel). Latencia, la velocidad pico, o amplitud pueden ser de interés dependiendo del estudio.
    1. Un ejemplo de un código de análisis Matlab se proporciona en el directorio VisualEyes para trazar movimientos sacádicos, pasos de convergencia y rampas de convergencia. Los ejemplos de las sacadas conjunto, paso convergencia y rampa convergencia rastros de posición con las respuestas de velocidad correspondientes se muestran en la figura 5.

6. Los resultados representativos:

t "> Ejemplos del conjunto de los movimientos oculares grabados utilizando el Sistema VisualEyes se muestra en la Figura 5. típicos 10 ° movimientos sacádicos se muestran en la parcela 4A. Antisaccades son respuestas sacádicos cuando el sujeto se le dice que hacer una sacada en la dirección opuesta de . el estímulo visual y se muestran en la parcela 4B Esta es una tarea cognitivamente más exigente, por lo que se puede observar que la latencia o el momento de comenzar el movimiento es más largo para antisaccades (4B parcela) en comparación con las sacadas hacia un estímulo visual también llamado prosaccades (4A parcela). respuestas convergencia a 4 ° pasos se muestran en 4C y de convergencia respuestas parcela a 5 ° / s rampas estímulos se muestran en la parcela 4D. Cada traza es un movimiento de los ojos individuo en la fila superior es la posición denota en grados como función del tiempo. Los movimientos oculares se calibran en las unidades de grados, ángulos metros, o dioptrías prismáticas. Nuestra investigación utiliza grado de rotación. La fila inferior es la velocidad de trazado en ° / s como una función de tiempo que und es la velocidad del movimiento. La escala para cada conjunto de datos varía en función del movimiento.

Figura 1
Figura 1. Diagrama de flujo de los elementos clave para llevar a cabo un experimento oculomotor. Se muestran ejemplos de pasos necesarios para generar un estímulo usando el software VisualEyes y llevar a cabo un experimento de análisis de datos fuera de línea. La parte A muestra la ventana Pixel2Deg.vei. Parte B demuestra los cuatro parámetros necesarios para definir un estímulo. Parte C es la biblioteca de estímulos donde las líneas de texto en negro dentro de la biblioteca de estímulo son ejemplo estímulos archivos y el texto en rojo define cada línea. Parte D es un ejemplo de un protocolo de secuencia de comandos experimental.

Figura 2
Figura 2. Sistema VisualEyes haploscope experimental. Tres monitores CRT se utilizan: Se necesita 1) Un panel de control para ver los estímulos unrespuestas d 2) un monitor CRT para el ojo derecho (OD) estímulos visuales y 3) un monitor CRT el ojo izquierdo (OI) estímulos visuales. Un espejo semiplateados se coloca 30 cm de distancia de los dos monitores CRT estímulos visuales. Esto es para asegurar que los estímulos en los monitores CRT se proyectan en el espejo medio plateado (transmisión de 50% y 50% de reflectancia del espejo). El espejo permite al sujeto para ver los estímulos de las pantallas de ordenador superpuestas sobre objetivos situados a distancias medidas desde el sujeto que se necesita para la calibración. Con un haploscope, el alojamiento de la demanda para ambos ojos se mantiene constante. La distancia entre los ojos del sujeto y el espejo es de 10 cm. El sistema se puede ajustar para adaptarse a diferentes distancias inter-pupilar (DPI), pero para esta demostración que asumirá el IPD a ser de 6 cm.

Figura 3
Figura 3. Cálculos de sacádica (izquierda) y convergente (derecha) movimiento de los objetivos de A a B se muestran. IPD es la distancia inter-pupilar.

Figura 4
Figura 4. Curva de calibración del ojo izquierdo (arriba parcela) y el ojo derecho (parcela inferior) estímulo. Un procedimiento similar se llevaría a cabo para sacádicos o suaves estímulos persecución.

Figura 5
Figura 5. Ejemplos de movimientos sacádicos (A) antisaccades (B), las medidas de convergencia (C) y rampas de convergencia (D) que utilizan el sistema VisualEyes y analizados mediante un programa MATLAB personalizado. Rastros de posición de conjunto (° como una función del tiempo en segundos) se representan gráficamente en la fila superior, donde cada línea de color representa un movimiento de los ojos diferente. Las huellas correspondientes de velocidad (° / s como una función del tiempo en segundos).

0.5
Tipo de Estímulo Estímulo_Name_Left Eye.vei Stimulus_Name_Right_Eye.vei
Tiempo (s) posición x (pixel) y-posición (pixel) Rotación (°) Tiempo (s) posición x (pixel) y-posición (pixel) Rotación (°)
Smooth Persecución Rampa 0 100 0 0 0 100 0 0
10 200 0 0 10 200 0 0
Paso sacádica 0 100 0 0 0 100 0 0
100 0 0 0.5 100 0 0
0,501 200 0 0 0,501 200 0 0
3 200 0 0 3 200 0 0
Vergencia Rampa 0 452 0 0 0 973 0 0
10 370 0 0 10 1044 0 0
Vergencia Paso 0 452 0 0 0 973 0
0.5 452 0 0 0.5 973 0 0
0,501 416 0 0 0,501 1002 0 0
3 416 0 0 3 1002 0 0

Tabla 1. Ejemplo de Smooth Persecución Rampa, Paso sacádica, Vergencia Rampa y Vergencia Paso Estímulos

Función Sintaxis
ExpTrial Salida Buffer # = ExpTrial ("Longitud de los datos: LE Perfil: RE Perfil");
Ejemplo: 2 = ExpTrial ("13: 3: 3");
Output Buffer # = Exo Trial ("Longitud de los datos: LE Perfil: RE Perfil:. tempfile FLM");
Ejemplo: 2 = ExpTrial ("13: 3: 3: templfile.lwf");
Archivo_registro Salida Buffer # = Archivo_registro ("TEXT");
Ejemplo: 0 = archivo de registro ("Experimento 1");
0 = archivo de registro (Input Buffer #);
Ejemplo: 0 = archivo de registro (2);
TriggerWait 0 = TriggerWait (Número Buffer);
Ejemplo: 0 = TriggerWait (0);
RandomDelay 0 = RandomDelay ("t2: t1");
Ejemplo: 0 = RandomDelay ("2000: 500");
WaveMSD Salida Buffer # = WaveMSD (Input Buffer #);

Tabla 2. Funciones utiliza para escribir el Protocolo Experimental en el Programa VisualEyes

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Pasos críticos:

Monitores de movimientos de los ojos deben ajustar adecuadamente sobre el tema. Por ejemplo, los monitores de grabación movimiento de los ojos trabajan dentro de un rango y deben ajustarse al sujeto. Si el movimiento del ojo del sujeto va más allá de la gama, entonces el sistema se satura. Tras la saturación, la señal de movimiento de los ojos no es válido. La calibración también es crítica en la grabación de movimiento del ojo. Todos los monitores de movimiento de los ojos miden una señal analógica que es digitalizada y necesita ser convertido a las unidades comúnmente utilizadas en el ojo investigación movimiento tales como el grado de rotación. La linealidad del sistema evaluado a través de tres o más puntos de calibración también es importante para determinar si la transformación de la señal en grados se puede hacer usando un simple transformación lineal o necesita una transformación más compleja. También es importante señalar que se necesita la colocación adecuada de los monitores de ordenador y los objetivos físicos para alinear los estímulos visuales en el equipopantalla cuando se utiliza en un entorno haploscope.

Además, las instrucciones a los sujetos también son imprescindibles. Por ejemplo, para sistemas de vídeo o de seguimiento limbo un abrir y cerrar resultará en la pérdida de la señal; sin embargo, el operador no puede pedir una reserva de no parpadear para una larga duración. Instrucciones para el sujeto pueden facilitar cuando los operadores les gustaría que el tema a ver un nuevo objetivo para evitar parpadea durante la recolección de datos. Otro ejemplo de la importancia de las instrucciones se representa en una prosaccade frente a un experimento antisacádica. Para prosaccades el sujeto se ve en el objetivo en comparación con un experimento antisacádica donde el sujeto se ve en la dirección opuesta de la meta de estímulo.

Posibles modificaciones:

La fuerza del sistema VisualEyess es su flexibilidad. Varios estudios han publicado su software a medida para estimular estímulos sacádicos. 2,3,4,5 Sin embargo, hay muchos otros types de estudios oculomotores que uno puede desear para investigar tales como movimientos de seguimiento o de convergencia lisas. El Sistema VisualEyes permite para programar cada monitor independiente, por lo que el operador puede programar sacádicos, seguimiento lento o estímulos convergentes o cualquier combinación de los tres (sacádicos con estímulos convergentes por ejemplo). El fondo es una imagen estática que en la actualidad no se mueve pero la siguiente generación del software VisualEyes permitirá la imagen de fondo se mueva. La imagen en primer plano se puede mover horizontalmente, verticalmente o girar. La imagen predeterminada es una línea pero se puede cambiar a una distribución de la función gaussiana (DOG) de estímulo utilizado para reducir aún más un estímulo de acomodación o cualquier otra imagen. Además, la capacidad de programar las pantallas de ordenador permite de forma independiente para una mayor flexibilidad. Por ejemplo, foria se mide habitualmente como parámetro clínico, pero uno lo desea, puede grabarlo con un monitor de movimiento de los ojos. Phoria es la posición de reposo de un whil ojo ocluidoe el otro ojo tiene un estímulo. Hemos validado este método de medición de foria utilizando el Sistema VisualEyes. 6,7,8

Aplicaciones e importancia:

Ojo investigación movimiento puede proporcionar información importante para los científicos básicos y clínicos. También puede ser una herramienta para supervisar los trastornos neurológicos de la lesión cerebral traumática 9 a 10 a la distrofia muscular de la enfermedad de Alzheimer 11 a. 12 Esquizofrenia Se puede proporcionar información para el aprendizaje motor, mecanismos de atención 13, 14 o la memoria 15 para nombrar unas pocas aplicaciones. Por otra parte, se beneficia de una sólida base neurofisiología de las grabaciones de células individuales en primates1 no humano y pueden acoplarse con resonancia magnética funcional para estudiar simultáneamente la función del cerebro para entender las redes visual, la conectividad y las interacciones. 16

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

No hay conflictos de interés declarado.

Acknowledgments

Este trabajo fue apoyado en parte por un premio CAREER de la Fundación Nacional de Ciencia (BES-0447713) y de una donación de Essilor, Internacional.

References

  1. Leigh, R. J., Zee, D. S. The Neurology of Eye Movements. , 4th edn, Oxford University Press. (2006).
  2. Pruehsner, W. R., Enderle, J. D. The operating version of the Eye Tracker, a system to measure saccadic eye movements. Biomed Sci Instrum. 38, 113-118 (2002).
  3. Pruehsner, W. R., Liebler, C. M., Rodriguez-Campos, F., Enderle, J. D. The Eye Tracker System--a system to measure and record saccadic eye movements. Biomed Sci Instrum. 39, 208-213 (2003).
  4. Rufa, A. Video-based eye tracking: our experience with Advanced Stimuli Design for Eye Tracking software. Ann N Y Acad Sci. 1039, 575-579 (2005).
  5. Cornelissen, F. W., Peters, E. M., Palmer, J. The Eyelink Toolbox: eye tracking with MATLAB and the Psychophysics Toolbox. Behav Res Methods Instrum Comput. 34, 613-617 (2002).
  6. Han, S. J., Guo, Y., Granger-Donetti, B., Vicci, V. R., Alvarez, T. L. Quantification of heterophoria and phoria adaptation using an automated objective system compared to clinical methods. Ophthalmic Physiol Opt. 30, 95-107 (2010).
  7. Kim, E. H., Granger-Donetti, B., Vicci, V. R., Alvarez, T. L. The Relationship between Phoria and the Ratio of Convergence Peak Velocity to Divergence Peak Velocity. Invest Ophthalmol Vis Sci. , (2010).
  8. Lee, Y. Y., Granger-Donetti, B., Chang, C., Alvarez, T. L. Sustained convergence induced changes in phoria and divergence dynamics. Vision Res. 49, 2960-2972 (2009).
  9. Maruta, J., Suh, M., Niogi, S. N., Mukherjee, P., Ghajar, J. Visual tracking synchronization as a metric for concussion screening. J Head Trauma Rehabil. 25, 293-305 (2010).
  10. Osanai, R., Kinoshita, M., Hirose, K. Eye movement disorders in myotonic dystrophy type 1. Acta Otolaryngol Suppl. , 78-84 (2007).
  11. Kaufman, L. D., Pratt, J., Levine, B., Black, S. E. Antisaccades: a probe into the dorsolateral prefrontal cortex in Alzheimer's disease. A critical review. J Alzheimers Dis. 19, 781-793 (2010).
  12. Hannula, D. E. Use of Eye Movement Monitoring to Examine Item and Relational Memory in Schizophrenia. Biol Psychiatry. , (2010).
  13. Schubert, M. C., Zee, D. S. Saccade and vestibular ocular motor adaptation. Restor Neurol Neurosci. 28, 9-18 (2010).
  14. Noudoost, B., Chang, M. H., Steinmetz, N. A., Moore, T. Top-down control of visual attention. Curr Opin Neurobiol. 20, 183-190 (2010).
  15. Herwig, A., Beisert, M., Schneider, W. X. On the spatial interaction of visual working memory and attention: evidence for a global effect from memory-guided saccades. J Vis. 10, (2010).
  16. McDowell, J. E., Dyckman, K. A., Austin, B. P., Clementz, B. A. Neurophysiology and neuroanatomy of reflexive and volitional saccades: evidence from studies of humans. Brain Cogn. 68, 255-270 (2008).

Tags

Neurociencia número 49 del movimiento del ojo de grabación Neurociencia la estimulación visual sacádica Vergencia seguimiento visual la visión central Atención heteroforia

Erratum

Formal Correction: Erratum: VisualEyes: A Modular Software System for Oculomotor Experimentation
Posted by JoVE Editors on 05/11/2011. Citeable Link.

A correction was made to VisualEyes: A Modular Software System for Oculomotor Experimentation. There was an error in the authors, Eun H. Kim and Tara L. Alvarez, names. The author's names have been corrected to:

Eun H. Kim and Tara L. Alvarez

instead of:

Eun Kim and Tara Alvarez

VisualEyes: Un sistema de software modular para experimentación oculomotor
Play Video
PDF DOI

Cite this Article

Guo, Y., Kim, E. H., Alvarez, T. L.More

Guo, Y., Kim, E. H., Alvarez, T. L. VisualEyes: A Modular Software System for Oculomotor Experimentation. J. Vis. Exp. (49), e2530, doi:10.3791/2530 (2011).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter