Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Metodi per test visivo attenzione online

Published: February 19, 2015 doi: 10.3791/52470

Abstract

Metodi di raccolta dati online hanno particolare appello agli scienziati del comportamento, perché offrono la promessa di molto più grande e molto più campioni di dati rappresentativi che può essere normalmente raccolti nei campus universitari. Tuttavia, prima che tali metodi possono essere ampiamente adottati, una serie di sfide tecnologiche deve essere superato - in particolare negli esperimenti in cui è necessario uno stretto controllo sulle proprietà di stimolo. Qui vi presentiamo i metodi per la raccolta di dati sulle prestazioni su due prove di attenzione visiva. Entrambi i test richiedono controllo sul angolo visivo degli stimoli (che a sua volta richiede la conoscenza della distanza di osservazione, dimensione del monitor, risoluzione dello schermo, etc.) e la sincronizzazione degli stimoli (come le prove coinvolgono sia brevemente lampo stimoli o stimoli che si muovono a tassi specifici). I dati raccolti in questi test da oltre 1.700 partecipanti in linea erano coerenti con i dati raccolti in versioni di laboratorio degli stessi esatti test. Questi risultatisuggeriscono che con la cura adeguata, taglia i tempi / stimolo attività dipendenti possono essere distribuiti in ambienti web-based.

Introduction

Negli ultimi cinque anni c'è stato un aumento di interesse per l'uso di metodi comportamentali in linea di raccolta dei dati. Mentre la stragrande maggioranza delle pubblicazioni nel campo della psicologia hanno utilizzato le popolazioni potenzialmente non rappresentativi soggetto 1 (vale a dire, principalmente studenti universitari) e spesso ragionevolmente campioni di piccole dimensioni così (cioè, tipicamente nella gamma di decine di soggetti), metodi in linea offrono la promessa di gran lunga più diverse e più grandi campioni. Per esempio, il servizio Mechanical Turk di Amazon è stata oggetto di numerosi studi recenti, sia che descrive le caratteristiche della popolazione "lavoratore" e l'utilizzo di questa popolazione nella ricerca comportamentale 2-6.

Tuttavia, un problema significativo relative a tali metodi è la relativa mancanza di controllo sulle variabili di stimolo critiche. Ad esempio, nella maggior parte dei compiti visivi psicofisici, stimoli sono descritti in termini diangolo visivo. Il calcolo degli angoli visuali richiede misure precise di distanza di visione, dimensioni dello schermo e la risoluzione dello schermo. Mentre questi parametri sono banali per misurare e controllo in un ambiente di laboratorio (dove c'è un monitor chiamata e partecipanti visualizzare stimoli mentre in una mentoniera posta una distanza nota dal monitor), lo stesso non è vero per la raccolta di dati in linea. In un ambiente online, non solo i partecipanti inevitabilmente utilizzare una vasta gamma di monitor di diverse dimensioni con impostazioni software differenti, anche non possono avere facile accesso ai governanti / nastro misure che avrebbe permesso loro di determinare la loro dimensione del monitor o avere le conoscenze necessarie per determinare le impostazioni software e hardware (ad esempio, la frequenza di aggiornamento, risoluzione).

Qui si descrive una serie di metodi per raccogliere i dati su due prove ben noti di attenzione visiva - il campo utile di View (UFOV) paradigma 7 e l'oggetto più tracking (MOT) compito (ad esempio, carta di credito / CD - vedi Figura 1).

I dati su queste due attività sono stati raccolti da oltre 1.700 partecipanti in un Massive linea Open Course. Performance media di questo campione on-line è stato molto coerente con i risultati ottenuti in misure di laboratorio strettamente controllate degli esatti compiti stessi 9,10. I nostri risultati sono quindi coerenti con la crescente corpo di letteratura che dimostrano l'efficacia dei metodi di raccolta dati on-line, anche in compiti che richiedono un controllo specifico su condizioni di visione.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Il protocollo è stato approvato dal comitato istituzionale di revisione presso la University of Wisconsin-Madison. I seguenti punti sono stati scritti come una guida per i programmatori di replicare il processo automatizzato dell'applicazione web descritto.

1. Accesso partecipante

  1. Istruire il partecipante di utilizzare un computer con connessione internet-enabled e passare all'applicazione Web utilizzando un browser compatibile HTML5: http://brainandlearning.org/jove . Avere il partecipante sedere in una stanza tranquilla priva di distrazioni, con il computer ad una altezza confortevole.
    NOTA: Dal momento che l'intero esperimento è ospitato in linea, le attività possono essere eseguite anche da remoto senza la presenza di un assistente di ricerca. Tutte le istruzioni per il partecipante è incluso nell'applicazione web.
  2. Hanno l'ingresso partecipante un ID univoco che verrà associato con i dati raccolti e conservati in un databas MySQLe. Avere il partecipante riutilizzare questo ID se i compiti in linea non vengono completate entro la stessa sessione. Prima di accedere in, ottenere il consenso dal partecipante attraverso un modulo di consenso legato sulla pagina.
    NOTA: i progressi di un partecipante viene salvato dopo ogni attività al fine di consentire il completamento delle 2 compiti a volte separate, se necessario. Istruzioni al partecipante di utilizzare sempre lo stesso ID per iniziare dove si era interrotto.

Calibrazione 2. Schermo

NOTA: L'applicazione web guida il partecipante attraverso le tre fasi descritte nella pagina di calibrazione a: http://brainandlearning.org/jove/Calibration .

  1. Chiedere al partecipante di inserire la dimensione diagonale dello schermo in pollici nella casella di testo etichetta.
    1. Tuttavia, se il partecipante non conosce questa informazione, avere il partecipante trovare un CD o carta di credito come oggetto calibrazione (
    2. Chiede ai partecipanti di regolare le dimensioni dell'immagine sullo schermo in base alle dimensioni dell'oggetto fisico. Sulla base delle misurazioni di un CD fisico (diametro 4,7 ") o una carta di credito (larghezza di 3,2") in aggiunta alla dimensione pixel della immagine rappresentativa, determinare il rapporto di pixel per pollici per lo schermo.
    3. Recuperare la risoluzione in pixel del monitor via Screen.Width e Screen.Height proprietà di JavaScript per poi calcolare la dimensione diagonale dello schermo in pixel. Sapendo questo valore e il precedentemente stimato rapporto pixel-per-inch (vedi punto 2.1.2), convertire il diagonale in pollici. Avere il partecipante confermare questo valore tramite una finestra di dialogo.
  2. Chiede ai partecipanti di regolare lo schermo brighImpostazioni tness fino tutte le 12 band in un gradiente dal nero al bianco visualizzati sullo schermo sono chiaramente distinguibili. Controlli impostazione della luminosità variano a seconda del computer.
  3. Chiedere al partecipante di sedere distanza di un braccio di distanza dal monitor in una posizione comoda e quindi impostare la finestra del browser in modalità a schermo intero. La finestra del browser deve essere in modalità a schermo intero per massimizzare lo spazio visivo utilizzato dai compiti e per rimuovere eventuali distrazioni visive, come la barra degli strumenti del browser e barre delle applicazioni desktop.
  4. Conoscendo la risoluzione dello schermo del partecipante e la diagonale del monitor, utilizzare l'applicazione web per calcolare automaticamente il valore di conversione pixel / grado, sulla base di una distanza di visione 50 centimetri. Ridimensionare le dimensioni degli stimoli nelle attività utilizzando questo valore. Tutte le dimensioni angolari visive riportate di seguito sono basate su questo assunto valore distanza media dal monitor.
  5. Una volta completata la calibrazione, chiedere al partecipante di completare la due compiti describcato di seguito. Scegliere l'ordine dei compiti o assegnare a caso l'ordine tramite l'applicazione web.

3. multiplo Object tracking Task (MOT) - Figura 2

  1. Introdurre e conoscere il partecipante con gli stimoli MOT attraverso un tutorial autoguidato, visti a: http://brainandlearning.org/jove/MOT/practice.php . Chiedere al partecipante di leggere le istruzioni passo-passo che dimostrano come le prove funzioneranno. Una volta che il partecipante ha terminato la lettura delle istruzioni, chiederà ai partecipanti di passare attraverso le prove pratiche.
    1. Setup gli stimoli di pratica per consistono di 8 punti a 0,8 ° con una velocità di movimento di 2 ° / sec. Utilizzare l'HTML5 requestAnimationFrame API per ottimizzare l'animazione del browser in un frame rate di 60 Hz per controllare questo movimento di stimolo.
    2. Assicurarsi che i punti si muovono entro i confini di un cerchio di 2 ° eccentricità e circle non più grande di l'altezza dello schermo del partecipante, senza le istruzioni oscurati.
    3. Impostare i punti di muoversi in una traiettoria a caso, in cui ad ogni fotogramma un punto ha una probabilità del 60% di cambiare la direzione di un angolo massimo di 0,2 °. Se un punto scontra con un altro punto o limiti radiali interni o esterni, spostare il punto nella direzione opposta.
    4. Chiede ai partecipanti di seguire i punti blu (variabile tra 1 e 2 punti per prova pratica), con i punti gialli in qualità di distrattori.
    5. Dopo 2 sec, modificare i punti blu a puntini gialli e continuare a spostarli tra i punti gialli originali per altri 4 sec. Alla fine di ogni prova, arrestare i puntini ed evidenziare uno.
    6. Chiede ai partecipanti di rispondere tramite pressione di un tasto se il punto evidenziato è stato un punto cingolato o un punto distrattore. Avanti, chiederà ai partecipanti di premere la barra spaziatrice per continuare sulla prova successiva.
    7. Dopo 3 prove corrette consecutive, o un massimo di 6 prove, move la partecipante sul compito completo.
  2. Avviare il task MOT per il partecipante. Un esempio di attività è disponibile all'indirizzo: http://brainandlearning.org/jove/MOT .
    1. Setup il task con 16 punti che si muovono a 5 ° / sec nello spazio tra 2 ° e 10 ° di eccentricità eccentricità. Se lo schermo del partecipante non può andare bene un cerchio di 10 ° eccentricità, utilizzare la dimensione massima dello schermo può contenere invece.
    2. Avere il partecipante completare un totale di 45 prove: una miscela di 5 studi composti da 1 dot tracciati e 10 prove ognuno composto da 2 - 5 punti monitorati. Abbina tutti gli altri parametri alle prove pratiche (vedi i punti 3.1.3 - 3.1.6).
    3. Registrare la risposta e tempo di risposta del partecipante, una volta il punto è evidenziato.
    4. Per ogni 15 prove, suggerire una pausa per il partecipante. A queste interruzioni, visualizzare il partecipante7; s prestazioni (per cento di prove corrette) all'interno del blocco sullo schermo.

4. Passare da un compito all'altro (Passo opzionale)

  1. Lasciare che il partecipante di prendere una pausa tra le due attività. Tuttavia, ripetere i punti 1 e 2 se i compiti non sono stati completati nel corso della stessa sessione di login.

5. Campo Utili di Vista Task (UFOV) - Figura 3

  1. Introdurre e conoscere il partecipante con gli stimoli UFOV attraverso un tutorial autoguidato, visti a: http://brainandlearning.org/jove/UFOV/practice.php . Chiedere al partecipante di passare attraverso 4 fasi di istruzioni passo-passo che dimostrano i due stimoli bersaglio che deve essere assistito da durante il compito.
    1. Impostare la porta stimolo centrale come smiley 1 ° che lampeggia al centro dello schermo sia con i capelli lunghi o corti. Randomize lalunghezza dei capelli di smiley in tutti gli studi.
    2. Impostare il target stimolo periferico come una stella 1 ° che lampeggia a 4 ° eccentricità in una delle 8 sedi in tutto il cerchio (0 °, 45 °, 90 °, 135 °, 180 °, 225 °, 270 °, 315 ° e) . Randomize la posizione della stella in tutti gli studi.
    3. Controllo dello stimolo della durata tramite il numero di fotogrammi utilizzati per tempo di presentazione. Ottimizzare aggiornamento dei fotogrammi a circa 17 msec per frame utilizzando l'API HTML5 requestAnimationFrame.
    4. Per verificare se il tempo di presentazione previsto è stato raggiunto, utilizzare il metodo getTime di JavaScript () per ottenere l'orario di inizio e di fine della durata del stimolo in base all'orologio di sistema del partecipante. Calcolare il tempo di presentazione misurata da questi due valori e utilizzare questo valore per l'analisi dei dati.
    5. Per ogni prova pratica, attendere 500 msec prima di visualizzare gli stimoli per circa 200 msec (circa 12 fotogrammi).
    6. Segui stimolo presentazione con una maschera di rumore composto da una matrice di punti scala di grigi generata casualmente per 320 msec (circa 19 fotogrammi).
    7. Per la fase 1, solo visualizzare il target centrale e quindi chiederà ai partecipanti di rispondere tramite pressione di un tasto che è stato visualizzato lunghezza dei capelli.
    8. Per la fase 2, solo visualizzare il target periferica e quindi chiederà ai partecipanti di cliccare su una delle 8 linee radiali, in rappresentanza delle 8 possibili località di destinazione, per indicare dove era apparsa la stella.
    9. Per la fase 3, visualizzare sia gli stimoli centrali e periferici di destinazione e quindi chiederà ai partecipanti di fornire risposte sia per il tipo di smiley e la posizione della stella.
      NOTA: I partecipanti possono scegliere liberamente l'ordine di queste due risposte.
    10. Per la fase 4, visualizzare sia stimoli target oltre a distrattori periferici, e quindi chiederà ai partecipanti di rispondere a entrambi gli stimoli bersaglio. Per i distrattori, visualizzazione 1 ° piazze presentati nelle restanti 7 punti a 4 ° eccentricità, in Oltre a 8 più quadrati a 2 ° eccentricità.
    11. Dopo la risposta del partecipante, mostrare il feedback dei partecipanti (un segno di spunta verde per una risposta corretta o una croce rossa per una risposta non corretta) per ogni risposta bersaglio dopo ogni prova.
    12. Spostare il partecipante sul palco pratica successiva dopo aver ottenuto 3 prove corrette consecutive. Dopo la fase 4, spostare il partecipante sul compito completo.
  2. Chiede ai partecipanti di avviare l'attività piena UFOV. Un esempio di attività è disponibile all'indirizzo: http://brainandlearning.org/jove/UFOV .
    1. Presentare lo stesso stimolo centrale come nella sessione di prove libere (vedi punto 5.1.1). Visualizzare il bersaglio periferico a 7 ° eccentricità in uno dei già citati 8 posizioni (vedi punto 5.1.2). 24 distrattori piazze sono anche esposti a 3 ° eccentricità, 5 ° eccentricità, e le restanti 7 °posizioni eccentricità.
    2. Utilizzare un 3-down, Procedura 1-up scala per determinare il tempo di presentazione degli stimoli: diminuire la durata degli stimoli dopo 3 prove corrette consecutive e aumentare dopo ogni prova di errore.
    3. Prima che i primi 3 capovolgimenti di scala, utilizzare un passo di 2 fotogrammi (circa ogni 33 msec). Dopo 3 inversioni, utilizzare un passo di 1 fotogramma. Variare il ritardo prima della comparsa dello stimolo tra 1 telaio e 99 fotogrammi al processo, e mantenere la durata della mascheratura rumore a 320 msec (circa 19 fotogrammi).
      NOTA: ripristini sono i punti in cui la durata cambia sia da aumentare a diminuire, o diminuendo ad aumentare.
    4. Terminare il compito quando una delle tre condizioni: la procedura scalinata raggiunge 8 inversioni; il partecipante compie 10 prove consecutive alle due della durata soffitto (99 fotogrammi) o la durata pavimento (1 fotogramma); o il partecipante raggiunge un massimo di 72 prove.
    5. Registrare r del partecipanteesponse e tempo di risposta sia per lo stimolo centrale e lo stimolo periferico.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Rimozione Outlier

Un totale di 1.779 partecipanti ha completato l'operazione UFOV. Di questi, 32 partecipanti hanno avuto soglie UFOV che erano più di 3 deviazioni standard dalla media, suggerendo che non erano in grado di svolgere l'attività secondo le istruzioni. Come tali, i dati UFOV da questi partecipanti sono stati rimossi dalla ultima analisi, lasciando un totale di 1.747 partecipanti.

I dati sono stati ottenuti da 1.746 partecipanti per l'attività MOT. Due partecipanti hanno avuto punteggi medi di precisione che sono stati più di 3 deviazioni standard sotto la media, quindi i dati di questi partecipanti sono stati rimossi dalla ultima analisi MOT, lasciando per un totale di 1.744 partecipanti.

UFOV

Per l'attività UFOV, performance è stata calcolata la media del tempo di presentazione negli ultimi 5 studi per ottenere una soglia di rilevamento. Il tempo di presentazione riflette la presentazione dello stimolo misurato durazione sullo schermo di ogni partecipante: il tempo dall'inizio del primo fotogramma di stimolo fino alla fine l'ultimo fotogramma di stimolo è stato registrato in millisecondi utilizzando l'orologio di sistema del partecipante. La soglia di rilevazione riflette la durata minima di presentazione in cui i partecipanti in grado di rilevare il bersaglio periferico con circa il 79% di precisione, dato il nostro uso di un 3-down, 1-up Procedura scala. La soglia media UFOV era 64,7 msec (SD = 53.5, 95% CI [62.17, 67.19]) e punteggi variava da 17 msec a 315 msec con una soglia media di 45 msec (vedi figura 4). La distribuzione soglia era positivamente distorta, con asimmetria di 1,92 (SE = 0,06) e curtosi di 3,93 (SE = 0,12).

MOT

Prestazioni MOT è stato misurato calcolando la precisione media (corretta per cento) per ogni dimensione set (1 - 5). Precisione variava 0,4-1,0 per dimensione set 1 per 0,1 - 1,0 per dimensione set 5, e Accur mediaacy variava da 0,99 (DS = 0,06, 95% CI [0,983, 0,989]) per la dimensione set 1-0,71 (SD = 0,17, 95% CI [0.700, 0,716]) per la dimensione set 5. I punteggi mediani di precisione variavano da 1,0 a 0,70 per dimensioni set 1 e 5, rispettivamente (vedere la Figura 5).

A ripetute-misure ANOVA è stato condotto per valutare se la precisione differiva in funzione della dimensione set. C'è stato un significativo effetto principale di dimensioni set (F (4, 6968) = 1.574,70, p <0.001 N ρ 2 = 0,475) in modo che la precisione è diminuita la dimensione set aumentata, dimostrando un tipico effetto MOT.

Figura 1
Figura 1. Misura dello schermo. Perché non tutti i partecipanti in linea conoscere la loro dimensione dello schermo - o avere un facile accesso a una misura di righello / nastro per valutare la loro dimensione dello schermo - ilprocesso di calibrazione chiesto soggetti di utilizzare oggetti comunemente disponibili di dimensioni standard (carta di credito - al di sopra; CD - di seguito). Clicca qui per vedere una versione più grande di questa figura.

Figura 2
Figura 2. MOT Task. I partecipanti hanno una serie di punti in movimento in modo casuale. Alla comparsa di prova, un sottoinsieme di questi punti era blu (target), mentre il resto fosse giallo (distrattori). Dopo 2 secondi il bersaglio blu puntini cambiato in giallo, che li rende visivamente indistinguibile dai distrattori. I partecipanti hanno dovuto seguire mentalmente il bersaglio in precedenza blu puntini per 4 secondi fino a quando è apparsa una schermata di risposta. In questa schermata uno dei punti era bianco e il soggetto ha fatto un "sì (questo era uno degli obiettivi di base)"; o "no (questo non era uno degli obiettivi di base)" decisione (premendo un tasto). Cliccate qui per vedere una versione più grande di questa figura.

Figura 3
Figura 3. UFOV Task. La schermata principale consisteva in uno stimolo centrale (uno smiley giallo che potrebbe avere sia breve o capelli lunghi), uno stimolo periferico (una stella bianca riempita all'interno di un cerchio) e distrattori periferici (bianco delineati quadrati). Questo schermo è stato brevemente lampo (con i tempi determinati adattivo basato sulle prestazioni dei partecipanti). Quando apparve la schermata di risposta del partecipante ha dovuto fare due risposte: dovevano indicare (con una pressione di un tasto) se il smiley aveva i capelli lunghi o corti e hanno dovuto indicare (facendo clic) su cui dell'8 radiale razzes stimolo bersaglio apparso. Hanno poi ricevuto un feedback su entrambe le risposte (qui hanno scelto la risposta corretta per il compito centrale, ma la risposta non corretta per l'attività periferica). Cliccate qui per vedere una versione più grande di questa figura.

Figura 4
Figura 4. UFOV risultati. Come risulta dalla istogramma di prestazioni soggetto, non solo potevano la stragrande maggioranza dei partecipanti svolgono l'attività come indicato (~ 1% rimossa per scarso rendimento / outlier), la performance media è stata esattamente nella gamma ci si aspetta da misure basate laboratorio sullo stesso identico compito 9.

Figura 5
Figura 5. MOT risultati. Coerentemente con il lavoro precedente 10, accuratezza MOT caduto senza problemi con l'aumento delle dimensioni set.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

La raccolta di dati on-line ha un certo numero di vantaggi rispetto raccolta dati standard in laboratorio. Questi includono la possibilità di assaggiare molto più popolazioni rappresentativi del tipico collegio piscina laurea utilizzato nel campo, e la capacità di ottenere ben maggiori dimensioni del campione in meno tempo di quello necessario per ottenere le dimensioni del campione che sono un ordine di grandezza più piccola in laboratorio 1-6 (per esempio, i punti di dati raccolti da 1,700+ partecipanti alla carta corrente sono stati ottenuti in meno di una settimana).

I metodi in linea descritti sono stati in grado di replicare i risultati ottenuti dagli studi basate su laboratori condotti in precedenza: i mezzi e gli intervalli calcolati per soglie UFOV e precisione MOT nei compiti in linea sono stati paragonabili ai risultati riportati da Dye e Bavelier 9 per l'attività UFOV e Green e Bavelier 10 per l'attività MOT. Tuttavia, la grande campione partecipante ha avuto un impatto sulla distribuzione dii risultati, soprattutto nel compito UFOV. La distribuzione online soglia UFOV era più giusto distorta che di laboratorio precedenti risultati 9. Questa differenza di inclinazione può essere attribuito alla maggiore diversità dei partecipanti reclutati in linea, in particolare per quanto riguarda la loro variazione più ampia di età: campione linea tra 18 - 70 anni di, mentre il campione in laboratorio variava 18-22 anni e 9.

Inoltre, la raccolta di dati attraverso metodi on-line non richiede di risolvere diversi problemi tecnici - in particolare quando uno stretto controllo dello stimolo è necessario per la validità delle misure. I due compiti impiegati qui tenuti controllo sia l'angolo visuale degli stimoli che sono stati presentati e la tempistica degli stimoli. Angolo visivo in particolare, può essere difficile da controllare in ambienti on-line come il calcolo richiede la conoscenza distanza di visualizzazione, dimensioni del monitor, e la risoluzione dello schermo. Ciò è particolarmente problematico in tha molti partecipanti online non può conoscere la loro dimensione del monitor o di avere un facile accesso a una misura di nastro per misurare la dimensione del monitor.

Abbiamo ideato una serie di misure per superare alcuni di questi problemi. Mentre possiamo risolvere perfettamente dimensioni del monitor, non siamo ancora in grado di controllare con precisione la distanza effettiva di visualizzazione. Si consiglia ai partecipanti di sedersi distanza di un braccio di distanza dal monitor, anche se tale distanza può variare tra i partecipanti. Lunghezza braccio è stato scelto, come US dati antropometrici indica che la differenza di lunghezza di un braccio di portata avanti (la posizione in cui i partecipanti avrebbero usato per valutare la loro distanza dallo schermo) tra maschio e femmina adulti è piccolo, tale che il maschio mediana portata è 63,8 centimetri, mentre il femminile di portata media è di 62,5 cm 11. Anche se la procedura di installazione esperimento cerca di evitare di introdurre distorsioni sessuali utilizzando questa misura, ci possono essere potenziali distorsioni di altezza; studi futuri che raccolgono partecipanti &# 8217; Informazioni altezza dovrebbe essere effettuata per valutare questa possibilità.

Per quanto riguarda i tempi di stimolo, abbiamo preso in considerazione le differenze tra la durata prevista e durata della registrazione di presentazione dello stimolo nel calcolo dei valori di soglia. Piuttosto che fare affidamento sulla durata prevista presentazione, abbiamo misurato la durata dei telai di stimolo con l'orologio di sistema del partecipante con precisione micrometrica. Tuttavia, le disparità intrinseche tra monitor visualizza erano ancora presenti e non possono essere controllati perché senza fisica misure in situ. È ben noto che Liquid Crystal Display (LCD) - la più probabile monitora nostri partecipanti hanno accesso da avere tempi di risposta lunghi che tipicamente variano a seconda dei valori di inizio e fine dei cambiamenti di luminanza dei pixel. Quest'ultimo aspetto non è un problema nel nostro studio perché abbiamo sempre passati dallo stesso livello di fondo di stimolo livello. Una maggiore preoccupazione è che varicapacità nei display attraverso partecipanti provoca una grande porzione della varianza misurata. Noi crediamo che questo non è un problema in quanto i tempi di risposta dei pixel sono in genere inferiori a 1 frame rate (ad esempio, 17 msec) 12,13, che sembra accettabile in confronto alla grande variabilità individuale tra di soglie UFOV.

I metodi impiegati qui superare le sfide di cui sopra e, quindi, ci ha permesso di misurare le prestazioni su due compiti - la UFOV e MOT - che entrambi richiedono il controllo su angolo di visuale dello schermo e temporizzazione proprietà. I risultati ottenuti con questi metodi erano coerenti con quelli ottenuti in laboratorio standard, dimostrando così la loro validità. Inoltre, poiché questi compiti richiedono solo una connessione internet e un browser compatibile HTML5, queste attività possono essere utilizzati non solo per raccogliere facilmente un ampio campione di popolazione generale rappresentante, ma possono anche essere utilizzati per raggiungere specifici sottotipi di individuals che possono essere separati geograficamente e dunque difficili da portare a un ambiente di laboratorio comune (ad esempio, i pazienti con un certo tipo di malattia o di individui con una certa origine etnica). Inoltre, con l'aumento di uso di iPads e altre pasticche, il design della applicazione web potrebbe facilmente essere adattata per una migliore compatibilità con tecnologia touchscreen per raggiungere un numero ancora maggiore di partecipanti. Mentre l'applicazione web può attualmente funzionare su tablet tramite un browser HTML5, iterazioni futuri potrebbero rimuovere il requisito di una tastiera e sostituire le chiavi di risposta con pulsanti di interfaccia o gesti.

Subscription Required. Please recommend JoVE to your librarian.

Materials

Name Company Catalog Number Comments
Computer/tablet It must have an internet connection and an HTML5 compatible browser
CD or credit card May not be needed if participant already knows the monitor size

DOWNLOAD MATERIALS LIST

References

  1. Henrich, J., Heine, S. J., Norenzayan, A. The weirdest people in the world. The Behavioral And Brain Sciences. 33, 61-135 (2010).
  2. Buhrmester, M., Kwang, T., Gosling, S. D. Amazon's Mechanical Turk: A new source of inexpensive, yet high-quality, data. Perspectives on Psychological Science. 6 (1), 3-5 (2011).
  3. Goodman, J. K., Cryder, C. E., Cheema, A. Data collection in a flat world: the strengths and weaknesses of mechanical turk samples. Journal of Behavioral Decision Making. 26 (3), 213-224 (2013).
  4. Mason, W., Suri, S. Conducting behavioral research on Amazon's Mechanical Turk. Behavior Research Methods. 44 (1), 1-23 (2012).
  5. Crump, M. J., McDonnell, J. V., Gureckis, T. M. Evaluating Amazon's Mechanical Turk as a tool for experimental behavioral research. PLoS One. 8, e57410 (1371).
  6. Lupyan, G. The difficulties of executing simple algorithms: why brains make mistakes computers don't. Cognition. 129, 615-636 (2013).
  7. Ball, K., Owsley, C. The useful field of view test: a new technique for evaluating age-related declines in visual function. J Am Optom Assoc. 64 (1), 71-79 (1993).
  8. Pylyshyn, Z. W., Storm, R. W. Tracking multiple independent targets: Evidence for a parallel tracking mechanism. Spatial Vision. 3 (3), 179-197 (1988).
  9. Dye, M. W. G., Bavelier, D. Differential development of visual attention skills in school-age children. Vision Research. 50 (4), 452-459 (2010).
  10. Green, C. S., Bavelier, D. Enumeration versus multiple object tracking: The case of action video game players. Cognition. 101 (1), 217-245 (2006).
  11. Chapter 1. Kodak Company. Ergonomics Design Philosophy. Kodak’s Ergonomic Design for People at Work. Chengalur, S. N., Rodgers, S. H., Bernard, T. E. , 2nd Edition, John Wiley & Sons, Inc. Hoboken, NJ. (2004).
  12. Elze, T., Bex, P. P1-7: Modern display technology in vision science: Assessment of OLED and LCD monitors for visual experiments. i-Perception. 3 (9), 621 (2012).
  13. Elze, T., Tanner, T. G. Temporal Properties of Liquid Crystal Displays: Implications for Vision Science Experiments. PLoS One. 7 (9), e44048 (2012).

Tags

Comportamento Behavior attenzione visiva la valutazione basata sul Web valutazione basata su computer ricerca visiva il monitoraggio multiplo oggetto
Metodi per test visivo attenzione online
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Yung, A., Cardoso-Leite, P., Dale,More

Yung, A., Cardoso-Leite, P., Dale, G., Bavelier, D., Green, C. S. Methods to Test Visual Attention Online. J. Vis. Exp. (96), e52470, doi:10.3791/52470 (2015).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter