Formålet med protokollen er at præcisere, hvordan man indsamler video data til brug i laboratoriet. hvordan man registrerer Eye-tracking data af deltagerne kigger på data, og hvordan man effektivt analysere indholdet af de videoer, de var på udkig på ved hjælp af en maskine indlæringsteknik.
Som individer i stigende grad bor i byerne, metoder til at studere deres daglige bevægelser og de data, der kan indsamles bliver vigtige og værdifulde. Eye-tracking informatik er kendt for at forbinde til en række følelser, sundhedsmæssige betingelser, mentale tilstande og handlinger. Men fordi vision er resultatet af konstante øjenbevægelser, drilleri ud af, hvad der er vigtigt fra, hvad der er støj er kompleks og dataintensive. Desuden er en betydelig udfordring at kontrollere, hvad folk ser på i forhold til, hvad der præsenteres for dem.
Følgende præsenterer en metode til at kombinere og analysere Eye-tracking på en video af en naturlig og kompleks scene med en maskine indlæringsteknik til at analysere indholdet af videoen. I protokollen fokuserer vi på at analysere data fra filmede videoer, hvordan en video bedst kan bruges til at registrere deltagernes Eye-tracking data, og vigtigere, hvordan indholdet af videoen kan analyseres og kombineres med Eye-tracking data. Vi præsenterer et kort resumé af resultaterne og en diskussion af potentialet i metoden til yderligere undersøgelser i komplekse miljøer.
Vores daglige levede oplevelser af bymiljøer har stor indflydelse på vores sundhed og velvære. Vores velbefindende kan afhænge af mængden af grønne områder, som vi ser og oplever1,2,3, og disse synspunkter kan kvantificeres ved hjælp Eye-tracking udstyr til at guide beslutningsprocessen om Park design. Der opstår dog et problem med mængden af øjesporings data, der genereres, og som giver mening for disse data. Da udstyret til registrering af blik data i et laboratorium eller en naturlig indstilling bliver lettere at bruge og mere kraftfuld, skal forskerne overveje, hvordan vi kan indsamle og analysere data gyldigt for at hjælpe med beslutningstagende spørgsmål.
Hidtil har en stor del af øjet tracking forskning brugt fotografier i en undersøgelse eller laboratorium indstilling4. Mens denne metode giver mulighed for en stor reproducerbarhed og kontrol over resultater, er det ikke i stand til at drage fordel af de seneste fremskridt inden for Eye-tracking-teknologi, som omfatter brugen af video og bærbare mobile Eye-trackers. Desuden vil vi hævde, at den handling at gå og slappe af, er nødvendigvis dynamisk, især når de er orienteret mod en opgave som Wayfinding5. Derfor bør en fuldstændig videnskabelig forståelse af disse indstillinger finde sted uden for laboratoriet. Men i øjeblikket, Eye-tracking i en Real-Life naturalistiske indstilling gør at sammenligne erfaringer mellem meget vanskeligt. For eksempel, hvis vi ønskede at sammenligne, om en respondent ser på træer mere end en anden, hvordan kunne vi kontrollere for det faktum, at deres synspunkt ville være i konstant forandring i forhold til andre, eller at deres hoved kunne have vendt. Detaljeret analyse i disse betingelser er næsten umulig med aktuelle analyseteknikker. Vi vil hævde, at det er vigtigt at kontrollere de visningsområder til rådighed for den enkelte, der undersøges, og i analysen for at kunne tage højde for den samlede scene bliver set på et tidspunkt.
Der er et sæt af teorier forbinder stress niveauer og opfattelser af sikkerhed til landskabet synspunkter og veludviklede målinger af stress6,7. Der har også været en hurtig stigning i den sofistikerede Eye-tracking udstyr til at måle blik8. Eye-tracking er vigtigt, fordi ufrivillige øjenbevægelser kan være mere pålideligt forbundet til præference, stress og andre traditionelle foranstaltninger end undersøgelser og påtrængende, fysiologiske tests såsom spyt kortisolniveauer. Formålet med denne forskning er at udvikle værktøjer, der muliggør en mere præcis måling af Eye-tracking data anvendes til mere naturalistiske indstillinger, for at give yderligere dokumentation for eller gendelte langvarige landskab teorier, der har informeret Park design for Årtier.
Formålet med dette projekt er at udvikle og afprøve en ny analyseteknik, der kan generere relevante Eye-tracking data for forskellige videoer af Park Walk simuleringer. Vores arbejde rapporteret her og andre steder9 repræsenterer en halvvejs punkt mellem den naturalistiske indstilling af et fuldt mobilt Eye-tracking system og lab-baserede foto undersøgelser nævnt ovenfor. Især koncentrerer vi os om at bruge videoer som stimulus materiale, undersøge, hvordan dette materiale kan bruges til at teste mængden af fascination, at forskellige parker generere i byen Melbourne. Vores arbejde er baseret på den antagelse, at detaljeret analyse af videoer er et nødvendigt skridt til at bryde, før der gennemfører en fyldigere og mere naturalistisk vurdering af potentialet i parker til at give restaurering fra stress.
I denne undersøgelse, vi ansat en desktop Eye-tracker med videoer af gåture gennem byparker og spurgte deltagerne til at forestille sig, at de tog en afslappende gåtur gennem en Park. Vi beskriver en metode til at tillade den tid, som deltagerne brugte på at se på forskellige objekter, at være sammenlignelige mellem parkerne. Desktop undersøgelser er generelt lettere at kontrollere i forhold til mobile ET undersøgelser og tillade sammenlignende analyse af hvert emne.
Standard Eye-tracking software bruger et manuelt område af interesse værktøj, hvor en operatør kan manuelt trække grænser omkring objekter af interesse i hver scene. Dette gør det muligt at tælle den tid, som deltagerne har brugt på at se på forskellige objekter, automatisk. For video data er denne proces arbejdskraftintensiv og underlagt operatørens subjektivitet og fejl. I senere versioner af Eye-tracking analyse software, kan AOIs automatisk spore objekter på tværs af frames, når de har samme størrelse i videoen. Dette er en forbedring, men dette er kun beregnet til at blive brugt til et lille antal stimuli i hvert billede, og hvert billede skal kontrolleres og bekræftes.
Manuel mærkning af objekter i et billede er almindeligt og understøttes af billedredigeringssoftware som GNU Image manipulation program (GIMP). I betragtning af at 1 s producerer 30 billeder eller billeder, er den manuelle mærkning af videoer upraktisk. Desuden er AOI mærkning ved at tegne vektor polygoner omkring kanten af komplekse objekter såsom træ baldakiner er meget tidskrævende. Endelig, selv om det er tænkes muligt at beregne størrelsen af objekter i et synsfelt ved hjælp af vektor mærkning, denne funktion er ikke i øjeblikket tilgængelig.
Den metode, som vi rapporterer om nedenfor beskæftiger sig med disse begrænsninger. I denne undersøgelse blev der anvendt automatisk mærkning af genstande. Dette er muligt ved hjælp af en billedbehandling teknik kendt som semantisk mærkning, hvor hver pixel i hvert billede af videoen er tildelt en etiket, der angiver en objektklasse. Maskinel indlæring bruges til at udlede pixel klassifikatorer for hver enkelt objektklasse af interesse. Disse klassificeringer giver en probabilistisk etiket for hver pixel (kendt som unære potentialer), som derefter raffineres i en efterfølgende optimeringsproces for at opnå det endelige mærkede output. Disse klassificeringer lærer statistiske beslutnings grænser mellem hver objektklasse i løbet af de funktioner, der udvindes fra billedet, herunder tekstur, histogrammet af kant retninger, RGB-farveværdier og de normaliserede billed koordinater. En passende teknik til dette er implementeret i DARWIN Machine Learning værktøjskasse10 og er beskrevet nedenfor.
Generelt, i standardsoftwarepakker til analyse af Eye-tracking data, en vektor AOI anvendes. Selv for et enkelt stillbillede kan vektorens størrelse ikke let måles. Desuden, herunder alle AOIs i et billede og beregning af de relative mængder af AOIs er møjt. Det er næsten umuligt at gøre dette manuelt på en video uden en maskine indlæringsteknik som den beskrevne. Dette var en forholdsvis simpel erklæring, der udleder en gratis visning situation. En meget mere præcis scenario kan bruges og forskellige scenario …
The authors have nothing to disclose.
Dette arbejde blev økonomisk støttet af City of Melbourne og delvist af ARC DP 150103135. Vi vil gerne takke Eamonn Fennessy for hans råd og samarbejdsorienterede tilgang. Med særlig tak til forsker assistenter Isabelle janecki og Ethan Chen som også hjalp indsamle og analysere disse data. Alle fejl forbliver forfatterne.
12 mm lens | Olympus | Lens | |
Panasonic GH4 | Panasonic | Video Camera | |
Tobii Studio version (2.1.14) | Tobii | Software | |
Tobii x120 desktop eye-tracker | Tobii | Eye-tracker |