नि: शुल्क से वीडियो सामग्री के एक विश्लेषण के साथ नज़र ट्रैकिंग डेटा के संयोजन-एक शहरी पार्क वातावरण में टहलने के एक वीडियो देखने

Environment

Your institution must subscribe to JoVE's Environment section to access this content.

Fill out the form below to receive a free trial or learn more about access:

 

Summary

प्रोटोकॉल का उद्देश्य विस्तार करने के लिए कैसे प्रयोगशाला में उपयोग के लिए वीडियो डेटा एकत्र करने के लिए है; कैसे रिकॉर्ड करने के लिए डेटा देख रहे प्रतिभागियों के नेत्र ट्रैकिंग डेटा और कुशलता से वीडियो की सामग्री है कि वे एक मशीन सीखने तकनीक का उपयोग कर देख रहे थे विश्लेषण करने के लिए कैसे ।

Cite this Article

Copy Citation | Download Citations | Reprints and Permissions

Amati, M., McCarthy, C., Parmehr, E. G., Sita, J. Combining Eye-tracking Data with an Analysis of Video Content from Free-viewing a Video of a Walk in an Urban Park Environment. J. Vis. Exp. (147), e58459, doi:10.3791/58459 (2019).

Please note that all translations are automatically generated.

Click here for the english version. For other languages click here.

Abstract

व्यक्तियों के रूप में तेजी से शहरों में रहते हैं, अपने रोजमर्रा के आंदोलनों और डेटा है कि एकत्र किया जा सकता है अध्ययन करने के तरीके महत्वपूर्ण और मूल्यवान हो जाता है । नेत्र ट्रैकिंग सूचना के लिए भावनाओं की एक सीमा से कनेक्ट करने के लिए जाना जाता है, स्वास्थ्य शर्तों, मानसिक राज्यों और कार्यों । लेकिन क्योंकि दृष्टि लगातार आंख आंदोलनों का परिणाम है, बाहर क्या शोर है से महत्वपूर्ण है चिढ़ा जटिल और डेटा गहन है । इसके अलावा, एक महत्वपूर्ण चुनौती क्या लोगों को क्या उंहें प्रस्तुत किया है की तुलना में देखो के लिए नियंत्रित है ।

निंनलिखित वीडियो की सामग्री का विश्लेषण करने के लिए एक मशीन सीखने तकनीक के साथ एक प्राकृतिक और जटिल दृश्य के एक वीडियो पर आंख ट्रैकिंग के संयोजन और विश्लेषण के लिए एक पद्धति प्रस्तुत करता है । प्रोटोकॉल में हम फिल्माया वीडियो से डेटा का विश्लेषण पर ध्यान केंद्रित, कैसे एक वीडियो सबसे अच्छा प्रतिभागियों के नेत्र ट्रैकिंग डेटा रिकॉर्ड करने के लिए इस्तेमाल किया जा सकता है, और महत्वपूर्ण बात कैसे वीडियो की सामग्री और विश्लेषण किया जा सकता है आंख ट्रैकिंग डेटा के साथ संयुक्त । हम परिणाम और जटिल वातावरण में आगे की पढ़ाई के लिए विधि की क्षमता की चर्चा का एक संक्षिप्त सारांश प्रस्तुत करते हैं ।

Introduction

हमारे दैनिक शहरी वातावरण के अनुभवों को बहुत हमारे स्वास्थ्य और भलाई पर प्रभाव रहता है । हमारी भलाई हरी रिक्त स्थान है कि हम देखते है और अनुभव1,2,3की राशि पर निर्भर कर सकते हैं, और इन विचारों को आंख ट्रैकिंग उपकरण का उपयोग कर निर्धारित किया जा सकता है गाइड पार्क डिजाइन के बारे में बनाने के निर्णय । हालांकि, एक समस्या उत्पंन होती है और इस डेटा का अर्थ है कि नेत्र ट्रैकिंग डेटा की मात्रा के साथ उठता है । के रूप में रिकॉर्डिंग के लिए उपकरण एक प्रयोगशाला या प्राकृतिक सेटिंग में टकटकी डेटा आसान हो जाता है का उपयोग करें और अधिक शक्तिशाली हो जाता है, शोधकर्ताओं पर विचार करने के लिए हम कैसे इकट्ठा करने और डेटा प्रामाणिक रूप लायसेंस्ड विश्लेषण के लिए निर्णय लेने के सवालों के साथ मदद कर सकते है की जरूरत है ।

अब तक, आंख ट्रैकिंग अनुसंधान का एक बड़ा सौदा एक सर्वेक्षण या प्रयोगशाला की स्थापना4में तस्वीरों का इस्तेमाल किया है । हालांकि इस पद्धति के परिणाम पर प्रतिलिपि बनाने और नियंत्रण के एक महान सौदे के लिए अनुमति देता है, यह आंख में नवीनतम अग्रिमों का लाभ लेने में असमर्थ है ट्रैकिंग प्रौद्योगिकी जो वीडियो और पहनने योग्य मोबाइल नेत्र trackers के उपयोग में शामिल हैं । इसके अलावा, हम तर्क है कि चलने और आराम जरूरी गतिशील विशेष रूप से जब ऐसे wayढूँढना5के रूप में एक कार्य की ओर उंमुख है के अधिनियम होगा । इसलिए इन सेटिंग्स की एक पूरी तरह से वैज्ञानिक समझ प्रयोगशाला के बाहर जगह ले जाना चाहिए । हालांकि, इस समय, एक वास्तविक जीवन प्रकृतिवादी सेटिंग में नेत्र ट्रैकिंग बहुत मुश्किल विषयों के बीच अनुभव की तुलना करता है । उदाहरण के लिए, यदि हम यह तुलना करना चाहते थे कि एक प्रतिवादी वृक्षों को दूसरे से अधिक देखता है, तो हम इस तथ्य के लिए कैसे नियंत्रण कर सकते हैं कि उनका दृष्टिकोण दूसरों की तुलना में निरंतर बदलता रहेगा या उनका सिर बदल सकता है । इन स्थितियों में विस्तृत विश्लेषण वर्तमान विश्लेषण तकनीकों के साथ असंभव के पास है । हम तर्क है कि यह देखने के लिए उपलब्ध क्षेत्रों को नियंत्रित करने के लिए महत्वपूर्ण है व्यक्ति का अध्ययन किया जा रहा है और विश्लेषण में कुल दृश्य के लिए खाते में सक्षम होने के लिए समय में किसी एक बिंदु पर देखा जा रहा है ।

वहां सिद्धांतों का एक सेट तनाव का स्तर और सुरक्षा के परिदृश्य विचारों और अच्छी तरह से तनाव6,7के उपाय विकसित करने के लिए अवधारणाओं को जोड़ने हैं । वहां भी नेत्र ट्रैकिंग उपकरण के परिष्कार में तेजी से वृद्धि हुई है को मापने के लिए8टकटकी । आंख पर नज़र रखने महत्वपूर्ण है क्योंकि अनैच्छिक आंख आंदोलनों अधिक मज़बूती से वरीयता, तनाव और सर्वेक्षण और दखल से अन्य पारंपरिक उपायों से जुड़ा हो सकता है, ऐसे लार कोर्टिसोल स्तर के रूप में शारीरिक परीक्षण. इस अनुसंधान के उद्देश्य से अधिक प्राकृतिक सेटिंग्स के लिए लागू आंख ट्रैकिंग डेटा का एक अधिक सटीक माप सक्षम है कि उपकरण विकसित करने के लिए है, ताकि के लिए और अधिक सबूत प्रदान करने के लिए या लंबे समय से खड़े परिदृश्य सिद्धांतों खंडन करना है कि पार्क डिजाइन के लिए सूचित किया है दशकों.

इस परियोजना का उद्देश्य विकसित करने के लिए और एक उपंयास विश्लेषण तकनीक है कि प्रासंगिक नजर उत्पंन कर सकते है परीक्षण पार्क चलो सिमुलेशन के विभिंन वीडियो के लिए डेटा ट्रैकिंग है । हमारे काम यहां और कहीं और9 रिपोर्ट एक पूरी तरह से मोबाइल नेत्र ट्रैकिंग प्रणाली और प्रयोगशाला आधारित फोटो अध्ययन के प्रकृतिवादी सेटिंग के बीच एक आधा रास्ता बिंदु का प्रतिनिधित्व करता है ऊपर निर्दिष्ट । विशेष रूप से, हम उत्तेजना सामग्री के रूप में वीडियो का उपयोग करने पर ध्यान केंद्रित, कैसे इस सामग्री को आकर्षण है कि विभिंन पार्कों मेलबोर्न के शहर में उत्पंन की राशि का परीक्षण किया जा सकता है की खोज । हमारा काम इस धारणा पर आधारित है कि वीडियो का विस्तृत विश्लेषण एक फुलर, पार्कों की क्षमता का अधिक प्राकृतिक आकलन करने के लिए तनाव से बहाली प्रदान करने से पहले उल्लंघन करने के लिए एक आवश्यक कदम है ।

इस अध्ययन में, हम शहरी पार्कों के माध्यम से चलता के वीडियो के साथ एक डेस्कटॉप नेत्र ट्रैकर नियोजित और प्रतिभागियों से कहा कि वे एक पार्क के माध्यम से एक आराम चल ले जा रहे थे कल्पना करने के लिए । हम एक विधि का वर्णन करने के लिए समय की राशि की अनुमति है कि प्रतिभागियों के विभिंन वस्तुओं को देख खर्च करने के लिए पार्कों के बीच तुलनीय है । डेस्कटॉप अध्ययन आमतौर पर मोबाइल एट अध्ययन की तुलना में नियंत्रण करने के लिए आसान कर रहे हैं और प्रत्येक विषय के तुलनात्मक विश्लेषण की अनुमति.

मानक नेत्र ट्रैकिंग सॉफ्टवेयर ब्याज उपकरण के एक मैनुअल क्षेत्र में एक ऑपरेटर मैंयुअल रूप से प्रत्येक दृश्य में ब्याज की वस्तुओं के आसपास सीमाओं आकर्षित कर सकते है का उपयोग करता है । यह प्रतिभागियों को स्वचालित रूप से गिना जा करने के लिए विभिन्न वस्तुओं को देख खर्च किया है कि समय की राशि में सक्षम बनाता है. वीडियो डेटा के लिए, यह प्रक्रिया श्रम गहन है और ऑपरेटर व्यक्तिपरकता और त्रुटि के अधीन है । आंख ट्रैकिंग विश्लेषण सॉफ्टवेयर के बाद के संस्करणों में, AOIs स्वचालित रूप से जब वे वीडियो में एक ही आकार के फ्रेम भर में वस्तुओं को ट्रैक कर सकते हैं । यह एक सुधार है, तथापि, यह केवल प्रत्येक छवि में उत्तेजको की एक छोटी संख्या के लिए इस्तेमाल किया जा करने का इरादा है और प्रत्येक छवि की जांच की और पुष्टि की जानी चाहिए ।

एक छवि में वस्तुओं की मैनुअल लेबलिंग आम है और जीएनयू छवि हेरफेर कार्यक्रम (GIMP) जैसे छवि संपादन सॉफ्टवेयर द्वारा समर्थित. यह देखते हुए कि 1 एस 30 फ्रेम या छवियों का उत्पादन, वीडियो के मैनुअल लेबलिंग अव्यावहारिक है । इसके अलावा, जटिल वस्तुओं के किनारे के आसपास वेक्टर बहुभुज ड्राइंग द्वारा AOI लेबलिंग जैसे पेड़ canopies बहुत समय लगता है । अंत में, जबकि यह विचार के एक क्षेत्र में वस्तुओं के आकार की गणना करने के लिए संभव है कि वेक्टर लेबलिंग का उपयोग कर, यह सुविधा वर्तमान में उपलब्ध नहीं है ।

विधि है कि हम नीचे इन सीमाओं के साथ सौदों पर रिपोर्ट । इस अध्ययन में वस्तुओं के स्वत: लेबलिंग का नियोजन हुआ । यह अर्थ लेबलिंग के रूप में जाना जाता है एक छवि प्रसंस्करण तकनीक का उपयोग संभव है, जिसमें वीडियो के हर फ्रेम में हर पिक्सेल एक वस्तु वर्ग का संकेत एक लेबल सौंपा है. मशीन अधिगम का प्रयोग प्रत्येक वस्तु वर्ग के लिए पिक्सेल वर्गीकरण व्युत्पन्न करने के लिए किया जाता है । ये वर्गीकरण प्रत्येक पिक्सेल (अचारी क्षमता के रूप में जाना जाता है), जो तब अंतिम लेबल उत्पादन को प्राप्त करने के लिए एक बाद में अनुकूलन प्रक्रिया में परिष्कृत कर रहे हैं के लिए एक संभालितवादी label प्रदान करते हैं । इन क्लासिफायरों बनावट, बढ़त झुकाव के हिस्टोग्राम, आरजीबी रंग मूल्यों, और सामान्यीकृत छवि निर्देशांक सहित छवि से निकाले सुविधाओं के अंतरिक्ष में प्रत्येक वस्तु वर्गों के बीच सांख्यिकीय निर्णय सीमाओं सीखते हैं । इस के लिए एक उपयुक्त तकनीक डार्विन मशीन सीखने toolbox10 में लागू किया जाता है और नीचे वर्णित है ।

Subscription Required. Please recommend JoVE to your librarian.

Protocol

इस प्रोजेक्ट के लिए एथिकल अप्रूवल ऑस्ट्रेलियन कैथोलिक यूनिवर्सिटी एथिक्स कमेटी-अप्रूवल नंबर #201500036E ने दी थी । यह सुनिश्चित किया है कि सूचित सहमति सभी प्रतिभागियों से प्राप्त की थी और सभी प्रतिभागियों को स्वेच्छा से भाग लिया, और है कि प्रतिभागियों डेटा गुमनाम और गोपनीय रहे । इसके अलावा अनुमोदन के लिए विधि और उपकरणों की बैठक ऑस्ट्रेलियाई मानक सुरक्षा विनियमों के कारण दिया गया था ।

1. एक आंख ट्रैकिंग अध्ययन में इस्तेमाल किया जा सकता है कि शहरी दृश्यों फिल्माने

  1. एक नकली ' चलने ' या ' बैठे ' वीडियो बनाने के लिए एक गिम्बल से जुड़ी एक उच्च गुणवत्ता वाले डिजिटल वीडियो कैमरा का प्रयोग करें.
  2. 25 एफपीएस पर 4k संकल्प में चिकनी द्रव आंदोलनों के साथ फिल्म रिकॉर्ड और उन्हें १९२० x १०८० HD पर बचाने के लिए ।
  3. इस के साथ अपरिचित या उपकरणों के लिए उपयोग की कमी है, तो डिजिटल फिल्मों का उत्पादन करने के लिए एक पेशेवर फिल्माने कंपनी का प्रयोग करें ।
  4. एक ले में फिल्म शूट, सटीक पूर्वनिर्धारित मार्गों और विशेषताओं के साथ सभी वीडियो भर में एक ही लंबाई के लिए ।
    नोट: उदाहरण वीडियो विवरण: प्रत्येक नकली चलो फिल्म 3 मिनट ५० s लंबी थी और प्रत्येक नकली बैठे फिल्म 1 मिनट लंबा था । इस अध्ययन में दोनों वीडियो के लिए, वीडियो एक छोटी सीढ़ी चढ़ाई के साथ शुरू एक मार्ग के लिए अग्रणी । पथ ठीक 1 मिनट 30 एस के लिए पीछा किया गया था और फिर कैमरा बंद कर दिया और 45-60 डिग्री के लिए छोड़ दिया panned और 15 सेकंड के लिए बंद कर दिया । कैमरा तो चलने पथ के साथ जारी 3 ंयूनतम 25 एस मार्क, 15 सेकंड के लिए 40-70 डिग्री छोड़ panned, पथ के साथ जारी 3 मिनट ५० एस निशान है, तो काला करने के लिए फीका ।
  5. सुनिश्चित करें कि फिल्मों की तुलना कर रहे हैं, दूसरे शब्दों में वे उपन्यास टकटकी डेटा अलग चलना प्रक्षेप पथ या कैमरा आंदोलन से परिचय नहीं है । एक फिल्म के प्रत्येक टहलने, दो कुल में लिया गया था ।
  6. के रूप में नेत्र आंदोलनों ध्वनि से प्रभावित होते हैं, रिकॉर्ड सामान्य शहरी पार्क की एक फ़ाइल पार्क के बाहर अचानक जोर शोर से व्यवधान के बिना वीडियो की एक ही लंबाई के लिए चलता है की एक से लगता है (जैसे, कार अलार्म). यह दोनों वीडियो से मौजूदा साउंडट्रैक के बजाय खेला जा सकता है ताकि वीडियो के दृश्य प्रभाव को अलग-थलग किया जा सके ।
    नोट: वाहनों और अन्य वस्तुओं की अत्यधिक आवाजाही आँख आंदोलनों को प्रभावित और परिणाम तिरछा कर सकते हैं. अगर इस घुसपैठ में से कुछ हो जाता है, फिल्म के प्रतिभागियों को खेला जा सकता है लेकिन फ्रेम को विश्लेषण से बाहर रखने की आवश्यकता हो सकती है ।
  7. एक टहलने में विभिन्न गतिविधियों में रुचि रखते हैं, जैसे घूमना और फिर एक बेंच पर बैठे, बचाने के लिए या अलग फ़ाइलों के रूप में बैठे और चलने दृश्यों को संपादित ताकि उन्हें स्वतंत्र रूप से परीक्षण करने के लिए.

2. सेटअप और आँख ट्रैकिंग उपकरण के डेस्कटॉप अंशांकन

  1. एक कमरे में व्यक्तियों को फिल्माया दृश्यों जहां प्राकृतिक प्रकाश स्क्रीन पर प्रतिबिंब से बचने के लिए बाहर रखा जा सकता है दिखाओ । देखने के क्षेत्र के बाहर से व्याकुलता से बचने, जिससे दृश्य क्षेत्र के रूप में ज्यादा कब्जा करने के लिए संभव के रूप में बड़े परदे पर उन्हें करने के लिए यह दिखाने के लिए । एक widescreen (16:9) पीसी मॉनिटर (22 इंच) के प्रतिभागियों के साथ लगभग ६० सेमी दूर स्क्रीन से एक स्वीकार्य मानक है ।
  2. आंख ट्रैकिंग सॉफ्टवेयर पर inbuilt अंशांकन उपकरण का उपयोग कर प्रत्येक प्रतिभागी के लिए स्क्रीन करने के लिए एक अंशांकन प्रदर्शन. प्रतिभागियों को एक लाल गेंद को इस के भाग के रूप में स्क्रीन के चारों ओर बढ़ रही है और 5 कुंजी अंशांकन बिंदुओं पर रोक को देखने के लिए की आवश्यकता है ।
  3. अंशांकन के दौरान प्रतिभागियों का निरीक्षण और सुनिश्चित करें कि वे अपने सिर के रूप में अच्छी तरह से नहीं ले जा रहे हैं । यदि वे भी स्क्रीन के करीब है और स्क्रीन बहुत बड़ी है यह एक समस्या हो सकती है । तदनुसार स्क्रीन से दूरी समायोजित करें ।
  4. एक सफेद क्रॉस वीडियो के प्रारंभिक फ्रेम के शीर्ष बाएं कोने में स्थित है करने के लिए प्रत्येक फिल्म संपादित करें । यह एक वीडियो संपादन सॉफ्टवेयर का उपयोग किया जा सकता है । इस स्क्रीन को 3 सेकंड के लिए दिखाएं, फिर वॉक खेलना शुरू करें । यह आँख ट्रैकिंग अंशांकन की जाँच करने के लिए और आंख ट्रैकिंग डेटा संग्रह समय व्यक्तिगत फ्रेम संख्या के साथ मिलान किया जा सकता है कि यह सुनिश्चित करने के लिए है.

3. भर्ती और नीतिशास्त्र

  1. एक पेशेवर अनुसंधान भर्ती कंपनी का प्रयोग करें नमूना के बीच विभिंन लिंगों, उंर और व्यवसायों का प्रसार सुनिश्चित करने के लिए या छात्र और स्टाफ के शरीर के बीच से साइट पर भर्ती ।
  2. ज्ञात नेत्रीय या मस्तिष्क संबंधी स्थितियों और/या चोटों के लिए स्क्रीन प्रतिभागियों । उन्हें यह पूछा जाना चाहिए कि क्या वे ऐसी दवाएं ले रहे हैं जो आँखों की हलचल को प्रभावित करने के लिए जानी जाती हैं (उदा. बेंज़ोडाज़ीज़ेन्स) ।
  3. दृष्टि पढ़ने के परीक्षण के पास आचरण और एक कलम मशाल नेत्र आंदोलन भ्रमण परीक्षण के लिए प्रदर्शित करता है कि वे पूरी आंख आंदोलन यात्रा है ।
  4. अपनी आयु, लिंग और पार्क उपयोग की आवृत्ति के बारे में सर्वेक्षण प्रतिभागी ।

4. प्रतिभागी प्रयोगात्मक सेटअप

  1. प्रतिभागियों से पूछो खुद को बहाल करने की जरूरत में कल्पना । एक वाक्य है कि उंहें आंख ट्रैकिंग वीडियो के संदर्भ की कल्पना करने की अनुमति देता है का प्रयोग करें जैसे: ' कल्पना कीजिए कि यह दोपहर है और तुम अकेले मेलबोर्न में चल रहे हैं । तुम काम पर गहन एकाग्रता से मानसिक रूप से थक गए है और कहीं के लिए देख रहे हो टहलने के लिए जाना है, नीचे बैठते है और थोड़ी देर के लिए आराम करो, काम पर वापस जाने से पहले ' ।
  2. फिल्मों को देखने के लिए 60 – 65 सेमी की दूरी पर कंप्यूटर स्क्रीन के सामने आराम से प्रतिभागी बैठते हैं ।
  3. एक स्प्रेडशीट प्रोग्राम का उपयोग कर प्रतिभागियों के सामने खेलने से पहले बेतरतीब ढंग से फिल्मों के आदेश ।
  4. सभी फिल्मों के लिए एक ही ऑडियो खेलने के लिए वक्ताओं का प्रयोग करें ।
  5. एक डेस्कटॉप नेत्र ट्रैकिंग प्रणाली का उपयोग कर प्रतिभागियों की गति को घूरना रिकॉर्ड । निर्माता के निर्देशों के अनुसार डेस्कटॉप नेत्र ट्रैकिंग डिवाइस माउंट । यह सिर्फ एक मेज पर स्क्रीन के नीचे हो सकता है, या यह स्क्रीन के किनारे करने के लिए क्लिप सकता है, शीर्ष पर उदाहरण के लिए ।
  6. एक आंख ट्रैकिंग इकाई है कि १२० हर्ट्ज की एक नमूना दर और ०.५० °, जो सिर आंदोलनों प्राकृतिक सिर आंदोलनों के दौरान रिकॉर्डिंग को सक्षम करने की बड़ी स्वतंत्रता की अनुमति देता है की एक सटीकता का उपयोग करें । एक कम आवृत्ति नेत्र ट्रैकर भी स्वीकार्य है । ५७.३ सेमी पर, दृश्य कोण के 1 ° स्क्रीन पर ~ 1 सेमी करने के लिए equates ।
  7. प्रतिभागियों को हाई डेफिनेशन में मॉनिटर पर फुटेज देखने की अनुमति दें ।
  8. आंख ट्रैकिंग सॉफ्टवेयर का उपयोग कर नेत्र आंदोलनों रिकॉर्ड
  9. एक निर्धारण फिल्टर को रोजगार के लिए विश्लेषण के लिए कच्चे नेत्र नमूना डेटा परिवर्तित । मुख्य मेनू से, उपकरण ≫ सेटिंग्सपर क्लिक करें । का चयन करें निर्धारण फ़िल्टर टैब का चयन करें फिक्शंस में कच्चे आंख ट्रैकिंग डेटा कुल के लिए फ़िल्टर का सबसे अच्छा प्रकार पर निर्माता के विनिर्देशों के अनुसार निर्धारण फिल्टर ।
  10. यदि कई फिल्मों का उपयोग करके आई-ट्रैकिंग डेटा रिकॉर्ड करते हैं, तो प्रतिभागी जब भी अनुरोध करें, रिकॉर्डिंग सत्रों के बीच ब्रेक दें.

5. वीडियो के छापों के लिए देखा पार्कों कनेक्ट

  1. प्रतिभागियों से एक-10 के पैमाने पर पार्कों के प्रत्येक दर के लिए पूछ रही है, जो करने के लिए लोगों को वस्तुओं और वीडियो के बारे में उनकी राय की तुलना में किस हद तक कि वे महसूस किया कि वे आराम करने के लिए सक्षम हो जाएगा और उस वातावरण में ठीक करने के लिए के लिए सबसे पहले (1 , बहुत ज्यादा नहीं, 10 करने के लिए, बहुत ज्यादा) और दूसरी बात यह है कि वे पार्क (1, बहुत ज्यादा नहीं, 10, बहुत ज्यादा पसंद है) ।
  2. प्रतिभागियों से पूछो कि क्या वे पार्क का उपयोग करने के लिए आराम या तनाव को दूर करेंगे (Y/N) और क्या वे पार्क वे देख रहे थे मांयता प्राप्त (Y/
  3. एक वॉयस रिकॉर्डर का उपयोग कर अपने छापों की व्याख्या करने के लिए प्रतिभागियों से रिकॉर्ड लघु उत्तर प्रतिक्रियाओं और फिर इन टाइप ।

6. ब्याज निष्कर्षण के क्षेत्र के लिए स्वचालित वीडियो विश्लेषण

  1. AOIs का चयन
    1. पार्क डिजाइनरों, शहरी डिजाइनरों, योजनाकारों या वास्तुकारों, जैसे पेड़, shrubs, साइनपोस्ट, इमारतों, टर्फ, पथ, कदम, आदि के लिए रुचि के आइटम चुनें
    2. इष्टतम प्रदर्शन और ंयूनतम प्रशिक्षण आवश्यकताओं के लिए (आगे नीचे चर्चा), तत्वों है कि आसानी से नेत्रहीन एक दूसरे से नग्न आंखों से अलग कर रहे है का उपयोग करें, और/ सामांय तौर पर, प्रत्येक AOI के नेत्रहीन भेद अंतर दर्शाने वाले पर्याप्त प्रशिक्षण उदाहरण मजबूत प्रदर्शन के लिए पर्याप्त होने चाहिए ।
  2. AOI निष्कर्षण के लिए प्रशिक्षण वर्गीफायरों
    1. प्रशिक्षण फ्रेम का चयन करने के लिए इस्तेमाल किया, संख्या और औचित्य
      1. प्रशिक्षण फ्रेम की एक उचित संख्या चुनें (अब आगे के लिए प्रशिक्षण सेट के रूप में संदर्भित) । कोई निश्चित संख्या है जो उपयुक्त नहीं है ।
        नोट: फ़्रेम को पूरे वीडियो में प्रत्येक ऑब्जेक्ट वर्ग (यानी, उन ऑब्जेक्ट्स को लेबल किए जाने वाले) के विज़ुअल प्रकटन की श्रेणी की पर्याप्त कवरेज प्रदान करनी होगी । उदाहरण के लिए, एक पार्कलैंड दृश्य का चित्रण एक १५,००० फ्रेम वीडियो अनुक्रम से बाहर ४० फ्रेम पर्याप्त सटीकता प्राप्त करने के लिए पाए गए थे । यदि किसी अनुक्रम में तब और अधिक फ़्रेंस की आवश्यकता हो सकती है जिसमें महत्वपूर्ण भिंनता है ।
      2. फ्रेम सामग्री पर विचार जब प्रशिक्षण फ्रेम का चयन । ये शामिल हैं: प्रकाश, क्या वर्गीकृत किया जा रहा है के संबंध में आकार (जैसे, पेड़ के एक प्रकार, लेकिन पेड़ प्रकार की एक सीमा नहीं, छवि में उनकी स्थिति, जिस तरह से वे जलाया जाता है, आदि), बनावट, और रंग ।
      3. भी फ्रेम की संख्या को शामिल करने पर विचार करें । विशेष रूप से, लंबाई और दृश्य की विविधता वीडियो भर में प्रदर्शित की स्थिति का विश्लेषण किया जा रहा है, साथ ही साथ वस्तु वर्गों की संख्या की पहचान करने के लिए, और उनकी उपस्थिति की आवृत्ति ।
    2. प्रशिक्षण फ़्रेम के लिए मैंयुअल पिक्सेल लेबलिंग
      नोट: मैनुअल लेबलिंग प्रशिक्षण फ्रेम ब्याज की वस्तु वर्गों के साथ पिक्सल सहयोगी होगा ।
      1. प्रशिक्षण फ़्रेम की पिक्सेल लेबलिंग
        1. बारी में, छवि संपादन सॉफ्टवेयर में वीडियो से प्रत्येक प्रशिक्षण फ्रेम खोलें ।
        2. वीडियो से प्रत्येक प्रशिक्षण फ्रेम के लिए, लेबलिंग के लिए भरी हुई छवि पर एक पारदर्शी छवि परत ओवरले और एक रंग पैलेट बनाने के लिए, ब्याज की प्रत्येक दिए गए वस्तु वर्ग के लिए एक रंग प्रदान (यानी, aoi) ।
        3. सुनिश्चित करें कि रंग पैलेट और वस्तु वर्गों के लिए रंग की मैपिंग लेबलिंग प्रक्रिया के दौरान ही है ।
        4. नमूना AOI के लिए रंग का चयन करें ।
        5. नमूना AOIs के रंग क्षेत्रों का चयन करके, एक माउस क्लिक करें और खींचें के साथ, क्षेत्र में "रंग" के लिए पिक्सेल उपयुक्त पैलेट विकल्प का उपयोग कर ।
          नोट: यह बड़ी वस्तुओं imprecisely रंग करने के लिए संभव है । हालांकि, केवल कुछ पिक्सेल चौड़ाई की संकीर्ण/छोटी वस्तुओं के लिए, यह सुनिश्चित करने के लिए अधिक सावधानी बरतें कि मैन्युअल लेबलिंग ऑब्जेक्ट के विज़ुअल प्रकटन को सटीक रूप से कैप्चर करता है ।
        6. एक बार एक फ्रेम के लेबलिंग पूरा हो गया है, एक अलग छवि फ़ाइल के रूप में मढ़ा परत निर्यात । सुनिश्चित करें कि आधार फ़ाइल नाम मूल फ़्रेम आधार फ़ाइल नाम से मेल खाता है, लेकिन एक "c" के साथ संलग्न करने के लिए अंत । उदाहरण के लिए, यदि मूल फ़्रेम का नाम "1234. png" था, तो लेबल किए गए लेयर फ़ाइल नाम "1234c. png" होना चाहिए ।
        7. सुनिश्चित करें कि सभी लेबल किए गए चित्र किसी एकल फ़ोल्डर में संग्रहीत हैं ।
      2. मांयता फ़्रेम की पिक्सेल लेबलिंग
        नोट: प्रशिक्षित क्लासिफायर की सटीकता को मात्रात्मक रूप से सत्यापित करने के लिए, लेबल की गई फ़्रेम का एक अतिरिक्त सेट बनाया जाना चाहिए ।
        1. प्रशिक्षण सेट में शामिल होने के लिए पहले से ही नहीं चुना गया मूल वीडियो अनुक्रम से फ़्रेंस का चयन करें । 5 मिनट के वीडियो के लिए, इन 20 से अधिक फ्रेम की जरूरत नहीं है, लेकिन पर्याप्त कवरेज सुनिश्चित करने के लिए वीडियो अनुक्रम भर से समान रूप से जांचा जाना चाहिए ।
        2. हर फ्रेम में एक ही प्रक्रिया का उपयोग कर के रूप में प्रशिक्षण फ्रेम (6.2.2) तैयार करने के लिए रेखांकित लेबल पिक्सल । हालांकि, इस समय के रूप में सटीक और के रूप में यह एक जमीनी सच्चाई की तुलना के रूप में इस्तेमाल किया जाएगा लेबलिंग के साथ संभव के रूप में व्यापक ।
        3. जब किसी फ़्रेम का लेबल पूरा हो जाए, तो प्रशिक्षण के लिए समान नामकरण परिपाटी का उपयोग करें, हालांकि यह सुनिश्चित करना कि फ़ाइलें एक अलग मांयता फ़्रेम फ़ोल्डर में सहेजी गई हैं ।
    3. वीडियो अनुक्रम का स्वचालित पिक्सेल लेबलिंग
      1. Http://drwn.anu.edu.au से डार्विन सॉफ्टवेयर लाइब्रेरी डाउनलोड करें ।
        नोट: इस पत्र में वर्णित प्रणाली एक Linux के वातावरण के भीतर लागू किया गया था, और डार्विन के लिनक्स रिलीज डाउनलोड और स्थापित किया जाना चाहिए, वेबसाइट से निर्देशों का पालन ।
      2. डार्विन जीयूआई लॉंच
      3. डार्विन जीयूआई में, लोड प्रशिक्षण लेबलपर क्लिक करें ।
      4. प्रकट होता है जो फ़ाइल explorer संवाद बॉक्स का उपयोग करते हुए, प्रासंगिक वीडियो अनुक्रम के लिए लेबल प्रशिक्षण छवियों वाले फ़ोल्डर का चयन करें ।
      5. वीडियो फ्रेम लोड पर क्लिक करें और 6.2.3.2 के रूप में एक ही प्रक्रिया का पालन करने के लिए वीडियो अनुक्रम के सभी मूल फ्रेम युक्त फ़ोल्डर का चयन करें । यह छवियों का एक फ़ोल्डर है, जिसमें प्रत्येक फ्रेम फ़ाइल नाम वीडियो अनुक्रम में उस फ्रेम की संख्या है होना चाहिए (उदाहरणके लिए, फ्रेम १२३४ 1234 नाम दिया जाएगा. png)
      6. ट्रेन बटन पर क्लिक करें । एल्गोरिथ्म अब प्रत्येक लेबल प्रशिक्षण फ्रेम की जांच करेगा और वर्गीकृत पिक्सेल के लिए उपस्थिति का एक मॉडल जानने के हित के निर्दिष्ट वस्तु वर्गों में से किसी में ।
    4. प्रशिक्षित वर्गीकारित्र को मान्य करना
      1. एक बार प्रशिक्षण पूरा हो गया है, क्लिक करें मांय प्रशिक्षण बटन ।
      2. फ़ाइल एक्सप्लोरर संवाद बॉक्स का उपयोग करना, प्रासंगिक वीडियो अनुक्रम के लिए सभी लेबल सत्यापन छवियों वाले फ़ोल्डर का चयन करें । प्रशिक्षित क्लासिफायर का उपयोग अब मांयता सेट में संदर्भित प्रत्येक फ़्रेम में पिक्सेल वर्गीकृत करने के लिए किया जाएगा । यह मांयता फ़ोल्डर में प्रदान की जमीन सच लेबल के लिए तुलना करें ।
        नोट: पूर्ण होने पर, GUI सटीकता आंकड़े प्रदर्शित करेगा, जिसमें सत्यापन सेट में प्रत्येक फ़्रेम के लिए सही रूप से लेबल किए गए पिक्सेल का प्रतिशत, साथ ही पूरे सत्यापन सेट में शामिल होगा.
      3. विज़ुअल रूप से जनरेट किए गए लेबल्स को मांय करने के लिए, दृश्य मांयता बटन क्लिक करें । यदि क्लिक किया, प्रत्येक जनरेट किया गया लेबल छवि मूल मांयता फ़्रेम के आगे प्रदर्शित होता है ।
        नोट: यह जहां गलत वर्गीकरण वस्तु पर होने वाली है की पहचान करने में शिक्षाप्रद हो सकता है । उदाहरण के लिए, दृश्य निरीक्षण त्रुटियों का संकेत हो सकता है लगातार किसी ऑब्जेक्ट वर्ग के किसी विशेष भाग में उत्पंन हो रही है, प्रशिक्षण सेट में सुधार लेबलिंग का सुझाव देना आवश्यक है । वैकल्पिक रूप से, निरीक्षण कर सकते है दिखाएँ कि त्रुटियों को केवल एक विशेष समय बिंदु पर वीडियो में हो, और अधिक प्रशिक्षण उदाहरण सुझाव वीडियो में उस समय अवधि से आवश्यक हैं ।
      4. अगर मात्रात्मक या गुणात्मक मांयता में देखा सटीकता स्वीकार्य स्तर से नीचे गिर जाता है, तो आगे प्रशिक्षण उदाहरण शामिल हैं । इस स्थिति में, अतिरिक्त प्रशिक्षण फ़्रेम शामिल करने के लिए 6.2.2 से सभी चरणों को दोहराएं, 6.2.3 में निंन चरणों का पालन करने वाले वर्गीकारक को पुनः प्रशिक्षित करें, और 6.2.4 में निंन चरणों को पुन: मांय करें ।
    5. वीडियो पिक्सेल लेबलिंग
      1. एक बार क्लासिफायर प्रशिक्षण और सत्यापन चरण पूरा हो गया है, पर क्लिक करें डार्विन जीयूआई पर लेबल फ्रेम प्रशिक्षित वर्गीकरण का उपयोग वीडियो अनुक्रम में सभी फ्रेम का पूरा लेबलिंग शुरू करने के लिए ।
      2. सभी आउटपुट फ़्रेम के लिए एक गंतव्य फ़ोल्डर का चयन करने के लिए संकेत का पालन करें, जो लेबल छवियों के रूप में प्रशिक्षण में इस्तेमाल के रूप में एक ही रंग पैलेट का उपयोग किया जाएगा ।

7. वीडियो सामग्री के लिए आंख ट्रैकिंग डेटा दर्ज

  1. आंख पर नज़र रखने सॉफ्टवेयर फ़ाइल ≫ निर्यातपर क्लिक करें.. । आई-ट्रैकिंग फ़ाइल को CSV फ़ाइल के रूप में निर्यात करें ।
  2. फ़ाइल को स्प्रेडशीट प्रोग्राम में खोलें ।
  3. वीडियो अनुक्रम से उस समय की पहचान करते हैं, जिस पर फ़्रेम के ऊपरी बाएं हाथ पर सफेद क्रॉस (२.३ देखें) अदृश्य हो जाता है । आई-ट्रैकिंग रिजल्ट पर संबंधित कॉलम का इस्तेमाल करके आंखों की पहचान करने के लिए इस समय का इस्तेमाल करें । यह आंखों पर नज़र रखने डेटा संग्रह की शुरुआत है ।
  4. नेत्र-ट्रैकिंग डेटा में एक स्तंभ जोड़ें ।
  5. इस नए स्तंभ का उपयोग करके प्रत्येक पंक्ति या नेत्र-ट्रैकिंग डेटा बिंदु संख्या 1 से प्रारंभ होने वाले फ़्रेम संख्या के साथ लेबल ।

8. प्रतिभागियों वीडियो में वस्तुओं के विभिंन वर्गों की जांच की है कि समय की राशि प्रदर्शित

नोट: आंख ट्रैकिंग डेटा के विशाल आकार के कारण, अजगर प्रोग्रामिंग भाषा बेहतर ८.४ के माध्यम से कदम के लिए इस्तेमाल किया है, हालांकि एक डेटा प्रोसेसिंग प्रोग्राम भी इस्तेमाल किया जा सकता है ।

  1. शामिल अजगर कोड का उपयोग करना, ब्याज की वस्तुओं और आंख पर नज़र रखने निर्धारण समय और आवृत्ति के बीच ओवरलैप की राशि की गणना ।
  2. इस डेटा का योग उस समय की राशि को समझने के लिए करें, जो प्रतिभागी विभिंन ऑब्जेक्ट्स पर देख रहे हैं ।
  3. एक हिस्टोग्राम काम करने के लिए समय की कुल राशि है कि वस्तुओं स्क्रीन पर कब्जा दिखा ।
  4. इस तुलना में समय की कुल राशि के साथ कि प्रतिभागियों को विभिंन वस्तुओं को देखा ।
  5. आंख ट्रैकिंग सॉफ्टवेयर में से एक पर एक heatmap उत्पादन के लिए टिक बॉक्स का उपयोग कर वीडियो पार्क चलना पर क्लिक करें ।
  6. हीट मैप टैब क्लिक करें ।
  7. ' गणना ' (समय विंडो पर किए गए फिक्शन्स की कुल संख्या), ' निरपेक्ष अवधि ' (संचित नियतन अवधि), और ' सापेक्ष अवधि ' (समय की राशि एक देख खर्च की मात्रा) ' के चर का उपयोग कर के रूप में वांछित गर्मी नक्शे के रंग और अन्य सुविधाओं को समायोजित करें वस्तु एक दृश्य को देख खर्च समय की राशि से विभाजित) ।
  8. एक JPEG फ़ाइल या वीडियो फ़ाइल के रूप में हीट मैप शामिल है जो छवि या वीडियो निर्यात करें ।

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

चित्रा 1 और चित्रा 2 सभी प्रतिभागियों भर में पूरे वीडियो के लिए सभी आंख ट्रैकिंग डेटा लेने का परिणाम दिखाने के लिए और एक गर्मी नक्शा उत्पादन; इस मानक दृष्टिकोण है आंख में उपलब्ध सॉफ्टवेयर संकुल ट्रैकिंग । चित्रा 1 और चित्रा 2 की तुलना करके यह पहचान है कि औसत प्रतिभागियों पर छोड़ दिया और सही 1 चित्रा में वीडियो के एक्स निर्देशांक पर चित्रा 2की तुलना में, जो एक राउंडर आकार से पता चलता है स्कैन संभव है । यह है क्योंकि चित्रा 1 चित्र 2में पार्क की तुलना में पूरे वीडियो में अधिक क्षैतिज तत्वों था । हीट मानचित्र के पीछे की छवि एक एकल फ्रेम है और पर्याप्त रूप से वीडियो की पूरी सामग्री का प्रतिनिधित्व नहीं करता है ।

डेस्कटॉप नेत्र ट्रैकिंग प्रणाली और सॉफ्टवेयर केवल परिणामों की गिनती जहां दोनों आंखें एक ही समय में स्थित किया जा सकता है । दूसरे शब्दों में, यदि एक या दोनों आंखें स्थित नहीं किया जा सकता डेटा खो के रूप में गिना जाता है । हमारे मामले में आंख ट्रैकिंग डेटा समय के 80% > के लिए कब्जा कर लिया गया था ।

चित्रा 3 और चित्रा 4 वीडियो की सामग्री का विश्लेषण करने के लिए प्रोटोकॉल और मशीन सीखने के उपयोग का उपयोग करने का परिणाम दिखा. चित्रा 3 Fitzroy उद्यान के घने वनस्पति रॉयल पार्क की अपेक्षाकृत विरल वनस्पति की तुलना में पता चलता है (चित्रा 4) । बाद में, अधिक आकाश दिखाई देता है, दृश्यों की अधिक झाड़ी वनस्पति का प्रभुत्व है । चित्रा 5 प्रतिभागियों में से एक के लिए वीडियो के दौरान विभिन्न वस्तुओं पर% निर्धारण समय से पता चलता है. यह दिखाता है कि हालांकि वीडियो के दौरान रास्ता स्पष्ट रूप से दिखाई देता है, प्रतिभागी केवल इस सुविधा को कभी-कभार लेकिन महत्वपूर्ण बिंदुओं पर देखता है । इसी तरह, चित्रा 6 शो के रूप में, हालांकि रॉयल पार्क में वीडियो की सामग्री का एक छोटा सा अंश कृत्रिम वस्तुओं से संबंधित है, अध्ययन में भागीदार इन सुविधाओं को एक तुलनात्मक रूप से काफी हद तक जांच करता है ।

चित्र3, अंक 4, अंक 5और अंक 6 में दिए गए निष्कर्षों को अंक 7 में संक्षेप में प्रस्तुत किया जा सकता है और सभी ३९ प्रतिभागियों के लिए अंक 8 का उपयोग किया गया है जिनका डेटा इस अध्ययन में प्रयुक्त हुआ था । चित्रा 7 सभी प्रतिभागियों के लिए ध्यान केंद्रित समय से पता चलता है जब वीडियो की लंबाई भर में वस्तुओं को देख रहे हैं । चित्रा 8 यह एक ही डेटा समय और अंतरिक्ष की राशि है कि इन विभिंन वस्तुओं वीडियो में कब्जा से विभाजित दिखाता है । 1 मान इंगित करता है कि ध्यान केंद्रित करना समय वीडियो में ऑब्जेक्ट की मात्रा के हिसाब से किया जा सकता है । चित्र 7 में दर्शाया गया है कि अन्य वस्तुओं (> 1) की तुलना में कृत्रिम वस्तुएं जैसे कि स्ट्रीट लैंप और बेंच एक बड़ी सीमा तक पर हैं । चित्रा 7 यह भी पता चलता है कि वस्तुओं है कि कम उचित थे, जैसे दोनों छवियों में आकाश के रूप में, अपेक्षाकृत कम (< 1) देखा गया ।

Figure 1
चित्रा 1: उदाहरण गर्मी नक्शा है कि पार्कों में से एक के पूरे वीडियो के लिए उत्पादन किया जाता है । यह पता चलता है जहां नेत्र पटरियों के बहुमत स्थित थे । वीडियो में क्षैतिज तत्वों के प्रभुत्व के कारण हीट मैप की क्षैतिज आकृति को नोट करें । इस आंकड़े का बड़ा संस्करण देखने के लिए कृपया यहां क्लिक करें ।

Figure 2
चित्रा 2: उदाहरण गर्मी नक्शा है कि पार्कों में से एक दूसरे के पूरे वीडियो के लिए उत्पादन किया है । वीडियो में अनुलंब और क्षैतिज तत्वों की उपस्थिति के कारण अधिक गोलाकार आकृति नोट करें । इस आंकड़े का बड़ा संस्करण देखने के लिए कृपया यहां क्लिक करें ।

Figure 3
चित्रा 3: Fitzroy उद्यान के वीडियो में सामग्री के हिस्टोग्राम मशीन सीखने की तकनीक का उपयोग कर विश्लेषण किया । इस आंकड़े का बड़ा संस्करण देखने के लिए कृपया यहां क्लिक करें ।

Figure 4
चित्रा 4 रॉयल पार्क के वीडियो में सामग्री के हिस्टोग्राम मशीन सीखने की तकनीक का उपयोग कर विश्लेषण किया । इस आंकड़े का बड़ा संस्करण देखने के लिए कृपया यहां क्लिक करें ।

Figure 5
चित्रा 5: नेत्र ट्रैकिंग निर्धारण समय Fitzroy गार्डन में वस्तुओं को देख कर बिताया । इस आंकड़े का बड़ा संस्करण देखने के लिए कृपया यहां क्लिक करें ।

Figure 6
चित्रा 6: नेत्र ट्रैकिंग निर्धारण समय रॉयल पार्क में वस्तुओं को देख बिताया । इस आंकड़े का बड़ा संस्करण देखने के लिए कृपया यहां क्लिक करें ।

Figure 7
चित्रा 7: समग्र नेत्र ट्रैकिंग सभी प्रतिभागियों और दोनों पार्कों के लिए वस्तुओं के लिए समय रहते हैं । इस आंकड़े का बड़ा संस्करण देखने के लिए कृपया यहां क्लिक करें ।

Figure 8
चित्रा 8: एकत्रित नेत्र ट्रैकिंग ध्यान केंद्रित बार दोनों पार्कों के लिए सभी प्रतिभागियों और वस्तुओं के लिए सामग्री के सापेक्ष. इस आंकड़े का बड़ा संस्करण देखने के लिए कृपया यहां क्लिक करें ।

Subscription Required. Please recommend JoVE to your librarian.

Discussion

आम तौर पर, नेत्र ट्रैकिंग डेटा का विश्लेषण करने के लिए मानक सॉफ्टवेयर संकुल में, एक वेक्टर AOI उपयोग किया जाता है । यहां तक कि एक भी छवि के लिए, वेक्टर के आकार आसानी से मापा नहीं जा सकता । इसके अलावा, सभी AOIs सहित एक छवि में और AOIs के सापेक्ष मात्रा की गणना श्रमसाध्य है । यह लगभग ऐसी एक वर्णित के रूप में एक मशीन सीखने की तकनीक के बिना एक वीडियो पर मैंयुअल रूप से करना असंभव है । यह एक अपेक्षाकृत सरल बयान है कि एक मुक्त देखने की स्थिति infers था । एक और अधिक सटीक परिदृश्य इस्तेमाल किया जा सकता है और एक ही उत्तेजना से पहले विभिन्न परिदृश्य विवरण भी आँख आंदोलनों11को प्रभावित कर सकते हैं.

हमारे शोध में एक वीडियो में वस्तुओं को वर्गीकृत करने के लिए एक विधि का उपयोग किया गया और यह विश्लेषण कि किस हद तक ये आंख को दिखाई दे रहे थे । यह विधि उस सीमा के हिसाब से एक साधन का प्रतिनिधित्व करती है जिसके लिए नेत्र संचलन ब्याज की वस्तुओं से जुड़े होते हैं । यह एक डेस्कटॉप-आधारित सिस्टम का उपयोग करते समय एक मोबाइल आँख ट्रैकिंग डिवाइस, या विभिन्न स्थानों के साथ विभिन्न विषयों से आँख ट्रैकिंग की तुलना करते समय नियंत्रित किया जा करने के लिए विचार के एक क्षेत्र में किस हद तक ब्याज की वस्तुओं मौजूद हैं करने के लिए सक्षम बनाता है. विचार है कि हम रोजगार सीखने मशीन का उपयोग कर वस्तुओं के स्वत: वर्गीकरण को प्रभावित कर सकते है प्रकाश, क्या वर्गीकृत किया जा रहा है के संबंध में आकार (उदाहरण के लिए पेड़ का सिर्फ एक प्रकार नहीं है, लेकिन पेड़ प्रकार की एक श्रृंखला, में उनकी स्थिति छवि, जिस तरह से वे आदिजलाया जाता है), बनावट, और रंग । फ्रेम की संख्या पर विचार की लंबाई और दृश्य वीडियो भर में प्रदर्शित की स्थिति की भिंनता शामिल है विश्लेषण किया जा रहा है, साथ ही साथ वस्तु वर्गों की संख्या की पहचान करने के लिए और उनकी उपस्थिति की आवृत्ति । फ्रेम हर 1/25 सेकंड बदल जाते हैं, लेकिन सॉफ्टवेयर के साथ आंख ट्रैकिंग 1/120 (१२० हर्ट्ज) पर होता है । इस कारण से आंख ट्रैकिंग डेटा ४.८ बार दर जिस पर एक नया फ्रेम प्रकट होता है पर एकत्र किया जाएगा । यह पूरी तरह से सही लेबल करने के लिए संभव नहीं है लेकिन फ्रेम की लेबलिंग हर 5 बार बदलना चाहिए । उदाहरण के लिए, वीडियो के 100 सेकंड के फ्रेम के लिए ९९ से १०१ एस के दौरान नेत्र ट्रैकिंग डेटा पर विचार किया गया है ।

वर्तमान नेत्र ट्रैकिंग संकुल का एक महत्वपूर्ण लाभ यह है कि वे सेट अप करने के लिए उपयोगकर्ताओं को अपनी आंख की एक फिल्म की समीक्षा करने की अनुमति देने के लिए कर रहे है पर नज़र रखने और रास्ते और वर्णन क्यों वे कुछ वस्तुओं पर देखा । एक गुणात्मक डेटा सेट में यह परिणाम प्रकट कर सकते है कि क्यों व्यक्तिगत विषयों लगता है कि वे कुछ वस्तुओं पर देखा है । परियोजना के विस्तार के लिए भी उंहें समय वे सामग्री के सापेक्ष अलग समय पर वस्तुओं को देख खर्च की राशि दिखाने के लिए, उदाहरण के लिए 8 अंकमें जानकारी होगी । फिर भी, एक दृश्य में वस्तुओं की संख्या के लिए तेजी से पर्याप्त नियंत्रण द्वारा इस वर्तमान में संभव नहीं है ।

उदाहरण के लिए, प्रतिभागियों को अपने ही टकटकी रास्तों कि दर्ज किया गया था और वर्णन क्यों वे विशेष रूप से12वस्तुओं को देखा था देखने के लिए कहा जा सकता है । हमारे मामले में, प्रत्येक फिल्म के प्रतिभागियों के अंत में 1-10 के पैमाने पर पार्कों में से प्रत्येक की दर के लिए कहा गया था, सबसे पहले के लिए कि क्या वे महसूस किया कि वे आराम करने के लिए और उस वातावरण में ठीक हो जाएगा (1, बहुत ज्यादा नहीं, 10 से, बहुत अधिक) और दूसरा कितना वे पसंद किया पार्क (1, बहुत ज्यादा नहीं, 10, बहुत ज्यादा) ।

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

कोई नहीं

Acknowledgments

इस काम को आर्थिक रूप से मेलबोर्न के शहर और आंशिक रूप से आर्क डी पी १५०१०३१३५ द्वारा समर्थित था । हम उनकी सलाह और सहयोगात्मक दृष्टिकोण के लिए Eamonn Fennessy शुक्रिया अदा करना चाहूंगा । शोधकर्ता सहायकों Isabelle Janecki और एसे चेन के लिए विशेष धन्यवाद के साथ जो भी इकट्ठा करने और इस डेटा का विश्लेषण करने में मदद की । सभी त्रुटियों लेखकों रहते हैं ।

Materials

Name Company Catalog Number Comments
12 mm lens Olympus Lens
Panasonic GH4  Panasonic Video Camera
Tobii Studio version (2.1.14)   Tobii Software
Tobii x120 desktop eye-tracker Tobii Eye-tracker

DOWNLOAD MATERIALS LIST

References

  1. Patrik, P., Stigsdotter, U. K. The relation between perceived sensory dimensions of urban green space and stress restoration. Landscape and Urban Planning. 94, (3-4), 264-275 (2010).
  2. Bjørn, G., Patil, G. G. Biophilia: does visual contact with nature impact on health and well-being? International Journal of Environmental Research and Public Health. 6, (9), 2332-2343 (2009).
  3. Velarde, M. aD., Fry, G., Tveit, M. Health effects of viewing landscapes-Landscape types in environmental psychology. Urban Forestry & Urban Greening. 6, (4), 199-212 (2007).
  4. Polat, A. T., Ahmet, A. Relationships between the visual preferences of urban recreation area users and various landscape design elements. Urban Forestry & Urban Greening. 14, (3), 573-582 (2015).
  5. Peter, P., Giannopoulos, I., Raubal, M. Where am I? Investigating map matching during self-localization with mobile eye tracking in an urban environment. Transactions in GIS. 18, (5), 660-686 (2014).
  6. Berto, R., Massaccesi, S., Pasini, M. Do Eye Movements Measured across High and Low Fascination Photographs Differ? Addressing Kaplan's Fascination Hypothesis. Journal of Environmental Psychology. 28, (2), 185-191 (2008).
  7. Kaplan, S. The restorative benefits of nature: Towards an integrative framework. Journal of Environmental Psychology. 15, 169-182 (1995).
  8. Duchowski, A. T. Eye Tracking Methodology: Theory and Practice. 3rd ed, Springer International Publishing. London. (2017).
  9. Amati, M., Ghanbari Parmehr, E., McCarthy, C., Sita, J. How eye-catching are natural features when walking through a park? Eye- tracking responses to videos of walks? Urban Forestry and Urban Greening. 31, 67-78 (2018).
  10. Gould, S. D. A. R. W. I. N. A Framework for Machine Learning and Computer Vision Research and Development. Journal of Machine Learning Research. (Dec), 3533-3537 (2012).
  11. Richardson, D., Matlock, T. The integration of figurative language and static depictions: an eye movement study of fictive motion. Cognition. 102, (1), 129-138 (2007).
  12. Bojko, A. Eye Tracking the User Experience: A Practical Guide to Research. Rosenfeld, New York. (2013).

Comments

0 Comments


    Post a Question / Comment / Request

    You must be signed in to post a comment. Please or create an account.

    Usage Statistics